Метафизика креативности


КРЕАТИВНОСТЬ СУПЕРКОМПЬЮТЕРИЗАЦИИ НАУЧНЫХ ИССЛЕДОВАНИЙ



Скачать 425.82 Kb.
страница9/12
Дата13.02.2017
Размер425.82 Kb.
Просмотров2735
Скачиваний0
ТипМонография
1   ...   4   5   6   7   8   9   10   11   12

2.2. КРЕАТИВНОСТЬ СУПЕРКОМПЬЮТЕРИЗАЦИИ НАУЧНЫХ ИССЛЕДОВАНИЙ
Наука, являясь особым видом познавательной деятельности, характеризуется предметностью, объективностью, системной организованностью, обоснованностью (эмпирическим подтверждением и логическим доказательством). Важнейшими познавательными функциями науки является описание, объяснение и предвидение (предсказание, прогнозирование). Организация науки традиционно осуществляется по объектам исследования (естествознание, технические науки, социальные науки и гуманитарные науки); по предметам исследования (дисциплинарное, междисциплинарное и проблемно ориентированное); по уровням исследования (эмпирические и теоретические); по типам исследования (фундаментальные и прикладные); по типам научной рациональности (классическая, неклассическая, постнеклассическая). Исследование – один из видов научного познания, направленный на производство нового знания (новой истины). Научное познание является общественно-историческим процессом творческой деятельности учёных, формирующий их знания, на основе которых возникают цели и мотивы человеческих действий. Если в результате исследования будет найдена (открыта или изобретена) новая истина, то это будет научным творчеством.

Научное творчество – это процесс деятельности, создающий нечто новое, ранее не существовавшее в науке. Творчество представляет собой способность человека созидать новую реальность, удовлетворяющую многообразные общественные и личные потребности. Критериями ценности самого творчества и его результатов является новизна, оригинальность, совершенство и общественно-человеческая значимость. Относительно общепринятым является социологическое определение творчества как того, что некоторые группы, с точки зрения системы, её ожиданий, воспринимается как новое и тем самым модифицирующее эту систему (модификацией считается преобразование, влекущее появление новых свойств). Креативность (от лат. creatio – создание, сотворение) – творческие способности индивида, характеризующиеся готовностью к принятию и созданию принципиально новых идей, отклоняющихся от традиционных или принятых схем мышления и входящие в структуру одарённости в качестве независимого фактора, а также способность решать проблемы, возникающие внутри статичных систем. 

Истина представляет собой идеал знания и способ его достижения (обоснования). Это ценностно-теоретическое понятие, предполагающее, с одной стороны, рефлексивно-конструктивную разработку критериев совершенства и совершенствования знания, и с другой – отнесение к системе ценностей, в которой идеал данного совершенства определяется контекстуально, через связи с другими ценностными категориями. Традиционно под истиной понимается адекватное (вполне соответствующее, тождественное) отражение действительности субъектом, воспроизведение её такой, какова она есть, вне и независимо от сознания. Категория истины характеризует результаты научной познавательной деятельности с точки зрения их объективного содержания, которое выделяется практикой (практика – критерий истины). Объективной истиной считается независимое от человека и человечества содержание знания. По форме истина субъективна – она свойство человеческого знания. По содержанию истина объективна, так как не зависит от сознания, а обусловлена отображающимся в нём материальным миром. Опытные научные теории получают свою фундаментальную проверку с помощью практики: если теория успешно применяется на практике, это означает, что она является относительно истинной. Способы проверки теории на практике могут быть различными. Однако проверка на практике научных теорий не означает превращение их в абсолютные (безусловные), научные теории развиваются, обогащаются, уточняются, некоторые их положения заменяются новыми. Проблемы, связанные с условиями постижения и удостоверения истины, решаются в теории познания (гносеологии).

Фундаментальные методологические принципы (с лат. принцип - основа, начало) - это общие требования, предъявляемые к содержанию, структуре и способу организации научного знания. Они относятся к научному знанию в целом, а не к какому-то отдельному разделу или дисциплине. Методологические принципы являются ядром научного метода. Они объединяют и организуют отдельные методы и приемы в единое целое, в единый научный метод. Методологические принципы научного познания регулируют научную деятельность (их часто называют регулятивными принципами, или методологическими регулятивами). Именно в силу регулятивной функции эти принципы проводят деморкацию науки от ненауки и псевдонауки. По сути дела методологические принципы создают науку. Вторая важнейшая функция методологических принципов - эвристическая. Регулируя научную деятельность, эти принципы одновременно дают и ориентацию научного поиска, его направления.

В качестве методологических принципов научного познания выступают следующие: принцип подтверждаемости (верифицируемости), принцип опровергаемости (фальсифицируемости), принцип наблюдаемости, принцип простоты, принцип соответствия, принцип инвариантности (симметрии), принцип системности (согласованности), принцип дополнительности, принцип красоты, экстремальные принципы и некоторые другие. В системе методологических принципов можно выделить две подгруппы. Одна подгруппа - это принципы подтверждаемости, опровергаемости и наблюдаемости. Они в основном регулируют взаимоотношения теоретического и эмпирического уровней научного знания. Вторая подгруппа - это принципы простоты, соответствия, симметрии, системности, красоты, дополнительности и экстремальные принципы. Эти принципы в основном функционируют на теоретическом уровне. Такое разделение в некоторой степени относительно, поскольку все принципы взаимосвязаны и в реальном научном познании они относятся ко всему знанию, т. е. к обоим уровням.

Соответственно определяется и методология научных исследований во взаимоотношении с формальной и математической логикой, а также методами научного познания. В системе логико-методологического анализа существуют два уровня: философско-гносеологический и уровень специально-научных форм методологического анализа. В науке используются два типа приёмов и методов исследования: 1) общелогические: анализ, синтез, абстрагирование, обобщение, индукция, дедукция, аналогия, моделирование (изучение объекта (оригинала) путём создания и исследования его копии (модели), замещающей оригинал с определённых сторон, интересующих познание); 2) научные методы эмпирического исследования: наблюдение, описание, измерение, сравнение, эксперимент (в отличии от обычного наблюдения, в эксперименте исследователь активно вмешивается в протекание изучаемого процесса, с целью получить о нём определённые знания; исследуемое явление наблюдается здесь в специально создаваемых и контролируемых условиях, что позволяет восстанавливать каждый раз ход явления при повторении условий) и научные методы теоретического исследования: формализация, аксиоматический метод, гипотетико-дедуктивное развертывание теории, метод восхождения от абстрактного к конкретному.

Ориентация современной науки на исследование сложных исторически развивающихся систем существенно перестраивает идеалы и нормы исследовательской деятельности. Историчность системного комплексного объекта и многовариантность его поведения предполагает широкое применение особых способов описания и предсказания его состояния - построение сценариев возможных линий развития системы в точках бифуркации (раздвоения, разветвления). С идеалом строения теории как аксиоматически-дедуктивной системы все больше конкурируют теоретические описания, основанные на применении метода аппроксимации, теоретические схемы, использующие компьютерные программы, и т. д. В естествознание начинает все шире внедряется идеал исторической реконструкции, которая выступает особым типом теоретического знания, ранее применявшимся преимущественно в гуманитарных науках. Образцы исторических реконструкций можно обнаружить не только в дисциплинах, традиционно изучающих эволюционные объекты (биология, геология), но и в современной космологии и астрофизике: современные модели, описывающие развитие Метагалактики, могут быть расценены как исторические реконструкции, посредством которых воспроизводятся основные этапы эволюции этого уникального исторически развивающегося объекта. Изменяется представление и о стратегиях эмпирического исследования. Идеал воспроизводимости эксперимента применительно к развивающимся системам должен пониматься в особом смысле. Если эти системы типологизируются, т. е. если можно проэкспериментировать над многими образцами, каждый из которых может быть выделен в качестве одного и того же начального состояния, то эксперимент даст один и тот же результат с учетом вероятностных линий эволюции системы.

Однако кроме развивающихся систем, которые образуют определенные классы объектов, существуют еще и уникальные исторически развивающиеся системы. Эксперимент, основанный на энергетическом и силовом взаимодействии с такой системой, в принципе не позволит воспроизводить ее в одном и том же начальном состоянии. Сам акт первичного "приготовления" этого состояния меняет систему, направляя ее в новое русло развития, а необратимость процессов развития не позволяет вновь воссоздать начальное состояние. Поэтому для уникальных развивающихся систем требуется особая стратегия экспериментального исследования. Их эмпирический анализ осуществляется чаще всего методом вычислительного эксперимента на ЭВМ, что позволяет выявить разнообразие возможных структур, которые способны породить систему (подробнее о вычислительных экспериментах будет сказано ниже).

Среди исторически развивающихся систем в современной науке особое место занимают природные комплексы, в которые включен в качестве компонента сам человек. Примерами таких "человекоразмерных" комплексов могут служить медико-биологические объекты, объекты экологии, объекты биотехнологии, системы "человек-машина" (включая сложные информационные комплексы и системы искусственного интеллекта) и т. д. При изучении "человекоразмерных" объектов поиск истины оказывается связанным с определением стратегий и возможных направлений преобразования такого объекта, что непосредственно затрагивает гуманистические ценности. С системами такого типа нельзя свободно экспериментировать. В процессе их исследования и практического освоения особую роль начинает играть знание запретов на некоторые стратегии взаимодействия, потенциально содержащие в себе катастрофические последствия. В этой связи трансформируется идеал ценностно-нейтрального исследования. Объективно-истинное объяснение и описание применительно к "человекоразмерным" объектам не только допускает, но и предполагает включение аксиологических факторов в состав объясняющих положение. Возникает необходимость экспликации связей фундаментальных внутринаучных ценностей (поиск истины, рост знаний) с вненаучными ценностями общесоциального характера. В современных программно-ориентированных исследованиях эта экспликация осуществляется при социальной экспертизе программ.

Таким образом, сложность научных проблем на современном этапе делает необходимым использование мощных суперкомпьютеров для их решения. Супервычисления (суперкомпьютинг) не только придают новые качества эмпирическому и теоретическому познанию, но и открывают принципиально новый уровень исследования – вычислительный (супервычислительный).

Суперкомпьютер (англ. supercomputer – супервычислитель) — вычислительная машина, значительно превосходящая по своим техническим параметрам большинство существующих компьютеров. Как правило, современные суперкомпьютеры представляют собой большое число высокопроизводительных серверных компьютеров, соединённых друг с другом локальной высокоскоростной магистралью для достижения максимальной производительности в рамках подхода распараллеливания вычислительной задачи. Сейчас в мире самыми мощными считаются суперкомпьютеры с производительностью 10 петафлопс (10 квадриллионов операций с плавающей запятой в секунду, или 1016). В ближайшем будущем для суперкомпьютинга планируется создание суперкомпьютера мощностью 20-25 петафлопс и, в перспективе, создание суперкомпьютеров мощностью в экзафлопс (1018), зеттафлопс (1021), йотафлопс (1024) и ксерафлопс (1027). В некоторых публикациях употребляют термин «флоп» вместо «флопс», что в любом случае обозначает количество операций с плавающей запятой, проводимых в одну секунду (то есть флопы отражают математические манипуляции с десятичными дробями, что радикально отличается от операций с целыми числами; флопы более адекватно выражают оценку производительности компьютера).

Развитие современной науки невозможно представить без высокопроизводительных вычислений и обмена большим количеством информации. Именно для этих целей были разработаны грид-технологии (англ. grid – решётка). Они представляют собой разделённые в географическом смысле вычислительные мощности, связанные в единую сеть посредством специальных сервисов (такие сервисы обозначаются общим понятием «грид-технологии»). Россия участвует в создании европейской грид-системы EGEE/EGI и глобальной грид-инфраструктуры LCG центров по анализу данных экспериментов на Большом адронном коллайдере (БАК, LHC) в ЦЕРНе (CERN). Суперкомпьютерные грид-системы эффективно работают с множеством ресурсных центров – суперкомпьютеров, различающихся как по архитектуре, так и по прикладному программному обеспечению. Созданная сегодня технология, благодаря масштабируемости позволит объединить десятки и сотни вычислительных центров, обслуживать в автоматическом режиме тысячи пользователей, выполняющих на суперкомпьютерах сложные расчёты использованием алгоритмов параллелизации вычислений и интеллектуальной подготовки заданий. Центральной задачей является обеспечение дружественным интерфейсом доступа к прикладному ПО на суперкомпьютерных ресурсах сети.

В перспективе важнейшее значение для суперкомпьютеризации науки будут иметь квантовые компьютеры (англ. quantum computers), которые представляют собой вычислительные устройства, работающие на основе квантовой механики в отличие от существующих компьютеров, работающих по законам классической механики. Квантовый компьютер использует для вычисления не обычные (классические) алгоритмы, а процессы квантовой природы, так называемые квантовые алгоритмы, использующие квантово-механические эффекты, такие как квантовый параллелизм и квантовая запутанность. Именно это позволило бы сверхпроизводительным квантовым компьютерам решать одновременно множество задач, значительно увеличивая скорость обработки информации.

Рассмотрим некоторые важные (позитивные и негативные) результаты использования супервычислений в науке.

Недавно американский и японские учёные, используя суперкомпьютер, вычислили число π с точностью до 10 триллионов (1012) знаков после запятой, что является рекордом (интересно заметить, что последняя цифра - это «5»!). Для сравнения, отметим, что вычисление длины окружности Вселенной с точностью до радиуса атома водорода возможно всего лишь 39 десятичных знаков числа π. Однако десятичное разложение числа π полезно, например, в приложении к криптографии, в разработке новых вычислительных алгоритмов, при совершенствовании вычислительного оборудования. Научно-фундаментальное значение точности вычисления числа π заключается в доказательстве его иррациональности (иррациональные числа – числа, несоизмеримые с единицей, а потому не могущие быть точно выраженными ни целыми, ни дробными рациональными числами; рациональные числа – целые и дробные и число нуль).

На стыке физики и математики возникла экспериментальная математика: открытие новых математических закономерностей путём компьютерной обработки большого числа примеров. Такой подход не столь убедителен, как короткое доказательство, но может быть убедительнее длинного, сложного доказательства и, в некоторых случаях, вполне приемлемым. Масштабные компьютерные вычисления могут быть убедительными, но они не всегда избавляют от необходимости доказательства. В особых важных случаях необходимы и те и другие, поскольку доказательства могут содержать ошибки, а компьютерные вычисления могут быть остановлены как раз перед обнаружением контрпримера, который опроверг бы предполагаемый вывод.

Математический аппарат общей теории относительности Эйнштейна представляет собой набор очень сложных уравнений для описания особенностей метрики, определяющей геометрию пространства-времени. Компактные математические решения этих уравнений могут быть найдены только для очень простых конфигураций, таких как сферическое пространство-время. Начиная с 1970-х годов, значительные усилия были направлены в сторону «цифрового релятивизма», поиска решений уравнений Эйнштейна с использованием мощных компьютеров. В конечном счете, цифровой релятивизм должны дать решение для сложных астрофизических конфигураций, встречающихся в природе, но прогресс в этом направлении идёт с большим трудом, частично из-за нелинейности в уравнениях Эйнштейна. Физики, надеясь обнаружить гравитационные волны, рассчитывают на возможность получения расчётных характеристик этих волн при помощи цифрового релятивизма.

В 2008 году физики-теоретики с большой точностью подсчитали массу протона. Экспериментально эту массу учёные могут измерять уже почти 100 лет, но посчитать её было довольно сложным занятием. Использовав суперкомпьютеры и новые подходы, исследователи сумели посчитать массу протона с двухпроцентной погрешностью – в 10 раз точнее, чем это давали предыдущие расчёты. Это достижение является важнейшим в области познания микромира. Для решения уравнений квантовой хромодинамики с целью нахождения массы протона теоретически, была построена модель, где использовалась матрица, которая содержала порядка 10 триллионов чисел (решения этих уравнений сравнивали с результатом, который даёт стандартная модель элементарных частиц, с экспериментальными данными о массе протона). По существующей теории протон состоит из трёх кварков. Задача состояла в том, чтобы рассчитать свойства протона по известным свойствам трёх кварков. Однако эти три кварка внутри протона настолько сложно взаимодействуют между собой, что понадобилось проводить расчёты с триллионами чисел. В дальнейшем сравнили результаты численного расчёта с результатами наблюдения и получили необходимое соответствие.

В современной космологии наряду с приборами для наблюдений (телескопами, в том числе и космическими) широко используются и суперкомпьютеры для обработки полученных данных, являющихся принципиально новыми. Без этого невозможно исследовать такие космические объекты и процессы, как Большой взрыв, чёрные дыры, квазары, пульсары, сингулярности и т.п.

Рассмотрим с точки зрения суперкомпьютеризации важные гносеологические понятия, необходимые для дальнейшего рассмотрения темы.

Виртуальная реальность (от лат. virtualis – возможный) – объект или состояние, которые реально не существуют, но могут возникнуть при определенных условиях. Эти условия по-разному эксплицируются в различных подходах к виртуальности. Новый подход к виртуальности сформировался под влиянием развития компьютерных и информационных технологий. С помощью современных технических средств можно погрузиться в виртуальную реальность, в которой субъект не будет различать вещи и события действительного и виртуального мира: мир дан ему непосредственно в его ощущениях, а они оказываются на этом уровне неразличимыми. Однако поскольку виртуальная реальность характеризует состояния сознания, то тем самым она отличается от реальности объективной, в т. ч. от мира нашей повседневной жизни. Исследование различных типов виртуальных реальностей и переходов между ними выдвигает новые проблемы перед философией, относящиеся к установлению критериев различия между разными типами реальности, их роли в познавательной и практической деятельности, взаимосвязи виртуальности с категорией возможности, объяснения природы виртуальности свойствами универсума и бытия в целом.

Суперкомпьютерное моделирование представляет собой отображение свойств и отношений реального объекта на специально созданном для этого объекте, называемым суперкомпьютерной моделью. Реальный объект служит прототипом, а отображающий — моделью. Между ними должно существовать известное подобие, аналогия или сходство либо в их физических свойствах и отношениях, либо в осуществлении определенных функций, либо в математическом описании их поведения. Очень широкое применение получили математическое моделирование и основанный на нем вычислительный эксперимент.

Вычислительный эксперимент (ВЭ) предназначается для изучения сложных (в том числе и нелинейных) процессов, экспериментальное и теоретическое исследование которых традиционными методами затруднено или невозможно. Ядро ВЭ составляет триада «модель – алгоритм – программа». Цикл ВЭ можно разделить на несколько этапов (проанализируем на примере исследования природы): построение природной и соответствующей ей математической модели изучаемого явления; разработка вычислительного алгоритма (правил, по которым ведутся вычисления) решения задачи; реализация алгоритма в виде программы для компьютера; проведение расчётов на компьютере; обработка, анализ и интерпретация результатов расчётов, сопоставление с натурным экспериментом и, в случае необходимости, уточнение или пересмотр математической модели, то есть возвращение к первому этапу и повторение цикла ВЭ. Всё это служит одной цели – получению с необходимой точностью за возможно меньшее компьютерное время адекватного количественного описания изучаемого природного явления. Технологически ВЭ состоит из двух фаз: формирование и калибровки модели, а затем прогноза с помощью выбранных математических моделей.

Результаты ВЭ часто становятся основой новых теорий в различных областях науки. Необходимо отметить и тесную связь (взаимодействие, синтез) ВЭ и натурного, реального, а также мысленного, теоретического эксперимента. Результаты натурных экспериментов в современной науке предстают перед исследователями в опосредованном, запутанном виде, требующем достоверной интерпретации. Для этого также применяется ВЭ по заранее выбранной математической модели. С другой стороны, данные реального эксперимента служат важной информацией для математического моделирования и ВЭ. ВЭ также используют аналитические методы. В процессе познания происходит взаимодействия аналитических и численных методов. В сущности, наблюдается тесное взаимодействие ВЭ и методов эмпирического и теоретического уровней исследования. Однако принципиально важно отметить и совершенно самостоятельное значение ВЭ на суперкомпьютерах.

Процесс идеализации представляет собой мыслительный акт, связанный с образованием некоторых абстрактных объектов, принципиально неосуществимых в опыте и действительности. Идеализированные объекты являются предельными случаями тех или иных реальных объектов и служат средством их научного анализа, основой для построения теории этих реальных объектов; они, таким образом, в конечном счете, выступают как отображения объективных предметов, процессов и явлений. Идеализация играет важную роль в научном познании, прежде всего в математизированном естествознании. Она здесь выступает в качестве допустимого упрощения, позволяющего исключить из рассмотрения те свойства и связи изучаемых объектов, учёт которых существенно затруднил бы или сделал бы невозможным формулировку естественных закономерностей. Между тем использование идеализации и введение идеализированных объектов позволяют выйти за пределы собственно эмпирического рассмотрения и подняться на уровень теоретического описания, где естественные законы можно выразить на языке математики и осуществить дедуктивно-математическое построение соответствующей области знаний. Принципиально новое значение идеализация принимает при моделировании на суперкомпьютерах.

Таком образом, современные суперкомпьютерные технологии (компьютерная графика, визуализация полученных научных результатов и виртуальная реальность) применяются для супермоделирования сверхбыстрых и сверхзамедленных процессов (например, движение элементарных частиц, возникновение и эволюция жизни на Земле, происхождение и развитие Вселенной и т.п.), наглядного представления образов, мыслей и абстрактных идей, не поддающихся словесному описанию. Визуализация результатов суперкомпьютинга делает возможным непосредственно-интуитивное их постижение. Принципиальное значение приобретает наглядно-графическое представление фракталов (постнеклассических объектов, размерности которых выражаются дробными числами). Они были изобретены специально для характеристики негладкости, изломанности, иррегулярностей, мира бесконечного самоподобия (фрактальные объекты выглядят одинаково при любом подобном увеличении или уменьшении). Уже само создание фрактальной геометрии открывает перед наукой совершенно новые горизонты познания. Технология виртуальной реальности (искусственной, мнимой) обеспечивает реальное взаимодействие исследователя с синтетической визуальной средой суперкомпьютера, позволяя исследовать искусственные сущности, объекты до этого существовавшие только в воображении. Суперкомпьютинг способен превращать потоки данных в трёхмерные (динамические) изображения, благодаря чему у учёных могут возникать новые решения при осмыслении и интерпретации полученных результатов. Компьютерная наглядная идентификация исследователя с изучаемым объектом способствует активизации творческого воображения и творческой интуиции.

Однако необходимо отметить, что многие фундаментальные достижения в современной космологии, исследующие мегамир (космос, Вселенную), и в квантовой механике микромира противоречат здравому смыслу, представлениям и интуиции, основанными на опыте макромира. В сущности, предсказание квантовой механики контринтуитивны (антиинтуитивны): например, невозможно точно определить положение частицы, так как она выглядит облаком точек, а каждая точка соответствует вероятности его присутствия. В квантовом мире многие интуитивные понятия перестают работать. Однако эта фундаментальная гносеологическая проблема может быть решена с помощью суперкомпьютеризации.

В науке широко используются приборы для измерения или исследования свойств объекта. В последнее время использование таких специальных приборов, как суперкомпьютеры, приводит к поистине революционным изменениям во всех областях их применения. Так, например, в физике стало возможным говорить о появлении, наряду с теоретическими и экспериментальными ее разделами, вычислительной физики, дополнительной к первым двум традиционным (это же можно сказать и о космологии: теоретическая, экспериментальная и вычислительная; а также и о многих других современных науках). В сущности происходит становление принципиально новых наук – вычислительных (супервычислительных).

Необходимо отметить, что возникновение принципиально новой науки – науки о хаосе (хаосологии) обязано применению компьютера, благодаря которому были открыты такие сложные явления как детерминированный хаос (одно из направлений синергетических исследований, в рамках которого изучаются виды хаоса и различные сценарии перехода к хаосу в детерминированных (динамических) системах); фрактальная (дробная) размерность, являющаяся характеристикой неустойчивого, хаотического поведения систем (сред), описывающихся, в частности, странными аттракторами; странный аттрактор (аттрактор – устойчивое состояние (структура) системы, которая как бы притягивает к себе всё множество траекторий системы, определяемых различными начальными условиями) – один из видов аттракторов, фазовый портрет которого представляет собой некоторую ограниченную область, по которой происходят случайные блуждания. Закономерно будет предположить, что дальнейшее развитие науки о хаосе невозможно без применения современных суперкомпьютеров.

Для оптимизации (приведение системы в наилучшее состояние) креативности научных исследований всё шире применяются так называемый искусственный интеллект (англ. artificial intelligence), который сам требует творческого развития. Искусственный интеллект – это направление исследований в современной компьютерной науке, целью которого является имитация (подражание, подделка) и усиление интеллектуальной деятельности человека посредством компьютерных систем. Основным продуктом искусственного интеллекта являются интеллектуальные системы (компьютерные системы, реализующие некоторые черты человеческого интеллекта, дающие возможность решать трудные задачи, решение которых в реальное время невозможно), которые состоят из трёх подсистем: решателя задач, представления знаний и оптимального для пользователя интерфейса. Современные компьютерные интеллектуальные системы являются человеко-машинными партнёрскими системами. Для дальнейшего развития искусственного интеллекта необходимо также изучение и моделирование рациональных структур в связи с эмоциями, чувствами, практическими навыками и неаналитическими методами обработки образной информации, что сближает современные модели искусственного интеллекта с их естественным человеческим прототипом.

В настоящее время в отдельных случаях компьютеры уже могут строить гипотезы, проводить эксперименты по их проверке и оценивать результаты, причём без вмешательства человека (например, в области генетики, химии и фармакологии). Тем не менее, оптимизация интерфейса (взаимодействия) человека и компьютера в процессе исследования может дать новые результаты, лучшие, чем каждый из них по отдельности, усиливая креативность научного познания.

Известный ученый и популяризатор науки Р. Пенроуз в своей книге "Тени разума: в поисках науки осознания" показывает важные результаты компьютеризации в математике и появление вычислительной математики. Компьютеры приносят огромную пользу в математике, но только тогда, когда их применение ограничивается нисходящими вычислениями (вычислительная процедура имеет нисходящую организацию, если она построена в соответствии с некоторой прозрачной и хорошо структурированной фиксированной вычислительной процедурой, которая может содержать некий заданный заранее объем данных, и предоставляет четкое решение для той или иной рассматриваемой проблемы; в противоположность такой организации существует организация восходящая, где упомянутые четкие правила выполнения действий и объем данных заранее не определены, однако вместо этого имеется некоторая процедура, определяющая, каким образом система должна "обучаться" и повышать свою эффективность в соответствии с накопленным "опытом"). Для определения необходимого вычисления требуется идея, порожденная человеческим пониманием, то же понимание потребуется и на заключительном этапе процесса, т. е. при интерпретации результатов вычисления. Иногда очень значительный эффект дает применение интерактивных процедур, предполагающих совместную работу человека и компьютера, или, иначе говоря, участие человеческого понимания на различных промежуточных стадиях процесса. Попытки же полностью вытеснить элемент человеческого понимания и заменить его исключительно вычислительными процедурами являются неосуществимыми. Как показывает опыт, математическое понимание представляет собой нечто, в корне отличное от вычислительных процессов; вычисления не могут полностью заменить понимание. Вычисление способно оказать пониманию чрезвычайно ценную помощь, однако само по себе вычисление действительного понимания не дает. Впрочем, математическое понимание часто оказывается направлено на отыскание алгоритмических процедур для решения тех или иных задач. В этом случае алгоритмические процедуры могут "взять управление на себя", предоставив интеллекту возможность заняться чем-то другим.

Еще одним направлением работ в рамках вычислительной математики является так называемое "автоматическое доказательство теорем". Некоторые вычислительные процессы можно автоматизировать, однако если автоматизация выполнена без должного внимания и понимания, то полученный результат окажется, скорее всего, крайне неэффективным. Если же к разработке компьютерных процедур привлечь эти самые внимания и понимания, то можно добиться весьма впечатляющих результатов. До сих пор все попытки разработки "искусственно-интеллектуальных" процедур для реализации математического понимания не удавались. Человеческое математическое понимание не сводимо к вычислительным механизмам (по крайней мере тем из них, что мы способны познать), каковые механизмы могут представлять собой какие угодно сочетания нисходящих, восходящих либо случайных процедур. Можно заключить, что существенную составляющую человеческого понимания невозможно смоделировать никакими вычислительными средствами и вряд ли будет создано искусственное устройство, наделенное подлинным интеллектом.

Однако наряду с некоторым классом корректно поставленных задач, допускающих применение алгоритмов, существуют и задачи, характеризующие алгоритмической неразрешимостью (невычислимостью). Алгоритм – это точное предписание о порядке выполнения некоторой системы операций над исходными данными для получения желаемого результата, которое исполняется вычислителем (человеком, компьютером). Сущность алгоритмически неразрешимых задач состоит в том, что они в принципе не имеют какого-либо общего, универсального алгоритма решения, объединяющего этот класс. Алгоритмическая неразрешимость не означает неразрешимости единичных задач данного класса (часть из них может иметь свои решения). Но в целом данный класс задач не имеет ни общего универсального алгоритма решения, ни ветвящегося алгоритма полного разбиения класса на подклассы, каждому из которых был бы применён свой специфический алгоритм.

Алгоритмическая неразрешимость имеет принципиальное значение для теории научного познания. Отсюда вытекает, что основные компоненты познания учёного не могут быть построены на алгоритмической основе, хотя и могут включать некоторые алгоритмические процедуры в качестве вспомогательных. Решение задачи, относящейся к типу алгоритмически неразрешимых, с необходимостью включает неалгоритмизуемые компоненты и требуют творчества, поэтому способ её решения не выводиться из более общего известного типового метода, а изобретается. В отличие от алгоритмически разрешимых задач, успех в решении этих задач не может быть гарантирован на 100% никакими методами. В сущности, алгоритмическая неразрешимость как объективная невозможность универсальных точных предписаний, однозначно приводящих к заданному результату, означает свободу выбора и объективную необходимость творческого поиска.

Анализируя рассмотренные достижения и проблемы суперкомпьютеризации науки можно сделать выводы о принципиальном изменении процесса и структуры научного познания, об изменении предмета исследования. Общепринятым является представление о научном исследовании как процессе получения новой истины в результате взаимодействия субъекта (субъект может быть коллективным субъектом), объекта и средства познания, приводящие к изменению предмета познания. Предмет исследования представляет собой вовлечённые в процесс познания стороны, свойства и отношения реальных объектов, которые в данный момент необходимо познать. Он не тождествен объекту, ибо последний есть фрагмент мира самого по себе, тогда как первый есть фрагмент мира для нас. С гносеологической точки зрения противопоставления предмета исследования и объекта относительно. В той мере, в какой объект дан субъекту через призму исследования, он является предметом исследования. В свою очередь развитие науки вызывает расширение предмета исследования, актуализирует для субъекта новые измерения объекта. Субъектом (от лат. subjectum – лежащий внизу, находящийся в основе; от sub – под и jacio – бросаю, кладу основание) является учёный, применяющий методы суперкомпьютеризации в процессе исследования для получения новой истины и в результате достижения её становящийся творцом. Объектом (от лат. objectum – предмет; бросаю вперёд, противопоставляю) является то, на что направлено исследования учёного. Средством исследования в нашем случае является суперкомпьютер (сверхвычислитель) как инструмент исследования. Соответственно суперкомпьютерная (супервычислительная) модель объекта будет предметом исследования. В сущности, с гносеологической точки зрения происходит трансценденция субъекта в суперъект, который можно интерпретировать как «находящийся над, расположенный сверху» (от лат. super – сверху).

Системный анализ показывает, что субъект и предмет познания являются частями, связанными структурой в познавательную (исследовательскую) систему, направленную на поиск новой истины, который является системообразующим признаком. Системой называется совокупность элементов (частей), находящихся в отношениях и связях между собой и образующих определённую целостность, единство. Структура выражает взаимодействие между составляющими систему элементами, частями. Процесс исследования характеризуется динамической структурой, связанной с организацией системы. Структура обладает относительной устойчивостью при некоторых преобразованиях и изменениях системы, составляя её инвариант. Однако неравновесные открытые системы, которой и является исследовательская система, в результате обмена информацией с окружающей внешней средой, вследствие кооперативных (сотрудничество) процессов, начинает самоорганизовываться и в итоге приобретает новую динамическую структуру (найдена новая истина и исследование становится творчеством истины).

Таким путём происходит переход от старой структуры и системы к новой (к новой истине), и под влиянием ряда случайных факторов (флуктуаций, т.е. случайных отклонений, мгновенных значений величин от их средних значений, показателем хаотичности процессов на микроуровне частей (элементов)) в точке бифуркации (раздвоение, разветвление) возникают принципиально новые свойства, качество и закономерности в ходе эволюции системы. В сущности, произошла самоорганизация (спонтанное упорядочивание, возникновение пространственных, временных, пространственно-временных или функциональных структур, протекающих в открытых нелинейных системах. Открытые системы представляют собой определённый вид систем, которые обмениваются веществом, энергией и/или информацией с окружающей средой (внешнее воздействие на исследовательскую систему оказывают всевозможные новые идеи: революционные, принципиальные, фундаментальные, радикальные и т.д.). Нелинейные системы могут эволюционировать различными путями, содержат в себе бифуркации (различные направления исследований).

Общие закономерности самоорганизации сложных систем изучаются синергетикой (Г. Хакен), наукой о самоорганизации системы, о переходе от хаоса к порядку (от незнания к знанию) в результате взаимодействия её частей (элементов). Хаос, хаотичность характеризуются такими чертами как неупорядоченность, нерегулярность, случайность, зависимость от исходных условий, непредсказуемость, непознаваемость (в сущности, эта проблема требует дальнейших исследований и её решением будет новое знание (новая истина). Применим синергетический подход к познанию исследовательской системы.

Синергетическая концепция самоорганизации, разработанная Г. Хакеном, который и ввёл понятие синергетики (с греч. совместный, согласно действующий) как учения о взаимодействии, основывается на модели параметров порядка (в т.ч. управляющих параметров и контрольных параметров) принципа подчинения и круговой (циклической) причинности. С одной стороны, координация действий отдельных частей системы происходит с помощью параметров порядка и принципа подчинения. А с другой стороны, части, в свою очередь, определяют параметры порядка (это явление называется круговой, или циклической, причинностью). Принцип круговой причинности позволяет интерпретировать принцип подчинения следующим образом: так как отдельные части определяют или даже порождают параметры порядка, которые, в свою очередь, подчиняют себе эти части, последние определяют эволюцию параметров порядка кооперативно (в сотрудничестве). Это явление в антропоморфных терминах можно описать как консенсус (согласие) между отдельными частями. В сущности, принцип подчинения и консенсус между частями являются двумя сторонами одного процесса самоорганизации. Причём количество параметров порядка по мере обучения системы уменьшается.

Существенная идея синергетика заключается в том, что самоорганизация системы косвенно управляется приданием подходящих значений управляющим порядкам (это непростая задача). Придание управляющим параметрам подходящих значений является одним из возможных путей обучения (в социальных системах управляющие параметры вырабатываются самой системой). Когда управляющие параметры превышают критическое значение, то система внезапно переходит в новое состояние. При их изменении существуют определённые ситуации, когда система претерпевает не малые, а значительные изменения своего макроскопического состояния. Необходимо заметить, что управляющие параметры не позволяют предвидеть возникновение макроскопической структуры.

Для исследования самоорганизации применяется теория хаоса, когда так называемое измерение системы является малым или когда существует только несколько степеней свободы, определяющих поведение системы. Однако социальные системы являются сложными системами, в которых участвует большое количество индивидов. Проблема решается с помощью синергетики, согласно которой степенями свободы являются параметры порядка. Тем не менее, количественные предсказания для сложных систем имеют большие ограничения, хотя очевидна их необходимость. Единственным выходом здесь может быть непрерывное и гибкое управление системой посредством установления условий и корректирование их, чтобы система могла плавно самоорганизовываться и переходить, как можно надеяться, в оптимальное состояние. В таком случае необходим переход к вопросу о контрольных параметрах.

Анализируя исследовательскую систему с точки зрения рассмотренной концепции, необходимо интерпретировать синергетические понятия как гносеологические понятия. В результате получаем, что параметры порядка представляют собой искомую истину, контрольные параметры – это методологические (регулятивные) принципы научного познания и методы научных исследований, управляющие параметры – это суперкомпьютерные методы и способы исследований (суперкомпьютерное моделирование, вычислительные эксперимент, искусственный интеллект, компьютерные интеллектуальные системы, виртуальная реальность, компьютерная графика, визуализация научных данных и др.). Принцип подчинения означает, что новая истина подчиняет себе субъекты и предмет исследования и направляет дальнейшие исследования. А, с другой стороны, субъекты и предмет исследования определяют (находят) истину (циклическая, круговая причинность); последние взаимодействуют между собой кооперативно, коллективно в процессе исследования. Это взаимодействие в антропоморфных терминах описывается как консенсус (согласие по спорным вопросам исследования) и это не является метафорой, так как в исследовательском процессе принимает участие, как правило, коллектив субъектов-исследователей. Однако для согласия необходимо оптимизировать взаимодействие субъектов и предмета исследования, то есть субъекты должны соответствовать суперкомпьютерной модели, которую они сами и создали, и поэтому стать субъектами-вычислителями (супервычислителями). В сущности, традиционные субъекты исследования (эмпирики и/или теоретики) должны трансформироваться в принципиально новых субъектов (супервычислителей). Для этого необходимы особые (новые) средства деятельности – специальный язык (супервычислительный) и особые приборные комплексы (суперкомпьютеры). Именно это обеспечивает исследование новых объектов. С этим связаны потребности науки в постоянной разработке специальных методов и средств исследования (суперкомпьютерных технологий). Традиционные эмпирические и теоретические методы исследования уступают место супервычислительным, для чего необходимо специальное обучение. Меняются идеалы и нормы научного исследования. Классическая, неклассическая и постнеклассическая рациональности получают дополнительное измерение (супервычислимость).

Самоорганизация исследовательской системы есть не что иное, как получение новой истины, что и характеризует креативность суперкомпьютеризации научных исследований. В сущности, здесь реализуется диалектическая взаимосвязь свободы исследований и мощности современного суперкомпьютера (это необходимость), творчества человека-исследователя и алгоритмической супервычислимости.

Как отмечалось выше, наряду с эмпирическими и теоретическими науками (традиционно существующими) происходит становление вычислительных наук (принципиально новых). Революционная перестройка современной науки требует изменения (дополнения) основных её характеристик: обоснованность дополняется суперкомпьютерной вычислимостью; традиционные науки получают новое качество своих исследований; возникает принципиально новый уровень исследования – супервычислительный; нахождение (открытие или изобретение) новой истины дополняется критерием супервычисления, что тоже признаётся научным творчеством.

Таким образом, можно сделать философско-мировоззренческий вывод о возникновении и развитии принципиально новой науки – супервычислительной (вычислительной с помощью суперкомпьютеров) и о преобразовании оснований науки: идеалов и норм познания (исследования), научной картины мира и философских оснований науки.
ЛИТЕРАТУРА


  1. Новая философская энциклопедия: В 4 т. / Ин-т философии РАН, Нац. общ.-науч. фонд; Научно-ред. совет: предс. В.С. Стёпин, заместители предс.: А.А. Гусейнов, Г.Ю. Семигин, уч. секр. А.П. Огурцов. – М.: Мысль, 2000, 2001.

  2. Энциклопедия эпистемологии и философии науки. – М.: «Канон+» РООИ «Реабилитация», 2009. – 1248 с.

  3. Философский словарь / Под ред. И.Т. Фролова. – 8-е изд., дораб. и доп. – М.: Республика; Современник, 2009. – 846 с.

  4. Стёпин В.С., Горохов В.Г., Розов М.А. Философия науки и техники. – М.: Изд-во «Гардарики», 1996.

  5. Хакен Г. Принципы работы головного мозга: Синергетический подход к активности мозга, поведению и когнитивной деятельности. – М.: ПЕР СЭ, 2001. – 351 с.

  6. Пенроуз Р. Тени разума: в поисках науки о сознании. – Москва-Ижевск: Институт компьютерных исследований, 2005. – 688 с.

  7. Скоблик А.И. Творчество и развитие науки (синергетический подход) / Метафизика креативности. Выпуск 2. (Под ред. д.ф.н., проф. А.Н. Лощилина, д.ф.н., проф. Н.П. Французовой). – М.: РФО, 2007. – 185 с.




Поделитесь с Вашими друзьями:
1   ...   4   5   6   7   8   9   10   11   12


База данных защищена авторским правом ©nethash.ru 2019
обратиться к администрации

войти | регистрация
    Главная страница


загрузить материал