На протяжении многих тысячелетий человек пытался определить, каким образом он думает, как происходят мыслительные процессы у него в голове, какие явления происходят у него в мозге.
В сфере искусственного интеллекта (ИИ) ученым предстоит решить еще более сложную задачу. Специалисты в области интеллектуальной электроники должны не только понять сущность самого понятия «интеллект», но и создать интеллектуальные сущности.
Искусственный интеллект (интеллектуальная электроника, или интеллектроника) – наука довольно молодая. Первые опыты в этой сфере появились вскоре после окончания второй мировой войны, а термин «искусственный интеллект» возник немного позже – в 1956 г. Если в других областях науки достаточно сложно сделать великое открытие, то эта область открывает большие перспективы.
В настоящее время научное направление искусственного интеллекта включает в себя большой перечень различных задач, включая как общие понятия, такие, как восприятие и обучение, так и специальные задачи, как, в частности, доказательство теорем, игра в шахматы, диагностика заболеваний. Проводится анализ и систематизация интеллектуальных задач, касающихся всех сфер интеллектуальной деятельности людей, и поэтому его можно считать универсальной областью науки и робототехники.
Примечательно, что единого определения ИИ не существует. В научных работах имеются различные толкования этого вопроса, охватывающие не только мыслительные процессы, но и формулировки относительно поведения индивидуума. Если внимательно изучить историю развития искусственного интеллекта, то можно увидеть, что исследования проводились по нескольким направлениям. Между теми учеными, которые занимались исследованиями человеческих способностей, и теми, кто занимался проблемами рациональности поведения человека, существуют спорные вопросы. Научный подход, который ориентируется на изучение человека, должен иметь в своей основе выдвижение большого количества гипотез, а также экспериментального их доказательства. В то же время подход, ориентированный на изучение понятия рациональности – это своего рода сочетание техники и математики.
Для того чтобы проверить, способен ли компьютер совершать действия, подобно человеку, был создан подход, который в основе своей полагался на тест, созданный Аланом Тьюрингом, использующийся как функциональное определение интеллекта. Английский математик, заложивший основы компьютерной техники, в 1950 г. опубликовал научную статью под названием «Вычислительные машины и разум», в которой был предложен тест, с помощью которого можно определить интеллектуальный уровень и природу интеллекта компьютера. Тьюринг пришел к выводу, что нет смысла в разработке большого перечня требований к искусственному интеллекту, который ко всему прочему может оказаться очень противоречивым. Поэтому был предложен тест, основанный на том, что в конечном итоге нельзя будет отличить поведение объекта, наделенного искусственным интеллектом, от поведения человека. Компьютер сможет успешно пройти тестирование, если человек–экспериментатор, который задавал ему вопросы в письменном виде, не сумеет определить, от кого на самом деле были получены ответы – от человека или от интеллектуального устройства.
Тьюринг вывел формулу, определяющую границу, когда искусственный интеллект мог достигнуть уровня естественного разума. Если компьютер сможет обмануть человека при ответах на 30 % вопросов, то можно считать, что он обладает искусственным интеллектом. Для того, чтобы компьютер смог ответить на поставленные вопросы, он должен проделать большой объем действий. Он должен обладать возможностями обработки информации на естественном языке, которые позволили бы успешно общаться с устройством на одном из существующих в мире человеческих языков. Он должен быть также оснащен средствами представления знаний, при помощи которых устройство будет записывать в память новую информацию. Должны также присутствовать средства автоматического формирования выводов, которые бы обеспечивали возможность использования имеющейся информации для поисков ответов на поставленные вопросы и формулирование новых выводов.
Средства машинного обучения призваны обеспечить компьютеру возможность приспособиться к новым обстоятельствам, и обнаруживать признаки стандартной ситуации. Тест Тьюринга сознательно исключает возможность непосредственного физического взаимодействия человека, проводящего эксперимент, и компьютера, потому что процесс создания искусственного интеллекта не требует физической имитации человека. В случае использования полной версии теста, экспериментатор может использовать видеосигнал с целью проверки способности компьютера к восприятию. Поэтому при прохождении полного теста Тьюринга к перечисленным выше средствам нужно добавить машинное зрение для восприятия объектов, а также средства робототехники для возможности манипулирования объектами и перемещения их.
Все это в конечном итоге и является основой искусственного интеллекта, а тест Тьюринга не потерял своей важности и через полвека. Ученые, которые занимаются изучением и созданием искусственного интеллекта, никогда не решают задачи, специально направленные на прохождение данного теста, считая, что более важно подробно изучить принципы, которые лежат в основе интеллекта, чем создать копию одного из носителей естественного природного интеллекта. Тест Тьюринга был признан эталоном, но до последнего времени никому не удавалось создать программу, которая бы успешно преодолела тест. Ученые всегда могли без особых проблем определить, с кем они беседуют, с компьютером или с человеком.
Однако несколько лет назад появилась информация о том, ученым впервые за пятьдесят лет удалось вплотную приблизиться к созданию искусственного интеллекта, который был способен думать подобно человеку. Авторами программы была группа российских ученых. В 2007 г. в Великобритании прошел всемирный научный конкурс кибернетического интеллекта, который проводился под эгидой университета Рединга. Российские ученые представили программу под названием «Евгений». Кроме нее, в тестировании принимали участие еще 4 программы. Российская разработка была признана победителем, ответив на 29,2 процента поставленных вопросов точно так же, как человек. Программе не хватило всего 0,8 процента для того, чтобы осуществилось так давно ожидаемое событие – появление искусственного интеллекта. Американские ученые не отстают от русских. Им удалось создать программных ботов, разработанных специально для компьютерной игры. Боты уверенно преодолели модифицированное тестирование Тьюринга, причём с гораздо большим успехом, чем это сделали люди, которые проходили тесты вместе с ботами.
Из этого можно сделать вывод, что искусственный интеллект сумел достичь того уровня, когда уже невозможно определить, где отвечает человек, а где – компьютер. Конечно, утверждать, что преодоление столь специфичного варианта теста Тьюринга, каковым является игровой шуттер, является показателем создания человеком искусственного интеллекта, пока рано. Вместе с тем, это дает право утверждать, что искусственный интеллект постепенно приближается к естественному человеческому разуму, а также, что игровые боты уже достигли того уровня развития, на котором можно обманывать автоматические системы, определяющие человеческое поведение.
Создателями игровых ботов стали ученые из университета Техаса, США, Якоб Шрум, Ристо Мииккулайнен и Игорь Карпов. Им удалось создать искусственный интеллект, который может вести игру на человеческом уровне. Была создана огромная виртуальная площадка, на которой сражалось много ботов и реальных людей. Большинство играли анонимно. Более половины игровых ботов были определены судьями как люди. В то же время, некоторых людей они посчитали ботами. Напрашивается вывод, что компьютерные персонажи уже в играх ведут себя как люди.
Эксперимент проводился в рамках конкурса под названием BotPrize, который стартовал в Америке еще в 2008 году. Его участниками стали ученые и разработчики, чьи компьютерные программы способны обманывать людей, выдавая себя за реальных игроков. Но первые успехи в данной сфере были достигнуты только в 2010 году. Победители получают премию в размере 4,5 тысяч фунтов стерлингов, и продолжают работать над своими программами. Стремиться есть к чему, ведь чтобы признать создание искусственного интеллекта, программа должна убедить всех в том, что является человеком, в ходе беседы. А для этого необходимы глубинные познания относительно работы человеческого мозга и принципов формирования речи. Искусственный интеллект, подобный человеческому разуму, становится реальностью.
Фактически, достигнута важная веха в области создания искусственного интеллекта – компьютер впервые готов успешно пройти тест Тьюринга, который проводится судьёй – человеком. Судья, в естественной языковой манере, ведет разговор с одним человеком и одним компьютером, причём каждый из собеседников пытается казаться человеком. Участники размещаются в изолированных местах. Информационные технологии развивались экспоненциально в течение многих десятилетий. Это привело к значительному росту таких показателей, как память, мощность процессора, совершенствованию программных алгоритмов, распознавания голоса и общего интеллекта машин. Сегодня это развитие достигло той стадии, когда независимые судьи буквально не в состоянии сказать, кто является человеком, а кто нет. Конечно, ответы искусственного интеллекта на запутанные вопросы, заданные судьей, могут показаться детскими или глупыми, но, тем не менее, подобные ответы мог бы дать и человек.
Что представляет собой искусственный интеллект? Наука под названием «искусственный интеллект» входит в комплекс компьютерных наук, а создаваемые на ее основе технологии относятся к информационным технологиям. Задачей этой науки является обеспечение разумных рассуждений и действий с помощью искусственных устройств и вычислительных систем. На этом пути возникают следующие трудности:
а) в большинстве случаев до получения результата не известен алгоритм решения задачи. Например, точно неизвестно, как происходит понимание текста, поиск доказательства теоремы, построение плана действий, узнавание изображения.
б) искусственные устройства (компьютеры и программы) не обладают достаточным уровнем начальной подготовки в конкретной области знаний. Специалист же добивается результата, используя свою интуицию и компетентность (знания и опыт).
Это означает, что искусственный интеллект представляет собой экспериментальную науку, что заключается в том, что, создавая те или иные компьютерные представления и модели, исследователь сравнивает их поведение между собой и с примерами решения тех же задач специалистом – человеком, и модифицирует их на основе этого сравнения, пытаясь добиться лучшего соответствия результатов. Чтобы модификация программ постепенно улучшала результаты, надо иметь исходные разумные представления и модели. Их доставляют психологические исследования сознания, в частности, когнитивная психология. Важная характеристика методов искусственного интеллекта – он имеет дело только с теми механизмами компетентности, которые носят вербальный характер (имеют символьное представление). Далеко не все механизмы, которые использует человек для решения задач, именно таковы.
Истоки искусственного интеллекта. Первые исследования, относимые к искусственному интеллекту, были предприняты почти сразу же после появления первых ЭВМ. В 1954 г. американский исследователь А. Ньюэлл написал программу для игры с компьютером в шахматы. Этой идеей он поделился с аналитиками корпорации РЭНД, которые предложили ему помощь. В качестве теоретической основы программы использовался метод, предложенный в 1950 г. К. Шенноном, основателем теории информации. Точная формализация этого метода была выполнена А. Тьюрингом. К работе была привлечена группа голландских психологов под руководством А. Де Гроота, изучавших стили игры выдающихся шахматистов. Через два года совместной работы этим коллективом был создан язык программирования ИПЛ1 – первый символьный язык обработки списков. Вскоре появилась первая программа в области искусственного интеллекта «Логик–Теоретик» (1956 г.), предназначенная для автоматического доказательства
теорем в исчислении высказываний. Собственно же программа для игры в шахматы, NSS, была завершена в 1957 г. В основе ее работы лежали эвристики (правила, позволяющие сделать выбор при отсутствии точных теоретических оснований) и описание целей. Управляющий алгоритм уменьшал различия между оценками текущей ситуации и оценками цели или одной из подцелей.
В 1960 г. той же группой программистов, на основе принципов, использованных в NSS, была написана программа (названная GPS, General Problem Solver, – универсальный решатель проблем), которая могла справляться с головоломками, вычислять неопределенные интегралы, и др. Результаты привлекли внимание специалистов в области вычислений. Появились программы автоматического доказательства теорем из планиметрии и решения алгебраических задач (сформулированных по-английски). Дж. Маккарти из Стэндфордского университета заинтересовался математическими основами этих результатов, и вообще символьными вычислениями. В результате в 1963 г. им был разработан язык ЛИСП (LISP, от List Processing), основу которого составило использование единого спискового представления для программ и данных, применение выражений для определения функций, скобочный синтаксис.
В это же время в СССР, в МГУ и Академии наук, были проведены пионерские исследования под руководством Вениамина Пушкина и Дмитрия Поспелова, целью которых было выяснить, каким же образом человек решает задачи перебора?
В качестве полигона для этих исследований были выбраны различные математические игры, в частности, игра «15» и игра в «5», а в качестве инструментального метода исследования – регистрация движения глаз или гностическая динамика. Основными методами регистрации движения глаз были электроокулограмма и использование присоски, помещаемой на роговицу глаза. Цель каждой такой игры заключается в переходе от некоторой исходной ситуации к конечной. Переходы осуществляются путем последовательного перемещения фишек по горизонталям и вертикалям на свободное поле. Возьмем, например, игру «5», исходная и конечная ситуации в которой выглядят, соответственно, следующим образом:
1 |
2 |
3 |
4 |
5 |
Оптимальным образом задача решается за шесть ходов, которые соответствуют перемещениям фишек 1, 4, 5, 3, 2, 1. Решение было бы намного сложнее, если бы на первом ходу двигалась бы, например, фишка 2, или на втором ходу – фишка 3.
Задача может быть представлена в виде дерева (лабиринта), корнем которого является исходная ситуация, а перемещение каждой фишки приводит в новую вершину. Все ситуации являются, при таком подходе, вершинами графа или точками на дереве игры, и именно они являются теми элементами, из которых строится «модель мира». Два элемента связывает ход – преобразование одной ситуации в другую.
Модель игры приводит к полному перебору вариантов и составляет основу лабиринтной гипотезы мышления. Анализ экспериментальных данных позволил вычленить два вида изменений параметров гностической динамики в процессе обучения. А именно, изменения ряда параметров уже при решении второй или третьей из множества однотипных задач у одной из групп испытуемых характеризуется появлением точки излома. К числу этих параметров относятся время решения задачи, количество осмотров условий, количество осмотров цели, общее количество осмотров, плотность осмотра и отношение числа осмотров условий к числу осмотров цели. У другой же группы испытуемых таких изменений не происходит. Так, например, отношение числа осмотров условий задачи к числу осмотров цели у первой группы испытуемых претерпевает излом после решения второй задачи и продолжает уменьшаться при решении числа последующих задач. У второй группы испытуемых уменьшения этого отношения не происходит. То же относится и к времени решения задач. Анализ и других экспериментальных данных подтвердил существование некоторых общих тенденций в динамике обучения решению задач. Есть все основания полагать, что основным фактором, влияющим на временные характеристики этого процесса у первой группы испытуемых, является момент понимания эквивалентности задач или транспозиции (переноса) отношений, сформированных в ходе решения первых задач.
Изучение всей совокупности данных позволяет связать формирование подобной системы отношений со временем решения второй и последующих задач – именно тогда формируется то общее, что связывает первую и вторую задачи. Осознание общности и, следовательно, «открытие эквивалентности» происходит при столкновении с третьей задачей. Сопоставление экспериментальных данных свидетельствует также о том, что соотнесение различных ситуаций связано между собой посредством такого когнитивного компонента, как анализ цели. Иначе говоря, анализ исходной ситуации управляется анализом цели и процессом соотнесения исходной и конечной ситуаций.
Моделирование исходной ситуации является управляемым компонентом, а установленные в конечной ситуации отношения являются регулятором этого процесса. Сама модель исходной ситуации рассматривается с точки зрения ситуации конечной. Модель можно изобразить в виде графа, но вершинами этого графа будут не ситуации, как при использовании лабиринта вариантов, а элементы ситуаций. Ребрами, соединяющими вершины, будут не переходы из одной ситуации в другую, а те отношения, которые были выявлены на множестве этих элементов с помощью гностической динамики. Эти соображения и составляют основу модельной гипотезы мышления, и привели к появлению в 1964 г. языка (и метода) ситуационного управления.
К исследованиям в области искусственного интеллекта стали проявлять интерес и логики. В том же 1964 г. была опубликована работа ленинградского логика Сергея Маслова «Обратный метод установления выводимости в классическом исчислении предикатов», в которой впервые предлагался метод автоматического поиска доказательства теорем в исчислении предикатов. В 1965 г. в США появляется работа Дж.А. Робинсона, посвященная иному методу автоматического поиска доказательства теорем в исчислении предикатов первого порядка, названному методом резолюций. Он и послужил отправной точкой для создания нового языка программирования со встроенной процедурой логического вывода – языка ПРОЛОГ в 1971 г.
В 1966 году в СССР Валентин Турчин разработал язык рекурсивных функций РЕФАЛ, предназначенный для описания языков и разных видов их обработки. Хотя он и был задуман как алгоритмический метаязык, но для пользователя это был, подобно ЛИСП’у и ПРОЛОГ’у, язык обработки символьной информации. В конце 60-х гг. появились первые игровые программы, системы для элементарного анализа текста и решения некоторых математических задач (геометрии, интегрального исчисления). В возникавших при этом сложных переборных проблемах количество перебираемых вариантов резко снижалось применением всевозможных эвристик и «здравого смысла». Такой подход стали называть эвристическим программированием. Дальнейшее развитие эвристического программирования шло по пути усложнения алгоритмов и улучшения эвристик. Однако вскоре стало ясно, что существует некоторый предел, за которым никакие улучшения эвристик и усложнения алгоритма не повысят качества работы системы и, главное, не расширят ее возможностей. Программа, которая играет в шахматы, никогда не будет играть в шашки или карточные игры.
Постепенно исследователи стали понимать, что всем ранее созданным программам недоставало самого важного – знаний в соответствующей области. Специалисты, решая задачи, достигают высоких результатов благодаря своим знаниям и опыту; если программы будут обращаться к знаниям и применять их, то они тоже достигнут высокого качества работы. Это понимание, возникшее в начале 70-х годов, по существу, означало качественный скачок в работах по искусственному интеллекту. Основополагающие соображения на этот счет высказал в 1977 г. на 5-й Объединенной конференции по искусственному интеллекту американский ученый Э. Фейгенбаум.
Уже к середине 70-х годов появляются первые прикладные интеллектуальные системы, использующие различные способы представления знаний для решения задач – экспертные системы. Одной из первых была создана экспертная система DENDRAL, разработанная в Стэндфордском университете и предназначенная для порождения формул химических соединений на основе спектрального анализа.
Следующей была медицинская экспертная система MYCIN, предназначенная для диагностики и лечения инфекционных заболеваний крови. Геологическая экспертная система PROSPECTOR прогнозирует залежи полезных ископаемых: имеются сведения о том, что с ее помощью были открыты залежи молибдена, ценность которых превосходит 100 миллионов долларов. Экспертная система оценки качества воды, реализованная на основе российской технологии SIMER+MIR несколько лет назад, определила причины превышения предельно допустимых концентраций загрязняющих веществ в Москве реке в районе Серебряного Бора. Медицинская экспертная система CASNET предназначена для диагностики и выбора стратегии лечения глаукомы. Можно перечислить множество других известных экспертных систем.