Пред.
След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
ЗАКЛЮЧЕНИЕОбсуждается возможность создания думающих машин и некоторые требования к мультиагентным системам искусственного интеллекта. О возможности создания думающих машинПредмет искусственного интеллекта тесно связан с вопросами, которыми философы задаются на протяжении многих веков: «Как работает человеческий мозг?», «Могут ли животные думать?», «Можно ли создать думающую машину?» или «Может ли машина мыслить?» и т.п. Ответы на них волнуют философов и до сих пор. Вопрос же о возможности создания мыслящей машины тесно связан с искусственным интеллектом, а взгляд на него философов и специалистов в области искусственного интеллекта зачастую не только неоднозначен, но даже носит антагонистический характер. В настоящей книге детально не обсуждаются большинство перечисленных вопросов, причины и суть упомянутого антагонизма. Затронем лишь последний из них, непосредственно связанный с содержанием учебника, а именно: «Может ли машина думать?» Прежде, чем отвечать на этот вопрос, уточним смысл, вкладываемый в слово «думать», когда речь идет о машине. Например, в нашем индустриальном мире вполне естественно услышать такие фразы: «Самолет летает», «Автомобиль пожирает», «Корабль плавает, «Компьютер думает». Здесь глаголы «летает», «пожирает», «плавает», как и глагол «думает», употребляются применительно к машинам различного типа и означают совсем не то же самое, что в них вкладывается, когда речь идет не о машинах, а о животном или человеке. Так, если мы говорим: «Птица летает», то это более или менее похоже на то, как это делает самолет, но если мы говорим «Человек пожирает», то это совсем не похоже на то, как это делает автомобиль, пожирая бензин. Аналогичная ситуация имеет место при использовании слова «думать» по отношению к человеку и компьютеру. При употреблении всех этих слов (думает, летает, плавает, пожирает) по отношению к машинам очень много метафоричности. Когда мы говорим: «Мой компьютер тупой. Он слишком долго думает, чтобы с ним можно было нормально общаться», — то мы совсем не предполагаем, что машина способна быть тупой, как человек, способна думать, как человек, и общаться, как человек. Появление у компьютеров свойств, напоминающих способность думать, относится к 40-м гг. XX в. Но если определить способность думать как способность рассуждать и принимать решения с помощью органического естественного мозга, то следует заключить, что компьютеры не могут думать. Алан Тьюринг в 1950 г. в своей известной книге «Вычислительные машины и интеллект» предложил вместо того, чтобы спрашивать «Может ли машина думать?», — разработать для нее некоторый тест на интеллектуальность. Он предположил, что к 2000 г. компьютер с памятью 109 бит можно будет достаточно хорошо запрограммировать, чтобы создавалось впечатление, что он думает. И это оправдалось. Тьюринг также рассмотрел широкий спектр возражений, касающихся возможности создания интеллектуальных (думающих машин). Несмотря на то что эти возражения относились к середине 40-х гг. XX в., некоторые из них не сняты до сих пор. Рассмотрим рад этих возражений. Неспособность к творчествуПод неспособностью к творчеству понимается отсутствие у машины способности придумать что-нибудь заново, без указания свыше от программиста, самостоятельно накапливать и обобщать данные, получаемые в процессе наблюдения за средой. В настоящее время это возражение опровергается, например, созданием современных программ для игры в шахматы, способных самостоятельно совершенствовать свою игру, начиная с относительно слабой квалификации. Неспособность проявлять человеческие чувстваПод этой неспособностью понимается отсутствие у машины проявлений доброты, дружбы, инициативы, юмора, склонности ошибаться, любить, радоваться, размышлять о себе и т.п. Возражения по поводу неспособности машины проявлять человеческие чувства во многом основаны даже на современном этапе их развития с непониманием или неверием даже технически образованных людей в способности машин извлекать с помощью датчиков, имитирующих органы чувств человека, информацию из окружающей среды, а также воздействовать на среду с помощью своих исполнительных органов подобно человеку. На современном уровне развития компьютеров многие человеческие чувства достаточно хорошо ими имитируются. Конечно, до создания полного прототипа человека с его эмоциональным миром еще очень далеко, но это не кажется чем-то нереальным. Неспособность отвечать на определенные вопросыЧаще всего это возражение основывают на так называемой теореме Геделя о неполноте формальных систем (исчислений). Суть этой теоремы состоит в том, что в любой непротиворечивой логической теории (формальном языке, множествах аксиом и правил вывода) можно сформулировать истинное предложение, которое в ней недоказуемо, т.е. недоказуемо с использованием только исходных аксиом и правил вывода. Более детально теорема Геделя о неполноте может быть пояснена на примере логической теории натуральных чисел. В этой теории имеется единственная константа 0 и единственная функция Предположим, что мы имеем множество А истинных предложений (высказываний) относительно натуральных чисел. Помня, что каждое предложение Допустим, что утверждение Поведение компьютера может быть представлено в некоторой логической теории, поэтому на основе теоремы Геделя о неполноте логических систем можно заключить, что всегда найдутся задаваемые машине вопросы, истинность которых она установить не сможет. Это, конечно, справедливо. Но точно так же это справедливо и по отношению к человеку, если считать, что при решении проблемы (доказательстве теорем) он использует одну логическую теорию. На самом деле наша интуиция подсказывает, что человек использует не одну логическую теорию, а целый спектр теорий. При невозможности доказать теорему в одной из них он переходит к другой, затем, если с ней ничего не получается, — к третьей и т.д. до тех пор пока не удастся наткнуться на логическую теорию, которая позволяет осуществить доказательство. Не видно никаких препятствий компьютеру делать то же самое, перебирая или конструируя новую логическую теорию в попытке доказать теорему (ответить на вопрос). Мы затронули незначительную часть возражений, касаюшихся возможности создания думающих машин. Грубо все возражения можно поделить на те, которые выражают сомнения в технической осуществимости думающих машин, и те, которые выражают принципиальную невозможность создания чего-то эквивалентного по силе человеческому мозгу. Первые из этих возражений даже на основании того, что уже было сказано, не очень убедительны и чрезмерно пессимистичны. Зачастую, они высказываются людьми, не очень сведущими в теории искусственного интеллекта и современном уровне технологического развития элементной базы компьютеров. Возражения второго рода на наш взгляд также недостаточны. Зачастую их невозможно опровергнуть, но. точно так же невозможно строго доказать. К счастью, в наше время все эти возражения практически не сказываются на развитии как практики, так и теории искусственного интеллекта. И одна из важнейших тенденций его развития в ближайшем будущем — это развитие мультиагентных систем. Какими же главнейшими особенностями эти мультиагентные системы должны обладать? Особенности мультиагентных системМультиагентные системы должны помогать человеку в решении сложных интеллектуальных задач и не проявлять своенравия в поведении там, где этого от них не требуется. Для этого они должны удовлетворять ряду необходимых требований. Наиболее значимыми из них являются следующие три. Агент должен вести себя рационально. Под рациональным поведением понимается такое поведение агента, когда на любое восприятие его реакция является рациональной. Это очень расплывчатое определение. Что такое рациональное поведение и реакция — определяет конструктор агента. Будем полагать, что он это может всегда сделать. Конечно, рациональность поведения зависит от типа среды и цели, поставленной агенту конструктором. Если агенту поставлена цель ухаживать за газоном, то его поведение, когда он вместо того, чтобы подстригать газон, начнет копать ямы на нем, не может считаться рациональным. Агент должен иметь такую стратегию вывода, которая расходует время, необходимое для вычисления, рационально. Это требование менее субъективно, чем предыдущее. Зачастую рациональный расход времени требует компромисса между качеством решения и расходуемым временем. Иногда расход времени на вывод считается рациональным, если он не превосходит некоторого предела. Зачастую рациональным расходом времени считается такой расход, при котором поведение агента происходит в реальном времени. Обычно, это означает, что среда является динамической и ее состояния изменяются через определенные интервалы времени. Агент Должен воспринимать (распознавать) каждое из этих изменяющихся во времени состояний среды и успевать вырабатывать реакцию не позже, чем этот интервал закончится. Агент должен иметь рациональную сложность реализации. Рациональная сложность реализации предполагает, что число единиц (логических элементов, программных команд, процессоров и т.п.), необходимых конструктору для создания агента, либо оптимально, либо не превосходит некоторой величины, либо еще каким-либо образом оценивается. Для того чтобы можно было сконструировать агента, удовлетворяющего перечисленным требованиям, необходимо иметь инструментарий, в основе которого лежат соответствующие теоретические положения. Часть из них рассмотрена в настоящей книге. Чем сложнее среда, с которой имеет дело агент, тем сложнее структура его знаний и тем выше требуемый тип агента. Агент самого простого типа (комбинационный), выдает реакцию в тот же момент времени, в который он осуществил восприятие. Поэтому, если в задачу конструктора входит создание агента, поведение которого должно происходить в реальном времени, то комбинационные и последовательностные агенты — это то, что надо. Однако следует иметь в виду, что как для четких, так и нечетких сред это может привести к увеличению сложности реализации. Если же среда и структура знаний о ней очень сложные, то представление этих знаний в виде, который требуется для комбинационного и последовательностного агента, может оказаться непростым или даже невозможным делом. Тем не менее, в любом случае путь от нерационального расхода времени целенаправленными или целеустремленными агентами лежит в направлении «переписывания» всей или части их базы знаний на язык комбинационных или последовательностных агентов с учетом требований рационального расхода времени и рациональной реализации. Это «переписывание» связано с определенной структуризацией знаний, с распределением задач между отдельными параллельно функционирующими агентами, с введением некоторой иерархии и координацией поведения агентов метаагентами. В заключение хотелось бы сказать, что в настоящее время уже появился современный инструментарий и технологии, использующие языки логических исчислений для разработки онтологий и функционирующих на их базе мультиагентных систем. Предлагаемая читателю книга является введением в теоретическую подоплеку этих развивающихся технологий, яркую перспективу которых в настоящее время уже никто не оспаривает. И наконец, автор считает своим долгом отметить, что на стиль изложения материала книги и выбор ее содержания оказала большое влияние книга Стюарта Русселя и Питера Норвига «Искусственный интеллект. Современные методы».
|
1 |
Оглавление
|