Основанный на глубоком обучении современный мейнстримный ИИ не способен решить задачу создания сильного ИИ (интеллект машины, способный понять или освоить любую интеллектуальную задачу, которую может выполнить человек).
Т.е. избранный человечеством магистральный путь не ведет к созданию искусственного аналога интеллекта людей
(хотя изначальная цель этого научно-технологического направления, как и само его название — «Искусственный интеллект», — были именно таковыми).
Но если ситуация с сильным ИИ столь идиотична, так почему же мы хотя бы не признаем этого?
В чем причина идиотизма такой ситуации?
Предыстория вопроса
Опубликовав «The AI Timelines Scam» (Лохотрон прогнозов ИИ), Джесика Тейлор мужественно воткнула палку в муравейник мейнстримного ИИ и провернула ее там аж три раза.
Теперь мейнстрим науки и бизнеса вокруг ИИ может отреагировать двояко.
- Либо гордо не заметить смелый и умный поступок Джесики, начав ее сторониться, как чумной.
- Либо объявить позицию Джесики «неконструктивной критикой» непрофессионала, не способного что-либо предложить и потому зарабатывающего очки на охаивании мейнстрима ИИ.
И то, и другое уже бывало в истории ИИ.
Первый тип реакции мейнстрима науки и бизнеса вокруг ИИ наблюдался еще в 1965 году, когда Хьюберт Дрейфус опубликовал под эгидой RAND Corporation свою знаменитую работу «Алхимия и искусственный интеллект». В ней он (более полувека назад!) в деталях объяснил, почему создание сильного ИИ на основе существующей архитектуры компьютеров невозможно.
С тех пор и до конца жизни в 2017 он так и оставался парией в мире мейнстримного ИИ. Его коллеги — преподаватели MIT даже не садились с ним за один стол в университетской столовой. А поскольку Дрейфус упорствовал (в 1972 опубликовал книгу «Чего не могут компьютеры», а в 1992 ее обновление «Чего до сих пор не могут компьютеры»), он так и остался в памяти немногих (большинство же сегодня вообще о нем не помнят) «чокнутым луддитом ИИ».
И это при том, что Дрейфус вовсе не считал создание сильного ИИ невозможным. Он всего лишь, одним из первых, понял, что
для создания интеллекта, схожего с человеческим, необходимо, чтобы устройство (интеллектуальный агент) имело более или менее схожее с человеком тело и социальную адаптацию.
Иными словами, такой интеллект должен быть воплощенным и эусоциально-коллективным.
Такая реакция мейнстрима ИИ против раскольников, посмевших пойти против него — изгнать, дискредитировать, наказать — случается и сегодня. Хотя по мере роста политкорректности всюду и во всем, все чаще стал встречаться второй тип реакции на ИИ раскольников.
Наглядный пример второго типа реакции — отношение мейнстрима ИИ к работам Гари Маркуса, сформулировавшего «Глубочайшую проблему глубокого обучения».
- Глубокое обучение — прекрасный инструмент для решения ограниченного круга задач и, особенно для задач перцептивной классификации. Но это не панацея, а всего лишь один из элементов сложного ансамбля разнообразных техник, необходимых для создания сильного ИИ.
- Помимо глубокого обучения, для создания сильного ИИ, как минимум, необходимы:
— техника представления причинно-следственных связей,
— техника описания абстрактных идей,
— техника выполнения логических выводов,
— техника извлечения абстрактных знаний.
Ответ мейнстрима ИИ на эти соображения Гари Маркуса, наиболее лаконично и хлестко сформулировал профессор Захари Липтон:
- Прокричать что-то громче всех — не значит, сказать это первым. А то мы не знали, что глубокое обучение не способно рассуждать.
- Сказать, что X не решает Y, — легко. Но где ваше решение Y?
Первый ответ — по сути, признание того, что Маркус прав.
Второй — ясно, что справедливость критики способа решения Х никак не зависит от наличия у критикующего альтернативных предложений по решению.
Ну а теперь о том, что же, собственно, написала Джесика Тейлор.
Лохотрон прогнозов ИИ
Подобно мальчику, прокричавшему «а король-то голый!», Джесика, отбросив политкорректность, написала следующее.
A) Мир просто водят за нос, прогнозируя создание сильного ИИ в ближайшие 20 лет.
B) Делается это потому, что более близкие прогнозы создания сильного ИИ:
— генерируют больше финансирования науке и бизнесу;
— позволяют политикам стращать общество возможностью «отстать в ИИ гонке», что рождает новые бюджеты и их новые распилы;
— лучше привлекают внимание читателей во всех медиа.
Большая “панама”
(Автор использует термин панама, как пример афёры. Более ста лет назад название государства Панама стало символом грандиозного обмана и мошенничества. Дело Компании Панамского канала, которое и стало причиной такой известности, было признано крупнейшей аферой XIX века. Скандал был тем более грандиозным, что в нем были замешаны очень многие знаменитые и влиятельные люди того времени.)
Ситуация напоминает историю японского проекта «Компьютеров 5го поколения», начатого в 1982 году и обещавшего создание ИИ с помощью массивно-параллельного логического программирования. Через 10 лет, потратив, примерно, $1 млрд. (в сегодняшних деньгах), авторы проекта признали, что погорячились.
Но сегодня очередная “панама” со скорым появлением сильного ИИ вышла далеко за пределы одной страны, и на кону куда большие суммы. Десятки крупнейших и крутейших компаний мира куют железо, не отходя от кассы, постоянно подпитывая мир все более впечатляющими перспективами выхода на уровень сильного ИИ. Китай и США, ЕС и Россия, ввязываются в ИИ-гонку, в которой создание сильного ИИ видится одним из главных козырей.
Но все эти рассказы про “сильный ИИ вот-вот за углом” — одна большая “панама”.
И жалко вовсе не то, что это “панама”. Бизнес и политики, каждый по-своему, заработают на этой “панаме” будь здоров сколько.
Жалко, что время уходит. Ведь между предыдущей попыткой японцев и нынешними «олимпийскими ИИ играми» без малого 40 лет. А эффект будет тот же.
В заключение хочу поддержать Джесику по следующим пунктам.
Как и она, я считаю:
- что глубокое обучение является огромным научно-технологическим достижением;
- что глубокое обучение во многом изменит мир в ближайшие 20 лет (но это будет сделано посредством широкого распространения обычного (узкого — специализированного) ИИ);
- что в долгосрочной перспективе возможность появления сильного ИИ может стать важнейшим событием в истории человечества;
- что никто не может категорически утверждать абсолютную невозможность создания сильного ИИ в ближайшие 20 лет;
- что чисто теоретически, нельзя исключать наличие у некоторых исследователей ИИ некой секретной информации, указывающей, что сильный ИИ может появиться в ближайшие 20 лет (это очень маловероятно, но все же возможно);
- что пп. 5 и 6 крайне маловероятны, и многие представители мейнстрима ИИ в душе это признают, но помалкивают об этом.