Что не может искусственный интеллект
AI требует данные для анализа и обучения — без достаточного количества структурированных данных не получится создать полезное на практике решение с искусственным интеллектом. К примеру, чтобы точно распознавать лица на фотографиях, нужно проанализировать десятки (а лучше сотни) тысяч снимков.
Многие отрасли, особенно госсектор, до сих пор полагаются на бумажные архивы, полная оцифровка которых займет время. Для бизнеса это означает, что недостаточно разработать софт для AI — сначала нужно получить доступ к данным.
Исследование McKinsey Global Institute показало, что лидерами по внедрению искусственного интеллекта стали финтех и телеком, а среди отстающих — строительство, образование и туризм, в которых не хватает оцифрованных данных. При этом качество данных не менее важно, чем их объем. Невозможно построить верные модели на основе некачественных данных.
Из-за этого остро встает проблема безопасности и защиты данных от возможного замусоривания и нецелевого использования злоумышленниками. Прежде чем начать внедрять искусственный интеллект, компаниям нужно задуматься о кибербезопасности.
Получайте свежие новости о мире Web3 в рассылке . Регулярно.
Без рекламы.
Проблема №2. «Фейк ньюс» и кибербуллинг
Искусственный интеллект пока не способен отделять правду от вымысла и бороться с дезинформацией. Хотя компания OpenAI уже создала искусственный интеллект для генерации убедительных «фейк ньюс», алгоритмы до сих пор распознают фейки хуже людей.
К примеру, Facebook для решения этой задачи отказался от искусственного интеллекта и нанял 10 тысяч модераторов, способных понять культурные нюансы публикаций.
Другое ограничение искусственного интеллекта: его неспособность распознавать эмоции в соцсетях. Этот недостаток мешает, в частности, эффективно решать проблему кибербуллинга. Существующие механизмы требуют участия людей, которые должны жаловаться на оскорбительные посты.
Проблема №3. Здоровье и доверие
Люди не доверяют искусственному интеллекту, что сильно тормозит его внедрение. Разработанный IBM проект Watson for Oncology способен рекомендовать варианты лечения для 13 разновидностей рака — в некоторых случаях решение алгоритма на 93% совпадало с рекомендациями экспертов-онкологов.
Но врачи оказались не готовы делегировать решение вопросов жизни и смерти машине. Остро встал и вопрос ответственности за потенциальную ошибку, допущенную искусственным интеллектом.
К тому же, проявилась проблема выборки данных, на которых обучали Watson, — иностранные госпитали жаловались, что программа ориентирована на американские врачебные практики и методы лечения. В результате некоторые внедрившие технологию больницы отказались от нее, сославшись на высокие затраты и неудовлетворительные результаты.
Возможно, существует способ решить проблему недоверия общества к искусственному интеллекту. Исследование американских ученых показало, что люди готовы доверять AI, если смогут внести незначительные изменения в его алгоритмы.
Проблема №4. Творчество и шутки
Искусственный интеллект лишен креативности — он способен только подражать стилю людей, но не создавать свой. Медиа давно используют AI для написания спортивных новостей и криминальной хроники, но шутки и романы в исполнении роботов до сих пор не выдерживают критики.
В 2018 году нейросеть, обучившись на массиве из 43 тысяч шуток, начала генерировать бессмыслицу вроде «Что получится, если скрестить вас с динозавром? Юристы». Судя по всему, в области юмора не стоит ждать машинной революции.
С прозой дела обстоят не лучше: хотя есть разработки, демонстрирующие способность искусственного интеллекта писать рассказы, до получения компьютером Нобелевской премии по литературе еще далеко.
Проблема №5. Что такое интеллект
Сооснователь Apple Стив Возняк предложил использовать «Кофейный тест» для измерения способностей машинного интеллекта. Чтобы пройти тест Возняка, робот должен войти в незнакомую квартиру, найти кофеварку, налить воды, достать кружку и приготовить кофе. Пока никому не удалось пройти эту проверку. В «Кофейном тесте» есть доля шутки, но он показывает серьезные ограничения интеллекта современных машин.
Основатель Landing AI и Coursera Эндрю Ын считает, что успешно автоматизировать можно те интеллектуальные задачи, решение которых занимает у человека меньше секунды.
Проблема в том, что люди сами пока не до конца понимают, что же такое интеллект. В течение десятилетий исследователи считали, что идеальным показателем уровня интеллекта является игра в шахматы. Сегодня гроссмейстеры не могут конкурировать с машинами, но способность чат-ботов и голосовых ассистентов поддерживать осмысленный разговор ушла не дальше уровня пятилетнего ребенка.
Решение: как превратить проблемы в вызовы
Каждое ограничение искусственного интеллекта сегодня — это вызов для разработчиков и предпринимателей. Задачи, которые пока не подвластны машине, должны стать вызовом для нового поколения исследователей. Например, можно создать сервис, угадывающий эмоции человека по сообщениям в соцсетях, или обучить нейросеть остроумно шутить и создать на ее основе вирусное приложение, которое покорит мир.
Таким вызовам посвящены новые технологические проекты молодых IT-специалистов, инвестиции на развитие которых они ищут на многочисленных хакатонах и конкурсах стартапов. Например:
- при поддержке правительства Москвы прошел Urban.Tech Challenge;
- РВК с 2013 года каждый год запускает акселератор GenerationS;
- в «Сколково» состоялся блокчейн-хакатон Russianblockchainweek 2018;
- ИК «Криптонит» запустил Криптонит Startup Challenge;
- «МегаФон» в декабре 2018 провел MegaFon Big Data Challenge;
- Сбербанк и акселератор 500 Startups помогают стартапам развивать продукт и оттачивать позиционирование.
Современные разработчики имеют множество возможностей для реализации собственных идей, потому и каждое ограничение искусственного интеллекта найдет свое решение и амбициозную команду.
На что не способен искусственный интеллект?
Искусственный интеллект (ИИ) с развитием технологий способен занять миллионы рабочих мест. Это будет ударом по трудовой сфере и лишит работы как профессиональных рабочих, так и офисных сотрудников. Однако есть навыки, которыми ИИ не может овладеть: стратегия, творчество, ловкость рук и социальные навыки, основанные на эмпатии. Нам нужен новый общественный договор, в котором подчеркивается важность правильного обучения и сотрудничества с ИИ.
Искусственный интеллект может выполнять многие задачи лучше, чем человек, при практически нулевой стоимости. Этот простой факт способен принести огромную экономическую выгоду, но также вызвать беспрецедентную по своим объемам безработицу. Это подробно описывают и такие специалисты как Кай-Фу Ли и Чен Цюфань в книге «ИИ 2041».
Искусственный интеллект вызовет безработицу
В будущем искусственный интеллект может делать все: от выдачи кредитов до строительства наших домов, и даже нанимать и увольнять нас. Такая трансформация способов выполнения работы приведет не только к отсутствию рабочих мест для людей, но и к возникновению целого ряда социальных проблем, включая депрессию, самоубийства, наркоманию, растущее неравенство и социальные волнения.
Итак, что же нам остается? Какие рабочие места может и не может занять искусственный интеллект? Рабочие места, наиболее подверженные риску автоматизации со стороны ИИ, как правило, являются рутинными и начального уровня. Главное преимущество ИИ перед человеком заключается в его способности обнаруживать невероятно тонкие закономерности в больших объемах данных.
Возьмем пример андеррайтинга кредитов. В то время как человек-андеррайтер при принятии решения об одобрении вашей заявки на страхование будет рассматривать лишь несколько показателей (ваш чистый капитал, доход, дом, место работы и так далее), искусственный интеллект может за миллисекунды учесть тысячи переменных. От публичных записей, ваших покупок и записей о состоянии здоровья. Вплоть до того, какими приложениями и устройствами вы пользуетесь. Он выдаст гораздо более точную оценку вашей заявки.
Такие алгоритмы легко вытеснят рутинную работу офисных работников подобно тому, как программное обеспечение неуклонно поглощает рутинные задачи. Речь идет о ведении бухгалтерии и вводе данных. В сочетании с робототехникой искусственный интеллект также будет вытеснять все более сложные виды работ. По мнению специалистов, уже через 20 лет сборщики на складах, выполняющие рутинные задачи, будут вытеснены с рынка.
Многие строительные рабочие потеряют свои места, поскольку строительная практика перейдет на сборные компоненты, создаваемые роботами. Их будут использовать, поскольку они способны практически бесперебойно, без какой-либо усталости работать круглые сутки. Кроме того, за счет вычислений качество их работы в 90% случав лишено любых огрехов, допускаемых людьми.
На что не способен искусственный интеллект?
Существует как минимум три главных особенности, в которых проявляются недостатки ИИ перед человеком в рамках рабочего процесса.
Творчество
ИИ не может создавать, концептуализировать или стратегически планировать. Искусственный интеллект отлично справляется с оптимизацией для достижения узкой цели. Но он не способен выбирать собственные цели или мыслить творчески. ИИ также не может мыслить в разных областях и применять здравый смысл, что традиционно для человека.
Эмпатия
Искусственный интеллект не может чувствовать или взаимодействовать с такими проявлениями, как сочувствие и сострадание. Поэтому ИИ не может дать другому человеку почувствовать, что его понимают и заботятся о нем. Даже если ИИ будет совершенствоваться в этой области, будет крайне сложно довести технологию до такого уровня, чтобы люди чувствовали себя комфортно, особенно взаимодействуя с роботами в ситуациях, требующих заботы и сочувствия, или того, что мы можем назвать «человеческими услугами» или «человеческим отношением».
Ловкость рук
ИИ и робототехника не могут выполнять сложную физическую работу, требующую ловкости или точной зрительно-моторной координации. Искусственный интеллект не может работать с неизвестными и неструктурированными пространствами, особенно с теми, которые он не наблюдал.
Что все это означает для будущего рабочих мест? Асоциальные и рутинные профессии, такие как страховые агенты, будут полностью поглощены. В тех профессиях, которые являются высокосоциальными, но рутинными, люди и ИИ будут работать вместе, каждый внося свой опыт и знания.
Например, в классе будущего искусственный интеллект сможет заниматься оценкой рутинных домашних заданий и экзаменов и даже предлагать стандартизированные уроки и индивидуальные тренировки. А учитель-человек сосредоточится на роли сочувствующего наставника, который руководит групповыми проектами, развивающими эмоциональный интеллект. Также за человеком останется и обеспечение индивидуального обучения.
В тех профессиях, которые являются творческими, но асоциальными, творческие способности человека будут усилены инструментами ИИ, например, ученый может использовать технологии для ускорения процесса открытия лекарств. Наконец, люди будут блистать на рабочих местах, где требуются как творческие, так и социальные навыки, например, на руководящих должностях, требующих стратегического подхода.
Очевидно, что существует множество направлений работы, которые ИИ будет трудно освоить. И поэтому работникам будет безопаснее сделать карьеру. Только эти направления не предотвратят катастрофу для легионов работников, вытесненных с должностей, которые станут легче для ИИ. Так что же еще мы можем сделать, чтобы помочь удовлетворить основное желание человека иметь полноценные средства к существованию?
Роботы могут освоить не все профессии
Чтобы создать больше рабочих мест и повысить готовность работников к грядущим преобразованиям, Кай-Фу Ли и Чен Цюфань выделяют переобучение, перекалибровку и возрождение. И это лишь часть гигантских усилий по решению главной проблемы нашего времени – экономической революции ИИ.
Людей, занимающих рабочие места, находящиеся под угрозой, следует предупреждать заранее и поощрять к приобретению новых навыков. Хорошая новость заключается в том, что, как уже говорилось, есть навыки, которыми ИИ овладеть не может. Стратегия, креативность, социальные навыки, основанные на эмпатии, и ловкость рук. Кроме того, новые инструменты ИИ будут нуждаться в людях-операторах. Мы можем помочь людям приобрести эти новые навыки и подготовиться к новому миру работы.
Профессионально-технические учебные заведения должны пересмотреть свои учебные программы, чтобы включить в них курсы для таких устойчивых рабочих мест. Правительства могли бы взять на себя инициативу и предоставить стимулы и субсидии для этих курсов, а не слепо следовать широкомасштабным экономическим мерам, таким как всеобщий базовый доход.
Корпорации также могли бы предоставлять программы, подобные программе «Выбор карьеры» компании Amazon. В рамках инициативы Amazon выплачивает до 48 тысяч долларов США любому сотруднику для получения степени в таких востребованных областях как авиамеханика, автоматизированное проектирование и сестринское дело.
Важность и количество профессий, ориентированных на обслуживание людей, таких как медсестры, будет расти по мере роста благосостояния и продолжительности жизни. Общество постоянно обесценивает такие жизненно важные сервисные роли, ориентированные на человека, как в плане их восприятия, так и в плане их компенсации. Кай-Фу Ли призывает устранить это упущение.
В дополнение к повторному обучению навыкам, нам необходимо пересмотреть, как выглядят сегодняшние рабочие места с помощью ИИ, двигаясь в направлении симбиоза человека и роботов. Наиболее распространенный и базовый симбиоз будет найден в программных инструментах ИИ. Программное обеспечение предусматривает взаимозависимость человека и ПК, что уже привело к революции в офисной работе.
Искусственный интеллект в связке с человеком
Программные инструменты ИИ могут разрабатывать альтернативы, оптимизировать результаты или выполнять рутинную работу для офисных работников во многих областях. Конкретные инструменты ИИ будут адаптированы для каждой профессии и области применения, например, создание молекул на основе ИИ для фармацевтики, планирование рекламы для маркетинга или проверка фактов для журналистики.
Более глубокая взаимозависимость между оптимизацией ИИ и «человеческим контактом» приведет к переосмыслению многих профессий и созданию новых. Искусственный интеллект будет выполнять рутинные задачи в тандеме с человеком, который будет выполнять те, которые требуют тепла и сострадания.
Например, врач будущего по-прежнему будет основным контактным лицом, которому доверяет пациент. Но для определения оптимального лечения будет полагаться на диагностические инструменты ИИ. Это изменит роль врача на роль сострадательной сиделки, что позволит ему больше времени проводить со своими пациентами.
Подобно тому, как мобильный Интернет привел к появлению таких профессий, как водитель Uber, с приходом ИИ, безусловно, появятся рабочие места, о которых мы пока даже не можем себе представить. Но хватит ли этих рабочих мест на всех, остается вопросом без ответа.
Сегодня в качестве примеров можно привести инженеров ИИ, специалистов по анализу данных, специалистов по маркировке данных и роботов-механиков. Но мы еще не знаем и не можем предсказать многие из этих новых профессий, так же как в 2001 году мы не могли знать о водителях Uber. Мы должны следить за появлением этих ролей, информировать о них людей и проводить обучение.
Творчество под искусственный интеллект
При правильном обучении и наличии необходимых инструментов мы можем ожидать настоящий рассвет под управлением ИИ. Совместно с приложенным человеком трудом может появиться новое творчество, при этом не лишенное сострадания и человечности. С XIV по XVII век богатые итальянские города и купцы финансировали эпоху Возрождения, которая привела к расцвету художественного и научного творчества.
Кай-Фу Ли и Чен Цюфань предположили, что ИИ станет катализатором нового ренессанса, в центре которого будет человеческое самовыражение и творчество. Как и в эпоху итальянского Возрождения, люди будут следовать своим страстям, творчеству и талантам, когда у них появится больше свободы и времени.
Художники, скульпторы и фотографы будут использовать инструменты искусственного интеллекта для создания, экспериментирования и совершенствования произведений искусства. Писатели, журналисты и поэты будут использовать новые технологии для исследований и создания произведений. Ученые будут использовать технологии для ускорения открытия лекарств.
Возрождение ИИ изменит систему образования, предоставив учителям инструменты, которые помогут каждому ученику найти свои увлечения и таланты. Образование будет поощрять любознательность, критическое мышление и творчество. Оно будет способствовать обучению на практике и групповым занятиям, которые повышают эмоциональный интеллект учащихся и позволяют им встретиться лицом к лицу друг с другом, а не только с экраном.
Новая формация общества
Превращение некоторых из вышеперечисленных идей в реальность станет беспрецедентной задачей для человечества. Ясно одно: нам потребуется переобучить огромное количество перемещенных работников.
Нужно собрать астрономическую сумму денег для финансирования этого перехода. Необходимо заново изобрести систему образования, чтобы выпускать творческих, социальных и многопрофильных выпускников. Понадобится пересмотреть трудовую этику общества, права граждан, обязанности корпораций и роль правительства. Проще говоря, потребуется разработка новой формации общества.
К счастью, нам не нужно создавать модель общества с нуля. Многие элементы уже существуют в разных странах. Возьмем, к примеру, программы обучения «одаренных и талантливых» в Корее, начальное образование в Скандинавии, университетские инновации в США. От Швейцарии можно взять культуру ремесленничества, от Японии мастерство обслуживания, яркие традиции волонтерства от Канады, заботу о стариках от Китая.
Странам следует делиться опытом и наметить пути координации в глобальном масштабе. При такой структуре новые технологии будут не замещать уже имеющиеся системы, а грамотно в них внедряться. Таким образом человечество может сохранить то, что уже создало своими силами и при помощи ИИ усовершенствовать это. Потребуется много времени и стараний, чтобы искусственный интеллект стал неотъемлемой частью жизни, при этом с сохранением социальных институтов современности.
Способности есть, а разума нет: задачи, с которыми ИИ не справляется
«Машине надо принять решение кем пожертвовать — тем, кто внутри автомобиля, или тем, кто бросился под колёса», — профессор кафедры информационных технологий СПбГУ Татьяна Гаврилова объясняет, какие алгоритмы лежат в основе искусственного интеллекта и с какими трудностями сталкиваются его разработчики.
От живого мозга до искусственного интеллекта
За последние пять лет вокруг искусственного интеллекта поднялась большая волна публикаций, выступлений, страхов, а также хайпа — обсуждений, шумихи и агрессивной рекламы. Это свидетельствует в первую очередь о спекуляции и профанации. Новостные порталы наперебой рассказывают, как нейронная сеть обучилась очередному потрясающему трюку. Следует понимать, что искусственная нейронная сеть — это не модель мозга. Нейрофизиологи отмечают, что механизм работы мозга до сих пор слабо изучен, а его модель далека от математической формализации.
В 2013 году Европейская комиссия оценила научно-исследовательский проект The Human Brain Project и выделила на исследования грант на сумму в один миллиард долларов. Цель этого проекта — создать полнофункциональную компьютерную модель человеческого мозга. Представить всю многосложность работы мозга: как нейроны соединяются и взаимодействуют между собой, как формируются воспоминания, и принимаются решения. В 2019 году на Европейской конференции с докладом выступил нейробиолог, директор и основатель The Human Brain Project Генри Маркрам. Он вместе с командой показывал изображения мозга, подсвеченные на томографе с разных сторон, подчёркивая, что, чем больше они забирались вглубь мозга, тем меньше становилось понятно, как он работает. Всё это время они двигались по пути миниатюризации, но, очевидно, что нужна макромодель мозга. Здесь можно провести аналогию с известной метафорой: сколько бы муравей ни ползал внутри телевизора, он всё равно не поймёт, что это за устройство.
Чат-боты говорят, но не понимают
Первую разговорную программу «Элиза» разработали ещё в 60-х. Её работа была похожа на сеанс психотерапии. Примерный диалог мог выглядеть следующим образом:
— Здравствуйте. Как вы себя чувствуете?
— Голова болит.
— Как часто это происходит?
— Каждый раз, как с матерью поговорю.
— У вас проблемы с мамой. Расскажите об этом подробней.
Программа содержит набор заготовок. Выявляет ключевое слово в каждом предложении и создает иллюзию разговора, без какого-либо осмысления вообще. Таким образом Элиза могла умело поддерживать беседу на протяжении нескольких часов, производя на людей хорошее впечатление.
Сегодняшняя Алиса от «Яндекса» — эта та же самая Элиза, с подключённой платформой сервисов и гораздо более богатой лексикой. Вся интеллектуальность подобных чат-ботов сводится к переобучению. Если размечать для них ответы плохие, непригодные, то она будет их в дальнейшем отсеивать, а хорошие, подходящие — оставлять. Настоящая разумность программы, её способность не просто определять, что изображено на картинке или преобразовывать устную речь в текст, но понимать значение информации и мыслить, проявится только при подключении к базе знаний. Это некое понимание о мироустройстве. Вот этого пока не может никакая программа. Искусственный интеллект, работающий с базой знаний называется Symbolic AI (символический ИИ).
Сейчас активно используются два направления: искусственная нейронная сеть и машинное обучение. Их развитием занимаются не в научных лабораториях под руководством учёных, а в IT-компаниях. Программисты и разработчики искусственных нейронных сетей признают, что ничего мыслящего, кроме мозга нет. Поэтому если они хотят создать интеллектуальную систему, то вынуждены моделировать работу мозга, потому что больше нечего. Но кардинальный прорыв будет у тех, кто сумеет скрестить модели представления знаний и машинного обучения.
К слову, некоторые компании уже активно используют роботов при трудоустройстве на работу. Они особенно хороши на массовых отборах, куда поступает более 1000 резюме. Робот анализирует анкеты и оценивает кандидатов на релевантность, но окончательное решение всё равно принимает человек. Учёные Технологического института Джорджии выяснили, в каком случае люди охотно доверяют роботу. Это происходит, если им заранее сообщить, что он предназначен для выполнения определённой задачи. Такие роботы также проводят выходные интервью. Люди ведут с машиной более откровенный диалог о причинах увольнения и о том, с какими трудностями сталкивались в процессе работы. Таким образом роботы собирают очень хорошую, а главное весомую, обратную связь. Кроме того, люди боятся врать роботу. Им кажется, что у машин больше информации. Например, два главных вопроса для отбора кладовщиков были следующими: есть ли у вас судимость и употребляете ли вы алкоголь? И люди без утайки отвечали на эти вопросы роботу.
Что не так с беспилотниками
Современный беспилотный транспорт несовершенен и имеет ряд недостатков. Самый явный кроется в машинном зрении. Вопрос даже не в технической сфере, проблема машинного зрения не решена концептуально. Камеры и датчики обрабатывают с большой скоростью определённые сигналы, в результате чего в памяти компьютера образуются двоичные картины, которые надо интерпретировать. В этом и заключается основное затруднение. Если, к примеру, дорогу переходит пешеход, то любой водитель легко это считает. Не потому, что у него зрение лучше, чем у камеры беспилотника, а потому, что у водителя в сознании есть модель движущегося человека. Моделей зрения пока не существует. Неизвестно, как человек обрабатывает визуальную информацию. Сейчас проектируют моделирующие устройства, которые позволяют с некоторой степенью уверенности распознавать целый ряд объектов.
Представьте, что вы попросили человека, ничего не понимающего в автомобилях, принести поперечный рычаг. Очевидно, что он не сможет этого сделать. Потому что он не автомеханик, и у него нет в голове модели рычага. Но если сказать, что это железяка изогнутой формы — человек принесёт. Каждый знает, что такое «железяка», и понимает, как выглядит «изогнутая форма». Робот даже после пояснений не справится. Для этого его нужно обучить, закладывая понятия обо всех этих объектах под разными углами и с разной степенью доступа.
Находясь в офисе, человеку не обязательно отодвигать стул от стола, чтобы идентифицировать предмет. Достаточно взглянуть на спинку. Только потому, что у людей есть полная модель стула, и мы по одной его части, воссоздаем целое. Мы знаем, что стул — неотъемлемый атрибут офисного интерьера. Поэтому из огромного подбора объектов, которых можно воссоздать по этому фрагменту — выбираем один. Универсальных программ, которые могли бы делать подобное — нет. Никакой искусственный интеллект не содержит сейчас модели мира и знаний, позволяющих ему однозначно толковать картину, которую он видит.
Допустим, где-то за кустами спрятался человек, готовый выбежать на дорогу. Часть его тела скрыта за густой листвой. Видимой части будет недостаточно, для того чтобы машина смогла считать это как потенциальную опасность. Более того, если вы увидите спрятавшегося за кустами слона, то, вероятно, решите, что это человек в маске слона, потому что в нашем районе слоны не водятся. Уж этих знаний у машины точно нет.
Проблема интерпретаций приближается к своему разрешению, во всяком случае прогресс есть. В алгоритм машинного обучения на огромных выборках можно поместить 100 автомобилей, и ясно, что 101, даже другой марки, с большой вероятностью, программа распознает правильно. Хотя в ней не будет заложен конкретно этот автомобиль. Стоит также отметить, что для обучения программы важно соблюдать многообразие подбора. Если, например, вы будете учить программу только на седанах, а потом подъедет кабриолет, то она, наверняка, его не распознает, потому что в выборке вообще не было машин без крыши.
Вторая сложность представляет собой этическую дилемму, в которой машине предстоит сделать моральный выбор. Допустим, беспилотный транспорт везёт пассажира. Навстречу выскочил человек, и единственный способ избежать столкновения — это въехать в рядом стоящий столб. Машине надо принять решение кем пожертвовать — тем, кто внутри автомобиля, или тем, кто бросился под колёса. Это совершенно неразрешимая для неё задача. Уже имеются первые аварии и даже жертвы. В Аризоне беспилотный внедорожник, принадлежащий компании Uber, сбил насмерть пешехода. Их вина в том, что они выпустили на трассу сырой, не прошедший все тесты, алгоритм.
Проблема беспилотников — это в первую очередь нехватка базовых представлений о мире. Люди всегда принимают решения в контексте. Никакой искусственный интеллект не имеет полную картину мира, какую имеет человек к 18 годам. По этой причине водительские удостоверения выдают именно с 18 лет [в России], хотя зрение отлично сформировано уже и в 14. Не достигнув совершеннолетия, человек не может принимать взвешенные решения, в том числе этического и эмоционального характера.
Мы имеем дело с очень молодыми и незрелыми алгоритмами, которые требуют доработки. Они способны исправно работать, но исключительно под контролем человека.
Искусственный интеллект на смену полиграфа
На рынке искусственного интеллекта ведущие мировые компании активно инвестируют в сферу эмоциональных вычислений. Такая технология выявляет самые незаметные изменения в мимике. Программа выбирает определённое количество точек на лице и сравнивает с базой фотографий, на которых эмоция уже распознана.
Компания Microsoft заявила, что у них есть подобный алгоритм, но она не даст его в распоряжение правительства. Это очень опасный инструмент, который можно использовать против человека. Представьте, что вы входите в кабинет к начальнику, а он видит, что вы его ненавидите и думаете о нём плохо. Возникает серьёзная этическая проблема.
Аналогичных программ «распознавалок» будет ещё очень много. Прекрасных, замечательных в том числе. Они будут полезны, особенно в медицине. Машины уже сейчас помогают врачам диагностировать болезни. Допустим, американская программа IBM Watson ставит диагнозы по анализам лучше, чем некоторые начинающие врачи. В качестве обучающей выборки в неё было заложено шесть тысяч историй болезней. Это титанический труд и, безусловно, огромные деньги.
Умеет ли машина сочинять
Машина не в силах порождать нечто качественно новое. Оригинальные тексты песен, стихосложения, музыкальные композиции — это всё основано на принципе пермутации, или, проще говоря, перестановки. Что касается поэзии, то там алгоритм действий следующий: программа находит общие моменты и определённые сочетания. Берёт ключевые слова, добавляет к ним слова других авторов и перекручивает под нужную ритмику. Русский язык сложный, но если не заботиться о рифме, то белый стих «сочинить» можно.
С музыкой всё еще проще. Программа определяет какие аккорды наиболее характерны для того или иного исполнителя и использует их же, но в иной последовательности. В основе этого «творчества» лежит перетасовка звукоряда и отбрасывание откровенной какофонии.
Были программы, которые сочиняли народные сказки. Для этого провели анализ сценариев, использовав книгу Владимира Проппа «Морфология сказки». Оказалось, что модель развития событий включает в себя несколько очевидных элементов: в сказках всегда есть положительный и отрицательный герои. Также обязательно присутствует даритель, дорога, препятствие и в конце счастливый конец. Отличительной особенностью таких сказок была эклектика. Программа комбинировала героев и их действия, рассказывая, например, про Ивана-дурака, который борется со Змеем Горынычем. Безусловным минусом являлся бедный язык повествования. Слушателям становилось скучно. Живой сказитель всегда юмора добавит, а где-то занятных речевых оборотов. По этой же причине программа не может переводить на другие языки метафоры или фразеологизмы. Онлайн-переводчики работают с большими объёмами информации. Стоит отметить, что качество их перевода за последние годы заметно улучшилось. Теперь они не переводят каждое слово в отдельности, как делали это раньше, а ищут целое предложение где-либо в текстах. Самая большая трудность возникает с семантикой. Для этого нужна база знаний, чтобы понимать смысл выражений. К примеру: цыплята готовы к обеду. Неясно, как правильно перевести эту фразу, если не знаешь, где человек находится в этот момент — на птицеферме (Chickens are ready for dinner) или в ресторане (Chickens are prepared for lunch).
Без познаний человека никакая интеллектуальная деятельность невозможна. Знание нельзя ничем заменить. Вопрос в том, как эти умения оцифровать. Как превратить опыт в какую-то осмысленную схему, которой можно было бы делиться с машиной.
Искусственный интеллект понимать не может
Можно ли превратить вычисления в понимание? Нет. Искусственный интеллект не обладает способностью генерировать внутри себя высокие абстракции и не может достигнуть уровня сложности, на котором из чисел возникали бы смыслы
Владимир Чувильдеев*, Валерия Левшунова**
В одном из мартовских номеров журнала «Эксперт» вышла статья под названием «Хакнуть человечество» — разговор с Сергеем Кареловым, экс-топ-менеджером международных ИT-компаний IBM, CGI, Cray, об искусственном интеллекте.
Интервью привлекло внимание громким и провокационным заголовком, заинтриговало перечислением невероятных возможностей и всевозможных опасностей «нового витка технологического прогресса», запутало нечеткостью основных терминов и формулировок, развлекло историями, находящимися на грани реальности и фантастики, приоткрыло секреты новой парадигмы противостояния мировых держав, и наконец, основательно измотав интервьюера и интервьюируемого, отпустило не просто озадаченного, а уже порядком напуганного читателя самостоятельно искать ответ на вопрос, победили нас уже роботы или все-таки еще нет.
Не соглашаясь с тезисом, что «человечество просто бредит прорывом в будущее, которое сулят технологии, скрывающиеся под единым брендом “искусственный интеллект”», но признавая актуальность темы, заметим, что человечество, скорее, поставлено перед фактом неизбежности такого прорыва. Оно замерло в ожидании, и мыслящая его часть пытается разобраться в том, что же, собственно, такое искусственный интеллект, что это за новая реальность, к которой нас так агрессивно принуждают стремиться, какие она открывает перспективы, каковы связанные с ней угрозы и ради какой высшей цели предлагается приветствовать столь кардинальные перемены в привычном нам мире.
Ключевой историей, на которой, собственно, и базировались предложенные читателю выводы о перспективах ИИ, стал рассказ о Debater — проекте IBM, целью которого было доказать, что понимание можно превратить в вычисления.
Человек и компьютер соревновались в дебатах на тему, которая заранее была им неизвестна. После пятнадцатиминутной подготовки каждый из них произнес свою речь. Затем было дано дополнительное время, и оппоненты выступили еще раз, опровергая аргументы противника и отстаивая собственные. Телевизионная аудитория выслушала эти выступления и проголосовала. Машина произнесла блестящую речь, составленную на основе анализа четырех миллиардов документов и подкрепленную цифрами и графиками. Но наибольшее число голосов получил человек — чемпион мира по дебатам: он опередил компьютер на семнадцать процентов голосов.
По словам Сергея Карелова, «то, что сделал Debater, — очень серьезный прорыв», потому что «у машины не было алгоритма понимания, но она поняла вопрос». Абсолютно корректно разделяя такие понятия, как «интеллект» (просто вычисления), «разум», «сознание», Карелов достаточно вольно, по нашему мнению, обращается со словом «понимание».
Вот этому ключевому моменту и будет посвящен наш разговор. Мы попробуем определить, справедливы ли громкие утверждения о том, что машина «поняла вопрос», «поняла аргументы человека» и что создателям Debater «удалось превратить понимание в вычисления».
Понимание и вычисления
Поставленная задача — разобраться в способности искусственного интеллекта понимать — требует, чтобы мы имели представление о том, что такое понимание и что такое искусственный интеллект. В психолингвистике понимание трактуется преимущественно как результат смыслового восприятия сообщения. Смыслового восприятия.
Что касается искусственного интеллекта, то, поскольку выбрать из множества его официальных определений единственно правильное не представляется возможным, последуем примеру Сергея Карелова и остановимся на определении, которое следует из самой первой задачи, поставленной перед разработчиками ИИ: «программа, которая по своим интеллектуальным способностям подобна человеку». (Ведь, откровенно говоря, в большей степени нас беспокоит именно это — возможность создания искусственного человека и «вытеснение» им в перспективе из этого мира человека обычного. Среди апокалиптических сценариев порабощение человека роботами занимает далеко не последнее место.)
Соответственно, можно просто и понятно сформулировать основной вопрос, связанный с ИИ: возможно ли создание компьютера, эквивалентного человеческому мозгу? И если мы вспомним, что компьютер — это вычислительная машина, предназначение которой заключается в выполнении арифметических действий: складывании и умножении целых чисел — и что именно эти действия являются самыми главными из всех реализуемых в нем процессов, тогда мы можем переформулировать основной вопрос следующим образом: возможно ли имитировать все процессы, происходящие в человеческом мозге, путем осуществления различных операций с целыми числами? Возможно ли сведение мышления вообще и понимания в частности к вычислительной задаче? То есть возможно ли осуществить «смысловое восприятие сообщения» посредством вычислений?
Интеллектуальные функции роботов моделируются на основе формальных математических моделей. В настоящее время «рассуждения» робота моделируются одной из разновидностей формальной логики, а система восприятия — нейронной сетью.
Система управления роботом, как бы сложно ни была она организована, с теоретической точки зрения — всего лишь некий алгоритм. Исходя из самых общих свойств формальных систем и алгоритмов, можно очертить границы (пределы), которых может достичь робот. Логические системы, используемые роботами, состоят из формального языка, правил вывода и аксиом. Границы возможностей логических формальных систем сформулированы в теореме Геделя, суть которой заключается в том, что невозможно исчерпывающе и конструктивно описать с помощью аксиом сколько-нибудь богатую модель мира. Это значит, что в мире, который даже теоретически не поддается конструктивному описанию, даже теоретически невозможно принятие решений на основе логического вывода.
У человека есть механизмы мышления, принципиально отличающиеся от детерминированного комбинаторнологического мышления. В мышлении человек свободен в своем выборе, и это не просто «случайный» выбор, а «непонимаемый» сегодняшней наукой человеческий — нелогический — выбор.
Пока сделаны только первые шаги к пониманию нелогического мышления человека. Один из оригинальных подходов — «образные схемы» Джонсона. Марк Джонсон сформулировал гипотезу, что базовые конструкции естественного языка отражают сенсорно-моторный опыт и понимаются через этот опыт. По его мнению, существует универсальный (для всех языков мира) пространственно-временной фрейм, который лежит в основе понимания каждого текста. Он ввел понятие образной схемы и предложил 27 образных схем. Джонсон считает, что весь наш жизненный опыт и понимание абстрактных построений соотносятся с образными схемами, а понимание речи и текста на них опирается. Они понимаются человеком непосредственно, в них воплощено наше ощущение тела и мира. Они не требуют понятийных объяснений.
Впечатляющий на первый взгляд рассказ о проекте Debater напоминает историю о роботизированном автомобиле «Стэнли», рассказанную в книге Дугласа Хофштадтера «Я — странная петля». Профессор Индианского университета, руководитель Центра по изучению творческих возможностей человеческого мозга, Хофштадтер — автор книг «Гедель, Эшер, Бах: эта бесконечная гирлянда» и «Глаз разума» (в соавторстве с Деном Деннетом) — один из самых разумных людей, занимающихся проблемами мышления и сознания. Человек, который не просто играет словами, а вкладывает в них смысл. «Стэнли», разработанный в начале 2000-х в лаборатории искусственного интеллекта в Стэнфорде, самостоятельно пересек пустыню Невада, полагаясь только на свои лазерные дальномеры, телевизионную камеру и GPS-навигатор. В интервью, которое состоялось после триумфального пересечения пустыни, один восторженный предприниматель, глава отдела исследований и разработок Intel (компания разработала программное обеспечение для бортового компьютера «Стэнли»), недвусмысленно заявил: «Deep Blue (шахматная машина компании IBM, которая выиграла у Гарри Каспарова в 1997 году. — Авт.) представляла собой всего лишь обрабатывающую мощность. Она не умела думать. А “Стэнли” умеет!»
Хофштадтер называет это утверждение неприкрытым и безыскусным обманом. Несмотря на то что умение «Стэнли» без аварий путешествовать по пустыне в самом деле поразительно, он сравнивает движение этого автомобиля с безошибочным движением муравья по следу из феромонов. Подобная самостоятельность роботизированного автомобиля — качество, очень далекое от мышления.
В музее «Эксплораториум» в СанФранциско в свое время была отгороженная площадка, где посетители могли наблюдать за красным световым пятном, танцующим на полу и на стенах. Когда кто-либо пытался дотронуться до этого пятна, оно отскакивало и уносилось прочь. Красное пятнышко танцевало так, что, казалось, дразнило гоняющихся за ним людей: иногда совсем останавливалось, будто насмехаясь, позволяя к себе приблизиться, но затем в самый последний момент ускользало. Световым пятном никто не управлял, там действовал самый простой механизм обратной связи. Но очень многим казалось, что это пятнышко — личность, которая своими действиями реализует и злое желание дразнить, и даже чувство юмора!
Наличие у системы обратной связи, даже самой простой, оказывает на людей сильное воздействие и вынуждает перепрыгивать с одного уровня описания этой системы на другой: с уровня, которому не присущи цели (там предметы двигаются под воздействием внешних физических «сил»), на целеориентированный уровень, на котором движущей силой является «желание». Эффективность же системы, которая обладает сложной и скрытой обратной связью, производит на нас такое впечатление, что мы начинаем говорить и даже мыслить с позиции антропоморфизма: «машина поняла вопрос».
Если провести аналогию между вычислительной мощностью Debater и мозгом человека (что, собственно, вынуждает нас сделать сама проблема, которую мы обсуждаем), то мы увидим, что основная (но скрытая) деятельность машины, заключающаяся в бесконечных арифметических действиях с числами, равноценна скрытой мыслительной активности мозга низкого уровня (термин из книги «Я — странная петля»), при которой неисчислимые нейротрансмиттеры как сумасшедшие прыгают через синаптические щели.
Но деятельность нашего разума этим не ограничивается, интуитивно мы это понимаем. И пока специалисты в области ИT утверждают, что «вычисления, производимые нейронной сетью, не имеют алгоритма», Хофштадтер предлагает остроумную модель функционирования нашего сознания. Эта модель не идеальна, она не дает ответов на все вопросы, связанные с разумом и мышлением, но сегодня это, пожалуй, лучшее, что есть.
Многоуровневый мозг
Согласно Хофштадтеру, мозг следует рассматривать как многоуровневую систему: самый нижний уровень — микроскопический уровень физических компонентов мозга (аминокислоты, нейротрансмиттеры, синапсы, дендриты, нейроны и т. д.), самый высокий — уровень неуловимых ментальных свойств, то есть уровень абстрактных макроскопических феноменов (концепции, идеи, стереотипы, аналогии, воспоминания, заблуждения, сравнения, симпатия, сопереживание).
Человек воспринимает все, что происходит вокруг него и с ним, не на уровне элементарных частиц, а на уровне абстрактных высокоуровневых концепций. Мы оставляем процессы микроуровня за пределами нашего внимания, несмотря на то что на самом деле именно они являются двигателями реальной жизни, взаимодействие физических компонентов мозга становится для нас просто размытым фоном, и мы фокусируемся на абсолютно невидимых абстрактных высокоуровневых объектах — абстрактных паттернах (в книге Хофштадтера — «символах»), которые представляют собой символическую интерпретацию всех входящих сигналов, получаемых из окружающего мира нашей нервной системой.
Как это работает? Рассмотрим такой пример: мириады микроскопических обонятельных реакций в ноздрях прибывшего в зал ожидания аэропорта путешественника могут привести (в зависимости от его прошлого опыта, а также от того, голоден он или нет) к активированию двух приятных паттернов, закрепленных в его мозге, «сладкий» и «запах», или паттернов «Шоколадница» и «лишний вес», паттернов «реклама», «подсознательный», «хитрый» и «трюк», или возможен запуск всех упомянутых паттернов в той или иной последовательности. Каждый из этих примеров активирующихся паттернов иллюстрирует акт восприятия в противоположность простому приему гигантского числа микроскопических сигналов, поступающих из некоторого источника.
Это упрощенный механизм восприятия, в реальности процесс происходит одновременно по двум направлениям. Сигналы не распространяются исключительно в одну сторону — из внешней среды к внутренним паттернам, на самом деле определенные внутренние паттерны, осуществляя прием внешних данных, одновременно генерируют собственные внутренние сигналы. То есть имеет место взаимодействие между сигналами, принятыми из внешней среды, и сигналами, генерированными внутри системы, а результатом этого взаимодействия является замыкание цепи, соединяющей входящие сигналы с их символической интерпретацией. Наличие нескольких способов поступления сигналов в мозг делает восприятие по-настоящему комплексным явлением. Таким образом, мы можем сказать: процесс восприятия заключается в том, что стремительный поток сигналов, обрушивающихся на мозг по двум направлениям, инициирует запуск небольшой части внутренних паттернов, или, другими словами, активирует некоторое количество абстрактных концепций высокого уровня.
Мы игнорируем процессы микроуровня, и именно абстрактные концепции составляют основу нашего мировосприятия. Вот на этом (и только на этом) высоком уровне абстрактных паттернов и появляются смыслы. И именно в этой способности воспринимать (выделять самое главное, интерпретировать и формировать таким образом смыслы), а не просто принимать информацию, и заключается отличие человеческого мозга от любой другой системы, обладающей обратной связью. Для лучшего понимания воспользуемся такой аналогией: когда мы смотрим телевизор, мы видим мириады пикселей, мелькающих в строго синхронизированном порядке. Мы наблюдаем точки, которые «кодируют» те или иные события, происходящие на экране, и мы с легкостью этот код расшифровываем. Точки превращаются для нас в целостное изображение, мы интерпретируем, и изображение приобретает высокоуровневый смысл: Джеймс Бонд побеждает своих врагов. А что «увидит», к примеру, видеокамера (система с обратной связью), если направить ее на телевизионный экран? Пиксели. Только пиксели в сыром виде, без интерпретации, а значит, без значений и смыслов.
Что же нужно для того, чтобы система осуществляла не просто прием информации, а ее восприятие? Системе необходим богатый, постоянно и, главное, самопроизвольно расширяющийся репертуар абстрактных паттернов. А машина, независимо от ее сложности, не обладает способностью беспредельно генерировать и накапливать абстрактные категории (которые служат основой последующей символической интерпретации), в ее вычислительной мощности не развиваются паттерны, и поэтому машина, как верно заметил Сергей Карелов, ничего не воспринимает. Ни одна стадия сложения и умножения целых чисел (ни одна стадия того, чем занят компьютер) не включает процесс генерации паттернов, и, следовательно, способность к «смысловому восприятию сообщения», то есть способность понимать, у Debater отсутствует.
Еще раз. Система обратной связи Debater не считает сказанное его оппонентом верным или неверным, потому что в отсутствие высокоуровневых паттернов машина не может интерпретировать и понимать — и, соответственно, не понимает! Машина вычисляет, а понимает человек, она только перебирает варианты по написанному человеком алгоритму. Без человека она просто калькулятор. Очень мощный, поражающий способностью к имитации, достигнутой благодаря невероятной скорости вычислений, но все же калькулятор, действующий строго в рамках заданной программы.
Карелов допускает еще одну лингвистическую небрежность, утверждая, что машина «шутит, приводит контраргументы и издевается над человеком, показывая, насколько тот далек от истины», то есть приписывая машине способность испытывать желания и в соответствии с ними ставить себе цели, задачи и стремиться к их выполнению.
Целеполагание и вычисления
Следуя той же логике, что и в случае с «пониманием»попробуем теперь разобраться, можно ли свести целеполагание к вычислениям. Мозг человека, как уже было сказано, непрерывно принимает информацию двух типов: сигналы, поступающие из внешней среды, и сигналы, сгенерированные внутри системы. Если с сигналами, которые поступают из внешней среды, все, в общем, понятно (органы чувств человека непрерывно передают мозгу информацию об окружающей обстановке, иначе не выжить), то вопрос о том, что происходит внутри системы, требует более подробного рассмотрения.
Принято разделять «разум» и «эмоции» как независимые и постоянно соперничающие за влияние на человека и его поступки движущие силы. Однако в реальности все устроено иначе. Мозг существует и функционирует не автономно, а в непрерывном взаимодействии со всеми системами нашего организма. Эмоции (радость, грусть, обида, страх, отвращение и т. д.) — это высокоуровневые концепции, которые возникают в нем как реакция на сигналы, посылаемые гормональной системой. С самого первого дня нашей жизни системы нейронов анализируют, запоминают и накапливают информацию о связях событие — эмоция, и при повторении той или иной ситуации они на основе прежнего опыта предсказывают, какую эмоцию вы испытаете — приятную или негативную. В случае негативного прогноза мозг принимает решение избежать такой ситуации, а если есть перспектива повторения положительной эмоции, мозг к ней стремится. То есть эмоция — это посылаемый в мозг сигнал, на основе которого принимается решение о том, что делать дальше.
Таким образом, на уровне взаимодействия мозга и гормональной системы у человека формируются желания, стремления и цели. Вы можете мне возразить, что если с примитивными целями, такими как утоление голода и жажды, в принципе все понятно, то такие стремления как, например, познать истину или творить добро, никак не укладываются в эту физиологичную концепцию. Укладываются. Гормоны регулируют абсолютно все, они посылают в мозг отклик в виде эмоции абсолютно на любую ситуацию; что бы вы ни сделали, вы тут же получаете награду в виде положительной эмоции или наказание в виде отрицательной. Причем положительные эмоции человек испытывает как от достижения самых простых целей, которые находятся в основании пирамиды Маслоу, так и от удовлетворения самых сложных потребностей, расположенных вблизи ее вершины — познавательных, эстетических, а также потребностей в самореализации. Если однажды человек испытал положительные эмоции от того, что добился в чем-то успеха, мозг будет стремиться вновь испытать эти зафиксированные ранее эмоции. Так рождаются желания, так появляются цели.
Очевидно, что ответственные за желания и стремления эмоции (и, разумеется, гормоны) у машины отсутствуют, поэтому ничего захотеть она не может и, соответственно, ее вычислительная мощность поставить ей цель не способна. Точно так же компьютер не может принимать решения (несмотря на то, что об этом много говорит Сергей Карелов). Просто потому, что принятие решения предполагает наличие исходной цели. Он может перебрать возможные варианты и выбрать оптимальный исходя из цели, заложенной в программе, но говорить, что машина приняла решение, означает подменять понятия, машина лишь инструмент, цель ставит человек, а следовательно, и решение принимает человек.
Система обратной связи, локализованная внутри вычислительной машины «Стэнли», провела его по длинной пыльной дороге, усеянной выбоинами и гигантскими кактусами. Понимал ли «Стэнли» свою цель, осознавал ли свои действия, имел ли четко сформированное отношение к другим транспортным средствам? Понимают ли свои задачи другие системы с обратной связью, например термометр или механизм теплового наведения реактивного снаряда? Разумеется нет.
Понимал ли Debater цель своего участия в дискуссии, осознавал ли, что «шутит, приводит контраргументы и издевается над человеком, показывая, насколько тот далек от истины»? Или просто его вычислительные мощности совершали арифметические действия настолько быстро, что имитация мыслительного процесса человека выглядела практически совершенной? Думаем, ответ очевиден.
Итак, чего же недостает на сегодняшний день искусственному интеллекту для того, чтобы он мог по своим возможностям приблизиться к человеческому разуму? Во-первых, он не обладает способностью самопроизвольно и беспредельно генерировать внутри себя высокие абстракции, то есть не может достигнуть уровня сложности, на котором из чисел возникали бы смыслы. Во-вторых, искусственному интеллекту недостает неразрывно связанной с ним живой системы со всеми присущими живым системам химическими и биохимическими процессами, которые обусловливают появление желаний, целей, идей и т. д. — всего того, что делает человека человеком.
Новое знание
Теперь можно поговорить о проблеме «нового знания», то есть о возможности генерирования нового знания искусственным интеллектом. В статье в качестве примера приводится возможность машины быстрее и качественнее человека диагностировать рак. Компьютер за короткое время анализирует огромное количество снимков и выносит верный диагноз. Является ли это «новым знанием»? Да, компьютер, следуя заданному алгоритму, выполнил поставленную человеком задачу и выдал результат — «новое знание». Может ли машина создавать «новое»? Да, без сомнения. Может ли создавать «иное» (выходящее за рамки алгоритма, предоставленного человеком)? Нет, не может. Машина не может поставить себе цель и задачу, не заложенную в нее разработчиком. А если ее запрограммировать на придумывание новой цели? Ей понадобится алгоритм постановки целей, созданный человеком, но тогда ее действия уже не будут относиться к категории «создание иного».
Предстоит пройти еще очень длинный путь, прежде чем мы приблизимся к созданию искусственного аналога человеческого разума. На сегодня у нас есть искусственный интеллект (только часть разума, его низкоуровневый компонент) — вычислительная мощность, инструмент для решения информационных задач. О том, что роботы могут взбунтоваться против человека, можно не беспокоиться: поскольку они не обладают эмоциями (не испытывают обиды, чувства несправедливости, жажды мести или жажды власти), у них не возникнет желания объявить нам войну, они не смогут поставить себе цель победить человечество. Разумеется, ИИ может представлять определенную опасность, но не сам по себе, а как мощное оружие в руках человека. Подводя итоги, человечество могут хакнуть не роботы, человечество могут хакнуть те, кто пишет алгоритмы для роботов, кто задает им цели, задачи, указывает пути и методы реализации.
*Доктор физико-математических наук, профессор, директор Научно-исследовательского физико-технического института (НИФТИ) Нижегородского государственного университета (ННГУ) имени Н. И. Лобачевского.
**Кандидат технических наук, начальник Научно-организационного отдела НИФТИ ННГУ имени Н. И. Лобачевского.