Искусственный интеллект как объект
Перейти к содержимому

Искусственный интеллект как объект

  • автор:

К вопросу о наличии авторских прав у искусственного интеллекта

На современном этапе развития общества становится все более популярным внедрение искусственного интеллекта (далее – «ИИ») во все сферы жизнедеятельности человека. Мы можем узнать прогноз погоды, вероятность наступления какого-либо события и даже послушать песню, написанную искусственным интеллектом. Деятельность искусственного интеллекта начинает носить творческий характер, который ранее был присущ только человеку. Данные технологии применяются в спорте, культуре, финансах, бизнесе, торговле, медицине и во многих других отраслях. Например, в юриспруденции искусственный интеллект используется в предиктивной аналитике. Искусственный интеллект анализирует информацию, извлекаемую из наборов имеющихся данных, которые постоянно обновляются, определяет закономерности, прогнозирует будущие результаты и тем самым предсказывает судебные решения.

На сегодняшний день искусственный интеллект может создать объект авторских прав, который пользуется правовой защитой. Однако ответ на вопрос о том, кто является автором произведения – искусственный интеллект или человек, остается невыясненным. В большинстве стран за произведением, разработанным искусственным интеллектом, авторские права признаются за разработчиком – создателем этого искусственного интеллекта. В ряде стран есть прецеденты, когда по решению суда искусственный интеллект наделяется некоторым объемом авторских прав. Примером этого является решение Народного суда округа Наньшань, Шэньчжэнь, провинция Гуандун, (2019) Юэ 0305 Мин Чу №14010 Гражданское решение от 25 ноября 2019 г. о признании авторских прав у искусственного интеллекта. Однако не всегда суды встают на сторону признания авторских прав за искусственным интеллектом. Примером такого поведения суда является решение австралийского суда по делу IceTV Pty Limited v Nine Network Australia Pty Limited HCA 14 (22 April 2009) об отказе в защите авторских прав искусственного интеллекта. Также есть концепции относительно правового регулирования произведений, созданных искусственным интеллектом. Например, П.М. Морхат разработал идею 6 возможных вариантов регулирования произведений, созданных искусственным интеллектом. Это позволяет проанализировать в данной работе возможность сделать искусственный интеллект полноправным участником правоотношений в области авторских прав на данном этапе развития общества.

Целью работы является рассмотрение существующих концепций и действующих нормативных правовых актов, судебной практики, применяемых в Российской Федерации и зарубежных странах, в сфере регулирования авторских прав искусственного интеллекта, а также возможность внедрения нового субъекта авторских прав – искусственного интеллекта – в российское законодательство.

При написании работы использовалось несколько методов научного исследования: анализ, сравнение, синтез. Анализ как метод научного исследования использовался при рассмотрении российских нормативах актов в сфере регулирования искусственного интеллекта и авторских прав. Сравнительный метод применялся при сопоставлении правового регулирования искусственного интеллекта в сфере авторских прав в России и зарубежных странах. Синтез в качестве метода использовался при составлении таблицы возможного положения искусственного интеллекта при создании объектов авторских прав.

Дискуссия об искусственном интеллекте, в частности в средствах массовой информации, часто выглядит как спор между пессимистами, которые рассматривают искусственный интеллект как инструмент разрушения, и оптимистами, которые рассматривают искусственный интеллект как инструмент спасения. Обе группы сходятся во мнении, что технологии искусственного интеллекта являются мощным инструментом, который будет иметь значительные последствия во многих областях. Однако признание искусственного интеллекта в качестве субъекта правовых отношений будет иметь определенные последствия, на которые человек не сможет повлиять. Определение понятия «искусственный интеллект» является далеко не новым. Еще в 1956 г. на научном семинаре в Дартмутском университете (Соединенные Штаты Америки) данное понятие было сформулировано американским ученым в области информатики, лауреатом премии Тьюринга Д. Маккарти. Под искусственным интеллектом ученый понимал свойство роботов, компьютерных программ и систем выполнять интеллектуальные и творческие функции человека, самостоятельно находить способы решения задач, уметь делать выводы и принимать решения. Это определение является достаточно прогрессивным, так как искусственный интеллект, по мнению автора, наделяется всеми чертами интеллектуальной и творческой деятельности человека. Следовательно, если искусственный интеллект наделен способностью к творческой деятельности, значит он может создать объект авторских прав, который должен подлежать правовой охране наравне с произведением, созданным человеком.

В 2019 г. Международная ассоциация по защите интеллектуальной собственности провела опрос среди своих членов. Вопрос заключался в следующем: надо ли защищать произведения, созданные с помощью искусственного интеллекта? Полученные ответы выявили различные подходы в научном сообществе к этой теме. Часть респондентов предположила, что работы, созданные с помощью искусственного интеллекта, могут быть защищены авторскими правами на 25 лет. Этот срок равен сроку признания инвестиций разработчиков искусственного интеллекта в эту технологию. Другая часть респондентов утверждала, что защите авторскими правами подлежат объекты, созданные исключительно человеком. В настоящее время этот вопрос больше находится в теоретической плоскости, однако в ближайшем будущем могут потребоваться практические решения для определения авторства работ и обеспечения правильного применения типа защиты.

В современной России пока отсутствуют специальные законодательные акты, которые регулировали бы авторские права искусственного интеллекта. Однако нельзя говорить о том, что искусственный интеллект полностью находится вне рамок правового поля Российской Федерации. В Указе Президента Российской Федерации от 10 октября 2019 г. № 490 (далее – «Указ № 490») сформированы задачи развития искусственного интеллекта (Указ Президента Российской Федерации от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации», далее – Указ № 490). К одной из таких задач относится создание комплексной системы регулирования общественных отношений, возникающих в связи с развитием и использованием технологий искусственного интеллекта. Само определение понятия «искусственный интеллект» представлено в Указе № 490 и Федеральном законе от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных» от 24 апреля 2020 г. № 123-ФЗ, под искусственным интеллектом понимается комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. В Распоряжении Правительства Российской Федерации от 19 августа 2020 г. № 2120-р «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.» указано, что одной из основных проблем в правовом регулировании является правовой режим результатов интеллектуальной деятельности, созданных с использованием систем искусственного интеллекта. Автором произведения в соответствии с Гражданским кодексом является гражданин, творческим трудом которого создано произведение. Также в Постановление Пленума Верховного Суда Российской Федерации от 23 апреля 2019 г. № 10 «О применении части четвертой Гражданского кодекса Российской Федерации» указано, что творческий характер создания произведения не зависит от того, создано произведение автором собственноручно или с использованием технических средств. Таким образом, искусственный интеллект пока не наделяется авторскими правами в России. Исходя из норм российского права, искусственный интеллект рассматривают в качестве инструмента при создании объекта авторских прав. Однако теоретики права представляют отличный от законодательства взгляд, направленный на внедрение искусственного интеллекта в авторские правоотношения. Научным сообществом разработаны некоторые концепции, которые различно классифицируют правовое положение искусственного интеллекта при создании объекта авторских прав. Например, П.М. Морхат выделяет 6 возможных вариантов правового регулирования произведений, созданных искусственным интеллектом:

  • машиноцентрический концепт (искусственный интеллект выступает в качестве автора, созданного произведения);
  • концепт гибридного авторства (искусственный интеллект создает произведение в соавторстве с человеком);
  • концепт служебного произведения (искусственный интеллект создает объект авторских прав, который является служебным произведением. В таком случае искусственный интеллект выступает в качестве наемного работника);
  • антропоцентрический концепт (искусственный интеллект не обладает никакими правами, он выступает в качестве инструмента, используемого человеком);
  • концепт «исчезающего» (нулевого) авторства;
  • контаминационный концепт, отражающий особо сложные ситуации интерсекциональности (пересекаемости) вышеуказанных концептов (разное сочетание и влияние искусственного интеллекта на создание объектов, охраняемых авторскими правами) [4].

Другим примером является классификация искусственного интеллекта по творческому потенциалу. Так, искусственный интеллект может иметь влияние на объект авторских прав:

  • слабое влияние на финальный результат (искусственный интеллект выступает в качестве авторедактора, исправляет стилистические ошибки. Влияние на содержание работы отсутствует);
  • выступать в качестве инструмента (искусственный интеллект редактирует изображения, тексты, при этом творческий потенциал искусственного интеллекта ограничен информацией, которая введена для анализа и обучения);
  • финальный результат непредсказуем (самостоятельность искусственного интеллекта при создании произведения). Исходя из этой концепции, искусственный интеллект будет обладать авторскими правами только в последнем случае, так как самостоятельность творческой деятельности проявляется в отсутствии зависимости искусственного интеллекта от человека.

Ряд исследователей высказывают мнение о том, что объект, созданный искусственным интеллектом, не подлежит правовой охране, так как автором охраняемого объекта может быть только человек. Решение данного вопроса представляется авторами в признании искусственного интеллекта субъектом права. В то же время у него отсутствуют основополагающие черты субъекта права: воля, волеизъявление и интерес. Действительно, выход с признанием искусственного интеллекта субъектом права мог бы минимизировать возникающие вопросы о принадлежности авторских прав. Однако сейчас в нормативных правовых актах и решениях органов, уполномоченных рассматривать вопросы, затрагивающие авторские права, превалирует человекоцентрический подход.

В 2022 году Бюро авторского права Соединенных Штатов Америки вынесло апелляционное решение, в котором указывалось, что авторство человека является необходимым условием для защиты авторских прав. Подчеркивается связь между человеческим разумом и творческим самовыражением в качестве предпосылки для защиты авторских прав. Зарубежные исследователи отмечают, что признание авторских прав за искусственным интеллектом зависит от уровня вовлеченности человека-разработчика в процесс создания объекта авторских прав. Например, Анна Рамальо считает, что на произведения, созданные искусственным интеллектом, можно распространить правовой режим общественного достояния. Исследователь рассуждает, что если в создании оригинального произведения достаточно человеческого вклада, то защита авторских прав будет доступна, по крайней мере, для созданной человеком части произведения. Однако автор не исключает, что могут быть случаи, когда вклад человека и машины нелегко разделить или оценить. В данном аспекте нельзя не согласиться с исследователем. Ответ на вопрос о том, как отследить вклад при создании произведения автора – искусственного интеллекта и автора – разработчика искусственного интеллекта, не представляется возможным. Не стоит отказываться от идеи личной заинтересованности человека при создании объекта авторских прав, который может быть в будущем коммерциализирован.

Несмотря на все правовые трудности и пробелы в законодательстве мировая общественность идет по пути внедрения искусственного интеллекта в систему субъектов авторских прав. Об этом, например, свидетельствует ранее упомянутое решение Народного суда округа Наньшань, Шэньчжэнь, провинция Гуандун, (2019) Юэ 0305 Мин Чу №14010 Гражданское решение от 25 ноября 2019 г. В данном деле основной вопрос ставился о возможности или невозможности защиты произведений, созданных искусственным интеллектом, авторскими правами. Истцом являлась компания Shenzen Tencent Computer System Co., Ltd, ответчиком – Shanghai Yingxun Technology Co., Ltd. Dreamwriter – программное обеспечение истца. В августе 2018 Dreamwriter автоматически создал статью, посвященную Шанхайскому фондовому индексу. Истец использовал программное обеспечение Dreamwriter для сбора и анализа текстовой структуры финансовых статей о фондовом рынке. Программа сформировала структуру статьи в соответствии с пожеланиями истца. Искусственный интеллект использовал собранные данные фондового рынка для завершения написания и публикации через 2 минуты после закрытия фондового рынка. Ответчик, в свою очередь, опубликовал статью с таким же названием, содержанием и примечаниями. Народный суд округа Наньшань установил, что в соответствии со ст. 2-3 Имплементирующего регламента Закона об авторском праве произведение относится к интеллектуальным достижениям в таких областях, как литература, искусство и наука, которые обладают оригинальностью и могут быть зафиксированы в определенных формах. Суд также установил, что организация и выбор входных данных, шаблона и стиля являлось командой человека-разработчика Dreamwriter, искусственный интеллект автоматически сгенерировал статью, и в этом процессе человек не принимал участие. Статья была результатом того, что компьютерная программа выполняла установленные правила, алгоритмы и шаблоны. Суд постановил, что создание статьи и форма ее выражения зависит от выбранных команд разработчика. Статья защищается авторскими правами как письменное произведение. Мотивировка суда заключалась в следующем: для обычных работ автор принимает решение о том, как творить произведение, в какой форме, в работе с участием искусственного интеллекта автор решает, как создавать произведение, разрабатывает программное обеспечение Dreamwriter и только потом создает произведение. Из этого следует, что творческий процесс и процесс создания не синхронизированы. Суд указал, что произведение Dreamwriter является оригинальным, сформированным в результате деятельности человека. Учитывая данное решение Народного суда округа Наньшань, можно сделать вывод, что современное общество не готово признать авторские права за искусственным интеллектом, но отрицать возможность в ближайшем будущем признание авторских прав исключительно за искусственным интеллектом представляется достаточно реалистичным. Пока можно говорить лишь о том, что искусственный интеллект выступает инструментом, которым пользуется человек для создания произведения, защищаемого авторскими правами.

Другой страной, рассмотревшей спор о наличии авторских прав у искусственного интеллекта, являлась Австралия. Суд отказался защищать авторские права искусственного интеллекта. В соответствии с австралийским Законом об авторском праве № 63, 1968 г. (Copyright Act 1968) (далее – «Закон 1968 г.») есть ряд требований к произведению, необходимых для осуществления охраны авторских прав. Во-первых, произведение должно быть оригинальным; во-вторых – исходить от автора; в-третьих, оно должно быть выражено в материальной форме; в-четвертых – связано с австралийской юрисдикцией. Под автором понимается исключительно человек. Такой антропоцентрический подход находит отражения во множестве статей Закона 1968 г., например, Part II – Interpretation, автор фотографии – человек, сделавший фотографию. Другим примером является ст. 33 ч. 3 Закона 1968 г. («Part III – Copyright in original literary, dramatic, musical and artistic works»): авторские права, действующее на литературное, драматическое, музыкальное или художественное произведение, в силу этой части продолжат действовать до истечения 70 лет после окончания календарного года, в котором умер автор произведения. Как мы можем заметить, основное внимание в данном Законе сосредоточено на человеке как субъекте авторских прав. Судебная практика также направлена на возможность исключительной принадлежности авторских прав человеку. Так, в судебном решении по делу IceTV Pty Limited v Nine Network Australia Pty Limited HCA 14 (22 April 2009) указано, что оригинальность произведения требует, чтобы литературное произведение было создано автором и чтобы оно не было просто скопировано с другого произведения. Оригинальность означает, что создание произведения потребовало некоторых независимых интеллектуальных усилий, но не новизны или изобретательности, как того требует патентное право. Данное решение стало вновь актуальным в связи с созданием в 2020 г. австралийской группой песни при помощи искусственного интеллекта. Однако, исходя из практики, в данном случае автором также будет признан человек, так как компьютер все же используется в качестве инструмента. Текст песен создавался путем ввода первых фраз известных песен, искусственный интеллект предлагал несколько фраз продолжений, которые затем опять выбирал человек и сводил в единую песню. Таким образом, говорить о полной творческой независимости искусственного интеллекта пока рано. Несмотря на это процесс такого создания объектов авторских прав приобретает черты создания литературных, музыкальных, художественных произведений человеком; когда приходит вдохновение от услышанных, прочитанных, увиденных произведений других авторов, создание собственного произведения и редактирование экспертом.

Одной из самых прогрессивных стран в сфере правового регулирования вопросов искусственного интеллекта является Великобритания. В отличие от большинства стран мира, в Великобритании, произведения, созданные компьютером, подлежат защите. Закон об авторском праве, дизайне и патентах 1988 г. (далее – Закон 1988 г.) определяет автора произведения как «лицо, которым предпринимаются меры, необходимые для создания произведения». Защита авторских прав действует 50 лет с даты создания работы. Этот Закон 1988 г. был специально разработан, чтобы охватывать нечто большее, чем просто защиту работ, созданных с использованием искусственного интеллекта в качестве «умного карандаша». Однако законодательство Великобритании эволюционировало, изменился подход к пониманию оригинальности. В 1988 году, когда был принят Закон, особенность означала, что произведение должно быть результатом «мастерства, труда или суждения» его автора. Подход, который действует сегодня, заключается в том, что произведение должно быть «собственным интеллектуальным творением автора». Это означает, что произведение должно быть результатом свободного и творческого выбора автора и демонстрировать его собственный подход. Так, в правовой системе Великобритании существует пробел из-за неясности применения концепции оригинальности к работам искусственного интеллекта.

Другой страной, которая встала на путь признания авторских прав за искусственным интеллектом, является Новая Зеландия. В законе об авторских правах 1994 г. под автором понимается лицо, которое в случае создания литературного, драматического, музыкального или художественного произведения, сгенерированного компьютером, предпринимались меры, необходимые для создания произведения. Сгенерированное компьютером произведение является таковым, если автором объекта авторских прав не является человек. Несмотря на то что в Новой Зеландии законодательно обеспечена защита авторских прав искусственного интеллекта, происходит постоянное законодательное усовершенствование в данной области. Одним из пробелов в законодательстве является ответственность искусственного интеллекта при создании произведения перед третьими лицами. Этот вопрос может быть решен в двух плоскостях: ответственность-разработчика и ответственность самого искусственного интеллекта. В текущий момент наделение искусственного интеллекта возможностью нести ответственность за совершенные правонарушения невозможна. У данной технологии только есть определенные, достаточно ограниченные и свойственные небольшому ряду стран, права в сфере авторских прав. Однако обязанностей пока нет, а следовательно, и ответственности за нарушение этих обязанностей быть не может. Нарушить права другой стороны или третьих лиц искусственный интеллект может, но здесь возникает вопрос о наличии правоспособности и дееспособности, деликтоспособности. Все эти вопросы еще предстоит разрешить научному сообществу, законодателям и правоприменителям.

Если исходить из практической точки зрения на вопрос появления авторских прав у искусственного интеллекта, то можно сказать, что для дальнейших инвестиций в развитие технологий искусственного интеллекта, признание авторских прав было бы предпочтительным. Однако если рассматривать вопрос с теоретической точки зрения, то искусственному интеллекту не нужны авторские права. Искусственный интеллект не будет получать гонорар и самовыражаться, система будет генерировать контент вне зависимости от наличия или отсутствия авторских прав. Этот контент будет генерироваться только после того, как человек даст программную команду действовать, то есть искусственный интеллект не самостоятельно примет решение о создании произведения. Однако такой подход относится к современному развитию технологий, возможно, в будущем искусственный интеллект станет полностью автономным.

Подведем некоторые итоги.

В данной статье были рассмотрены вопросы, касающиеся возможности внедрения авторских прав у искусственного интеллекта. Был проведен анализ правового регулирование в области авторских прав в России, США, Китае, Австралии, Великобритании, Новой Зеландии.

Из представленного анализа можно сделать вывод, что российская система права не имеет надлежащей правовой базы, регулирующей вопросы внедрения искусственного интеллекта в качестве субъекта авторских прав. В нормативно-правовых актах России определено, что авторские права состоят из двух больших групп прав, первая из которых относится к личным неимущественным (право авторства, право на имя, право на отзыв и т.д.) и вторая группа относится к имущественным правам (право воспроизводить, право распространять и т.д.). Личные неимущественные права в своем название уже содержат довольно дискуссионный вопрос. Если искусственный интеллект будет признан субъектом авторских прав, то он, следовательно, является личностью. Исходя из норм российского законодателя личность – это человек. Такие положения и официальный подход не дают возможность наделить искусственный интеллект личными неимущественными правами. Вторая группа авторских прав – имущественные права – наделение ими искусственного интеллекта ведет к следующему актуальному вопросу. Имущественные права возникают по поводу вещных и обязательственных прав. Обязательственные права возникают при заключении договоров. Этот процесс связан с правоспособностью и дееспособностью, а также ответственностью за неисполнение обязательств. Ключевое требование к договору любого типа является его исполнение и соблюдение. И если в случае с ограниченно дееспособными и недееспособными от их имени могут выступать законные представители, то кто будет являться законным представителем искусственного интеллекта? Разработчик, правообладатель самого искусственного интеллекта или сам искусственный интеллект станет субъектом права. Если произведения искусственного интеллекта не будут являться объектами охраны авторских прав, то такой подход ставит под сомнение всю систему внедрения искусственного интеллекта в повседневную жизнь общества.

Для того чтобы правовое положение искусственного интеллекта стало более понятным и урегулированным, законодателю нужно будет решить вопрос о том, в каком качестве искусственный интеллект будет принимать участие в правоотношениях, связанных с авторскими правами. Можно выделить четыре варианта, в которых искусственный интеллект становится вовлеченным в создание объекта авторских прав (таблица № 1).

Таблица № 1. Положение искусственного интеллекта при создании объекта авторских прав

Регулирование Характеристика влияния искусственного интеллекта
Автор Влияние искусственного интеллекта на конечный результат интеллектуальной деятельности очень большое. Человек не принимает участия в создании, полная автономность в творческом процессе. Возможно лишь при развитии «сильного» интеллекта, независимого от человека. Наделение искусственного интеллекта авторскими правами.
Соавтор Искусственный интеллект выступает наравне с человеком. Возможно лишь при развитии «сильного» искусственного интеллекта, независимого от человека. У субъектов должно быть волеизъявление, юридическая возможность вступать в заключение договоров и делать публичные заявления. Наделение искусственного интеллекта авторскими правами.
Общественная собственность произведений Полное отсутствие субъективных прав у искусственного интеллекта, универсальный доступ к объекту авторских прав. Каждый может бесплатно использовать такое произведение.
Инструмент для создания объекта авторских прав Влияние искусственного интеллекта на процесс создания произведения отсутствует. Только человек является автором результата интеллектуальной деятельности.

Последний из предложенных вариантов не является дискуссионным, так как в данном случае искусственный интеллект ничем не отличается от пианино для музыканта, фотоаппарата для фотографа или мольберта для художника. На данном этапе в России искусственный интеллект выступает в качестве инструмента для создания объекта авторских прав. Если искусственный интеллект будет рассматриваться в качестве соавтора, то в каких пределах должен быть творческий характер искусственного интеллекта? Сейчас в российском законодательстве установлено, что соавторство на неразрывное произведение подтверждается волеизъявлением соавторов, выраженным в договорах о передаче прав, публичных заявлениях и т. п. (Постановление Пленума Верховного Суда Российской Федерации от 23 апреля 2019 г. № 10 «О применении части четвертой Гражданского кодекса Российской Федерации»). При действующем объяснении соавторства искусственный интеллект не сможет в ближайшее время стать субъектом авторских прав. У искусственного интеллекта отсутствует волеизъявление. Для того чтобы это стало возможным, нужно достижение искусственным интеллектом человеческого уровня. Технические науки идут по пути создания «сильного» искусственного интеллекта, уровень развития которого не будет отличаться от человеческого. Возможен вариант распространения правового режима общественной собственности на произведения, созданные искусственным интеллектом. Однако при этом варианте распространение произведений не должно быть бесплатным. Распространитель должен наравне с публикатором, издателем получать вознаграждение.

Д. Маккарти писал: «Некоторые люди думают, что интеллекта человеческого уровня можно достичь, написав большое количество программ, подобных тем, которые люди пишут сейчас, и собрав обширные базы знаний фактов на языках, которые сейчас используются для выражения знаний. Однако большинство исследователей ИИ считают, что требуются новые фундаментальные идеи, и поэтому невозможно предсказать, когда будет достигнут интеллект человеческого уровня». Однозначно говорить о возможности наделения искусственного интеллекта авторскими правами пока рано. В век всемирной цифровизации автономность искусственного интеллекта обязательно настанет, однако пока зависимость искусственного интеллекта от человека четко прослеживается. Вопросы защиты авторских прав искусственного интеллекта еще будут актуальными долгие годы, так как развитие технологий не стоит на месте. Авторские права у субъекта возникают вне зависимости от правоспособности и дееспособности. Однако если общество стремится сделать искусственный интеллект полноправным участником, то для дальнейшего введения в гражданский оборот нового субъекта права должно пройти ряд этапов, включающих рассмотрение вопросов о правоспособности и дееспособности искусственного интеллекта, ответственность за вред, причиненный искусственным интеллектом и ряд других существенных правовых категорий.

Анастасия Васильева,
магистрант Высшей школы юриспруденции и судебно-технической экспертизы Санкт-Петербургского политехнического университета Петра Великого

Будущее искусственного интеллекта: объект или субъект права? Текст научной статьи по специальности «Право»

Аннотация научной статьи по праву, автор научной работы — Ирина Анатольевна Филипова, Вадим Дмитриевич Коротеев

Цель: выявление проблем, связанных с правовым регулированием общественных отношений, в которых используются системы искусственного интеллекта , и рациональное осмысление обсуждаемой правоведами возможности наделения таких систем статусом субъекта права . Методы: методологической основой исследования являются общенаучные методы анализа и синтеза, аналогии, абстрагирования и классификации. Среди преимущественно применяемых в работе юридических методов – формально-юридический, сравнительно-правовой и системно-структурный, а также методы толкования права и правового моделирования. Результаты: представлен обзор состояния развития искусственного интеллекта и его внедрения на практике ко времени проведения исследования. Рассмотрено нормативно-правовое регулирование в данной области и разобраны основные из существующих концепций наделения искусственного интеллекта правосубъектностью (индивидуальная, коллективная и градиентная правосубъектность искусственного интеллекта ). При этом дана оценка каждого из подходов и сделаны выводы о наиболее предпочтительных вариантах внесения изменений в действующее законодательство, которое перестает соответствовать реалиям. Растущее несоответствие связано с ускоряющимся развитием искусственного интеллекта и его распространением в различных секторах экономики, социальной сферы, а в ближайшей перспективе и в государственном управлении. Все это свидетель­ствует о повышении риска разрыва правовой материи с изменяющейся социальной реальностью. Научная новизна: классифицированы научные подходы к наделению искусственного интеллекта правосубъектностью . В рамках каждого из подходов выделены ключевые моменты, использование которых позволит в дальнейшем создавать правовые конструкции на основе комбинирования, уходя от крайностей и соблюдая баланс интересов всех сторон. Оптимальным вариантом определения правового статуса искусственного интеллекта может стать внесение интеллектуальных систем в перечень объектов гражданских прав , но с дифференциацией правового регулирования искусственного интеллекта в качестве объекта права и «электронного агента» как квазисубъекта права . Линия разграничения должна проходить в зависимости от функциональных различий интеллектуальных систем, причем «электронным агентом» может быть признан не только робот , но и виртуальная интеллектуальная система . Практическая значимость: материалы исследования могут быть применены в работе, связанной с подготовкой предложений по внесению изменений и дополнений в действующее законодательство, а также при разработке учебных курсов и написании учебных пособий по тематике, имеющей отношение к регулированию использования искусственного интеллекта .

Похожие темы научных работ по праву , автор научной работы — Ирина Анатольевна Филипова, Вадим Дмитриевич Коротеев

Future of the Artificial Intelligence: Object of Law or Legal Personality?

Objective: to reveal the problems associated with legal regulation of public relations, in which artificial intelligence systems are used, and to rationally comprehend the possibility of endowing such systems with a legal subject status, which is being discussed by legal scientists. Methods: the methodological basis of the research are the general scientific methods of analysis and synthesis, analogy, abstraction and classification. Among the legal methods primarily applied in the work are formal-legal, comparative-legal and systemic-structural methods, as well as the methods of law interpretation and legal modeling. Results: the authors present a review of the state of artificial intelligence development and its introduction into practice by the time of the research. Legal framework in this sphere is considered; the key current concepts of endowing artificial intelligence with a legal personality (individual, collective and gradient legal personality of artificial intelligence ) are reviewed. Each approach is assessed; conclusions are made as to the most preferable amendments in the current legislation, which ceases to correspond to the reality. The growing inconsistency is due to the accelerated development of artificial intelligence and its spreading in various sectors of economy, social sphere, and in the nearest future – in public management. All this testifies to the increased risk of a break between legal matter and the changing social reality. Scientific novelty: scientific approaches are classified which endow artificial intelligence with a legal personality . Within each approach, the key moments are identified, the use of which will allow in the future creating legal constructs based on combinations, avoiding extremes and observing the balance between the interests of all parties. The optimal variant to define the legal status of artificial intelligence might be to include intellectual systems into a list of civil rights objects, but differentiating the legal regulation of artificial intelligence as an object of law and an “electronic agent” as a quasi subject of law . The demarcation line should be drawn depending on the functional differences between intellectual systems, while not only a robot but also a virtual intellectual system can be considered an “electronic agent”. Practical significance: the research materials can be used when preparing proposals for making amendments and additions to the current legislation, as well as when elaborating academic course and writing tutorials on the topics related to regulation of using artificial intelligence .

Текст научной работы на тему «Будущее искусственного интеллекта: объект или субъект права?»

Check for updates

Будущее искусственного интеллекта: объект или субъект права?

Ирина Анатольевна Филипова м

Национальный исследовательский Нижегородский государственный университет

имени Н. И. Лобачевского

г. Нижний Новгород, Российская Федерация;

Самаркандский государственный университет

г. Самарканд, Республика Узбекистан

Вадим Дмитриевич Коротеев 0

Национальный исследовательский Нижегородский государственный университет

имени Н. И. Лобачевского

г. Нижний Новгород, Российская Федерация

Генеративная модель, интеллектуальная система, искусственный интеллект, квазисубъект права, киберфизическая система, право,

цифровые технологии, электронное лицо

Цель: выявление проблем, связанных с правовым регулированием общественных отношений, в которых используются системы искусственного интеллекта, и рациональное осмысление обсуждаемой правоведами возможности наделения таких систем статусом субъекта права. Методы: методологической основой исследования являются общенаучные методы анализа и синтеза, аналогии, абстрагирования и классификации. Среди преимущественно применяемых в работе юридических методов — формально-юридический, сравнительно-правовой и системно-структурный, а также методы толкования права и правового моделирования.

Результаты: представлен обзор состояния развития искусственного интеллекта и его внедрения на практике ко времени проведения исследования. Рассмотрено нормативно-правовое регулирование в данной области и разобраны основные из существующих концепций наделения искусственного интеллекта правосубъектностью (индивидуальная, коллективная и градиентная правосубъектность искусственного интеллекта). При этом дана оценка каждого из подходов и сделаны выводы о наиболее предпочтительных вариантах внесения изменений

н Контактное лицо © Филипова И. А., Коротеев В. Д., 2023

Статья находится в открытом доступе и распространяется в соответствии с лицензией Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная (CC BY 4.0) (https://creativecommons.Org/licenses/by/4.0/deed.ru), позволяющей неограниченно использовать, распространять и воспроизводить материал при условии, что оригинальная работа упомянута с соблюдением правил цитирования.

в действующее законодательство, которое перестает соответствовать реалиям. Растущее несоответствие связано с ускоряющимся развитием искусственного интеллекта и его распространением в различных секторах экономики, социальной сферы, а в ближайшей перспективе и в государственном управлении. Все это свидетельствует о повышении риска разрыва правовой материи с изменяющейся социальной реальностью.

Научная новизна: классифицированы научные подходы к наделению искусственного интеллекта правосубъектностью. В рамках каждого из подходов выделены ключевые моменты, использование которых позволит в дальнейшем создавать правовые конструкции на основе комбинирования, уходя от крайностей и соблюдая баланс интересов всех сторон. Оптимальным вариантом определения правового статуса искусственного интеллекта может стать внесение интеллектуальных систем в перечень объектов гражданских прав, но с дифференциацией правового регулирования искусственного интеллекта в качестве объекта права и «электронного агента» как квазисубъекта права. Линия разграничения должна проходить в зависимости от функциональных различий интеллектуальных систем, причем «электронным агентом» может быть признан не только робот, но и виртуальная интеллектуальная система.

Практическая значимость: материалы исследования могут быть применены в работе, связанной с подготовкой предложений по внесению изменений и дополнений в действующее законодательство, а также при разработке учебных курсов и написании учебных пособий по тематике, имеющей отношение к регулированию использования искусственного интеллекта.

Филипова, И. А., Коротеев, В. Д. (2023). Будущее искусственного интеллекта:

объект или субъект права? Journal ofDigital Technologies and Law, 7(2), 359-386.

1. Правовой статус искусственного интеллекта: истоки проблемы

1.1. Уровень и темп развития искусственного интеллекта

1.2. Распространение технологий искусственного интеллекта на практике

1.3. Система искусственного интеллекта как объект права

2. Основные концепции правосубъектности искусственного интеллекта

2.1. Концепция индивидуальной правосубъектности искусственного интеллекта

2.2. Концепция коллективной правосубъектности искусственного интеллекта

2.3. Концепция градиентной правосубъектности искусственного интеллекта

Сегодня человечество находится в периоде трансформации общества, связанном со сменой одного технологического уклада на другой, «умные» машины и программы достаточно быстро обучаются, растет способность систем искусственного интеллекта заменять людей во многих сферах деятельности. Одним из вопросов, все чаще поднимаемых в связи с совершенствованием технологий искусственного интеллекта, является вопрос о признании искусственных интеллектуальных систем субъектами права ввиду достижения такими системами уровня принятия полностью автономных решений и потенциального проявления «субъективной воли». Как гипотетический этот вопрос был сформулирован еще в XX в. (McNally & Inayatullah, 1988; Solum, 1992). В XXI в. градус научной дискуссии неуклонно повышается, достигая очередных экстремумов с каждым внедрением новых моделей искусственного интеллекта на практике, к примеру, с появлением беспилотных автомобилей на улицах или с представлением широкой публике роботов, обладающих новым набором функций (Bertolini & Episcopo, 2022).

Правовая проблема определения статуса искусственного интеллекта носит общетеоретический характер, что обусловлено объективной неспособностью предсказания всех возможных результатов разработки новых моделей искусственного интеллекта. Однако уже на данный момент системы искусственного интеллекта (ИИ-системы) фактически являются участниками некоторых общественных отношений, что требует расстановки «реперных точек», т. е. разрешения базовых вопросов в этой области с целью фиксации в законодательстве и тем самым уменьшения доли неопределенности в прогнозировании развития отношений, в которых задействованы системы искусственного интеллекта, на будущее.

Вынесенный в заглавие статьи вопрос о предполагаемой субъектности искусственного интеллекта в качестве предмета исследования, разумеется, охватывает не любые системы искусственного интеллекта, среди которых много «электронных ассистентов», не претендующих на правосубъектность в силу ограниченного набора функций и представляющих собой узкий (слабый) искусственный интеллект. Речь идет об «умных машинах» (киберфизических интеллектуальных системах) и генеративных моделях виртуальных интеллектуальных систем, чем дальше, тем больше приближающихся по своим возможностям к общему (сильному) искусственному интеллекту, сопоставимому с человеческим, а в перспективе и превосходящему его.

1. Правовой статус искусственного интеллекта: истоки проблемы 1.1. Уровень и темп развития искусственного интеллекта

Говорить об уровне развития искусственного интеллекта на сегодняшний день можно лишь условно, так как скорость его развития увеличивается, и то, что было актуальным на момент написания статьи, достаточно быстро устаревает. Особенно это касается наиболее быстро развивающегося направления в сфере искусственного интеллекта — искусственных нейронных сетей. Мультимодальные нейросети, например ChatGPT, DALL-e и т. д., интеллектуальные способности которых совершенствуются за счет наращивания числа параметров (воспринимаемых модальностей, включая недоступные человеку), а также использования для обучения огромных объемов

данных, которые человек не способен обработать физически, к началу 2023 г. подняли остроту вопроса о создании сильного искусственного интеллекта. К примеру, мультимодальные генеративные модели нейросетей способны создавать картины, литературные и научные тексты так, что далеко не всегда можно определить, сделано это человеком или системой искусственного интеллекта.

IT-эксперты говорят о двух качественных скачках: скачке скорости (периодичности появления качественно новых моделей), которая стала измеряться не годами, а максимум месяцами, и скачке непредсказуемости (невозможности точно спрогнозировать, что может произойти в сфере искусственного интеллекта даже до конца текущего года)1. Модель ChatGPT-3 (третье поколение алгоритма обработки естественного языка от компании OpenAI) появилась в 2020 г. и могла обрабатывать текст, модель следующего поколения — ChatGPT-4, представленная компанией-разработчиком в марте 2023 г., умеет «работать» не только с текстами, но и с изображениями, в то время как модель последующего поколения уже обучается и будет способна на большее.

Если еще несколько лет назад о предполагаемом моменте технологической сингулярности, когда развитие машин становится фактически неуправляемым и необратимым, в корне меняя человеческую цивилизацию, упоминали как о времени, которое наступит минимум через несколько десятилетий, то сегодня увеличивается число исследователей — сторонников версии, что это может произойти гораздо быстрее2. Имеется в виду появление так называемого сильного искусственного интеллекта, который будет демонстрировать возможности, сопоставимые с интеллектом человека, и способен решать аналогичный или даже более широкий круг задач. В отличие от слабого искусственного интеллекта сильный искусственный интеллект будет обладать сознанием, а одним из необходимых условий возникновения сознания у интеллектуальных систем является именно возможность осуществлять мультимо-дальное поведение с интеграцией данных из различных сенсорных модальностей (текст, изображение, видео, звук и т. д.), «привязывая» информацию разных модальностей к окружающей реальности с построением полноценных связных «образов мира», как это свойственно людям3.

В марте 2023 г. более тысячи исследователей, IT-специалистов и предпринимателей в области искусственного интеллекта подписали открытое письмо, опубликованное на сайте американского научно-исследовательского центра Future of Life Institute4, специализирующегося на изучении экзистенциальных рисков для человечества. В письме содержался призыв приостановить обучение новых генеративных мультимодальных нейросетевых моделей в связи с тем, что отсутствие общих протоколов безопасности и правовой вакуум существенно повышают риски, ведь

Карелов, С. (2023, 5 апреля). Телеграм-канал «Малоизвестное интересное». https://t.me/s/ theworldisnoteasy

David Shapiro (expert on artificial cognitive architecture) predicts. «AGI within 18 months». (2023, 28 марта). https://www.reddit.eom/r/singularity/comments/1254azr/david_shapiro_expert_on_artificial_cognitive/

Колонин, А. (2021, 8 декабря). О глубине, прозрачности и «силе» ИИ в текущем моменте. https:// russiancouncil.ru/analytics-and-comments/analytics/o-glubine-prozrachnosti-i-sile-ii-v-tekushchem-momente/

Pause Giant AI Experiments: An Open Letter. (2023, March 22). https://futureoflife.org/open-letter/pause-giant-ai-experiments/

скорость развития технологий искусственного интеллекта резко повысилась из-за «ChatGPT революции». Отмечено также появление у моделей искусственного интеллекта не предвиденных их разработчиками способностей, не находящих объяснения, и, вероятно, постепенное повышение доли таких способностей. Кроме того, подобная технологическая революция резко стимулирует создание интеллектуальных гаджетов, которые получат распространение, и новые поколения, сегодняшние дети, выросшие в постоянном общении с искусственными интеллектуальными помощниками, будут колоссально отличаться от предыдущих поколений.

Можно ли затормозить развитие искусственного интеллекта, чтобы человечество успело подстроиться под новые условия? Теоретически да, если все государства будут способствовать этому через национальные законодательства. Будут ли они это делать? Исходя из опубликованных национальных стратегий — нет, наоборот, каждым государством ставится задача выиграть конкуренцию (сохранить лидерство или сократить отставание). В Российской Федерации задача ускоренного развития технологий искусственного интеллекта поставлена в Национальной стратегии развития искусственного интеллекта до 2030 года, утвержденной Указом Президента Российской Федерации от 10 октября 2019 года № 490 «О развитии искусственного интеллекта в Российской Федерации»5 (далее — Национальная стратегия). Согласно пункту 24 Национальной стратегии, среди основных направлений заявлены: поддержка исследований для обеспечения опережающего развития искусственного интеллекта, разработка интеллектуального программного обеспечения, повышение доступности данных, необходимых для развития технологий искусственного интеллекта, и создание комплексной системы регулирования отношений, возникающих в связи с развитием и использованием искусственного интеллекта. В пункте 30 Национальной стратегии предусматривается, что для развития российских технологий необходимо поддерживать научные исследования, направленные на создание принципиально новых результатов, в том числе на создание сильного искусственного интеллекта. Аналогичная задача поставлена и в национальных стратегиях развития искусственного интеллекта других стран мира.

1.2. Распространение технологий искусственного интеллекта на практике

Возможности искусственного интеллекта привлекают предпринимателей, поэтому бизнес-структуры инвестируют огромные средства в новые разработки, и успех каждой новой модели стимулирует этот процесс. Объемы ежегодных инвестиций, учитывая, что в разработки вкладываются как частные компании, так и государства, растут, глобальный рынок решений в области искусственного интеллекта измеряется уже сотнями миллиардов долларов, а к 2030 г., по прогнозам, в частности содержащимся в Резолюции Европарламента от 3 мая 2022 г. «Об искусственном интеллекте в цифровую эпоху», вклад искусственного интеллекта в мировую экономику превысит 11 трлн евро6.

О развитии искусственного интеллекта в Российской Федерации: Указ Президента Российской Федерации от 10 октября 2019 года № 490. (2019). Собрание законодательства Российской Федерации, № 41. Ст. 5700.

European Parliament Resolution of 3 May 2022 on Artificial Intelligence in a Digital Age (2020/2266(INI)). https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_EN.html

Практико-ориентированность бизнеса влечет внедрение технологий искусственного интеллекта во все отрасли экономики. Искусственный интеллект используется как в добывающей, так и в обрабатывающей промышленности (металлургия, топливная и химическая промышленность, машиностроение, металлообработка и т. д.). Он применяется для прогнозирования эффективности разрабатываемых продуктов, автоматизации сборочных линий, снижения количества брака, улучшения логистики и предотвращения простоев.

Использование искусственного интеллекта в транспортной сфере включает как собственно автономные транспортные средства, так и оптимизацию маршрутов с учетом прогнозирования транспортных потоков, обеспечение безопасности вождения за счет предупреждения опасных ситуаций. Выпуск беспилотных автомобилей на дороги общего пользования — вопрос, активно обсуждаемый в парламентах разных стран мира. В Российской Федерации в 2021 г. Министерством транспорта также был подготовлен законопроект «О высокоавтоматизированных транспортных средствах и о внесении изменений в отдельные законодательные акты Российской Федерации»7, а годом позже Постановлением Правительства РФ от 29 декабря 2022 г. № 2495 утверждена «Программа экспериментального правового режима в сфере цифровых инноваций по предоставлению транспортных услуг с использованием высокоавтоматизированных транспортных средств на территориях отдельных субъектов Российской Федерации»8. На стыке транспортной сферы и сельского хозяйства растет применение автономных комбайнов, причем в сельскохозяйственном секторе процесс идет еще быстрее, так как там отсутствуют строгие нормативно-правовые ограничения, касающиеся автомобильного транспорта на дорогах общего пользования.

В банковской сфере ИИ-системы почти полностью заменили людей при оценке кредитоспособности заемщиков, все шире они используются для разработки новых банковских продуктов, повышения безопасности банковских операций.

Технологии искусственного интеллекта «захватывают» не только бизнес, но и социальную сферу: здравоохранение, образование, занятость. Применение искусственного интеллекта в медицине позволяет усовершенствовать диагностику, разработку новых лекарственных средств, проводить хирургические операции с использованием робототехники, в сфере образования — индивидуализировать уроки, автоматизировать оценку знаний обучающихся и профессиональных навыков учителей.

Сфера занятости сегодня все больше видоизменяется благодаря экспоненциальному росту платформенной занятости. Доля лиц, выполняющих работу с помощью платформ цифрового труда, дополненных искусственным интеллектом, по данным

Проект Федерального закона «О высокоавтоматизированных транспортных средствах и о внесении изменений в отдельные законодательные акты Российской Федерации» № 02/04/06-21/00116763. https://base.garant.ru/56880577/

Об установлении экспериментального правового режима в сфере цифровых инноваций и утверждении Программы экспериментального правового режима в сфере цифровых инноваций по предоставлению транспортных услуг с использованием высокоавтоматизированных транспортных

средств на территориях отдельных субъектов Российской Федерации: Постановление Правитель-

ства Российской Федерации от 29.12.2022 № 2495. (2022, 30 декабря). Официальный интернет-портал правовой информации. http://publication.pravo.gov.ru/Document/View/0001202212300090

Международной организации труда, неуклонно повышается во всем мире9. Платформенная занятость не единственная составляющая трансформации сферы труда, серьезное влияние на нее оказывает увеличение уровня роботизации производства. По информации Международной федерации робототехники, рост числа промышленных роботов продолжается в общемировом масштабе, наиболее быстрые темпы роботизации присутствуют в странах Азии, в первую очередь в Китайской Народной Республике и Японии10. Россия значительно отстает в этой области, но именно на сокращение отставания рассчитан новый федеральный проект по развитию отечественной робототехники, который будет предусматривать правовые, налоговые и иные условия для развития производства и внедрения промышленных роботов. Этот федеральный проект, согласно поручению Президента Российской Федерации, должен быть подготовлен летом 2023 г. Проект будет включать перечень мер государственной поддержки производства и внедрения промышленных роботов «с учетом обеспечения ежегодного сокращения отставания количества таких роботов на 10 тысяч производственных рабочих в стране от среднемирового уровня»11. Кроме того, идет работа по подготовке проекта Указа Президента Российской Федерации о внесении в Национальную стратегию развития искусственного интеллекта изменений, «направленных на повсеместное внедрение технологий искусственного интеллекта в отраслях экономики и социальной сферы и в системе государственного управления»12.

Действительно, возможности искусственного интеллекта по анализу данных, используемые для управления производством, диагностической аналитики и прогнозирования, вызывают серьезную заинтересованность государств. Искусственный интеллект начинают внедрять в публичное управление. Сегодня активно ведется работа по созданию цифровых платформ для оказания государственных услуг, автоматизации многих процессов, связанных с выработкой решений государственными органами.

В публичном дискурсе все чаще применяются понятия «искусственная личность», «искусственная социальность», это свидетельствует о том, что разработка и реализация интеллектуальных систем перешли из чисто технической плоскости в область исследования многообразных способов их применения в гуманитарной и социокультурной сферах человеческой деятельности (Алексеев и др., 2023).

С учетом всего перечисленного можно утверждать, что искусственный интеллект глубже и глубже проникает в жизнь людей. Присутствие систем искусственного интеллекта в нашей жизни в ближайшие годы станет более заметным, оно увеличится как в рабочей среде, так и в общественном пространстве, сфере услуг и дома.

9 Перспективы занятости и социальной защиты в мире: Роль платформ цифрового труда в трансформации сферы труда. (2021). Группа технической поддержки по вопросам достойного труда и Бюро МОТ для стран Восточной Европы и Центральной Азии. Москва: МОТ.

10 World Robotics R&D Programs. (2023). https://ifr.org/downloads/papers/Executive_Summary_-_World_ Robotics_RD_Programs_V02.pdf

Перечень поручений Президента Российской Федерации по итогам конференции «Путешествие в мир искусственного интеллекта» (23-24 ноября 2022 года). (2023, 29 января). Пр-172, п. 1, подп. «е». http://www.kremlin.ru/acts/assignments/orders/70418 (дата обращения: 20.04.2023)

Перечень поручений Президента Российской Федерации по итогам конференции «Путешествие вмир искусственного интеллекта» (23-24 ноября 2022 года). (2023, 29 января). Пр-172, п. 5. http://www.kremlin.ru/acts/assignments/orders/70418

Чем дальше, тем больше искусственный интеллект будет обеспечивать повышение эффективности в достижении результатов через интеллектуальную автоматизацию различных процессов, создавая новые возможности и одновременно неся новые угрозы для людей, сообществ и государств.

С ростом уровня интеллекта ИИ-системы неизбежно становятся неотъемлемой частью общества, людям придется сосуществовать с ними. Подобный симбиоз будет включать сотрудничество людей и «умных» машин, а это, по словам нобелевского лауреата в области экономики Дж. Стиглица, приведет к трансформации цивилизации (Stiglitz, 2017). Уже сегодня, по мнению некоторых правоведов, «в целях повышения уровня благосостояния людей право не должно проводить различий между деятельностью людей и деятельностью искусственного интеллекта, когда люди и искусственный интеллект выполняют одни и те же задачи» (Abbott, 2020). Нужно учитывать и то, что развитие роботов-гуманоидов, приобретающих все более похожую на человеческую физиологию, вызовет выполнение ими среди прочего тендерных ролей в обществе в качестве партнеров (Karnouskos, 2022).

Государства вынуждены адаптировать законодательство к меняющимся общественным отношениям: количество законов, направленных на регулирование отношений, в которых в том или ином качестве задействованы системы искусственного интеллекта, в мире быстро растет. Согласно докладу Стэнфордского университета «Индекс искусственного интеллекта — 2023»13, если в 2016 г. был принят всего один закон, то в 2018 г. их было уже 12, в 2021 г. — 18, а в 2022 г. — 37 законов. Это подтолкнуло Организацию Объединенных Наций к формированию позиции по этике использования искусственного интеллекта на глобальном уровне. В сентябре 2022 г. появился документ, содержащий принципы этического использования искусственного интеллекта14 и основанный на Рекомендации по этике искусственного интеллекта, принятой годом ранее Генеральной конференцией ЮНЕСКО15. Тем не менее темпы развития и внедрения технологий искусственного интеллекта значительно превосходят скорость соответствующих изменений в сфере права.

Развитие технологий искусственного интеллекта запустило процесс создания машиночитаемого права, которое могут понимать ИИ-системы, более того, речь можно вести не только о машиночитаемости правовых норм, но также об их машино-проектируемости и машиноисполнимости. Применение в юридической деятельности ИИ-систем для качественной правовой аналитики и формулирования машинных рекомендаций для юристов — уже свершившийся факт (Ashley, 2017). Работы по созданию машиночитаемого права сегодня активно ведутся во многих странах мира, в 2021 г. комиссией по цифровому развитию при Правительстве РФ была утверждена российская концепция развития технологий машиночитаемого права16.

13 AI Index Report 2023. (2023). https://aiindex.stanford.edu/report/

14 Principles for the Ethical Use of Artificial Intelligence in the United Nations System. (2022, 20 сентября). https://unsceb.org/principles-ethical-use-artificial-intelligence-united-nations-system

15 Recommendation on the Ethics of Artificial Intelligence. (2021, 25 ноября). https://unesdoc.unesco.org/ ark:/48223/pf0000373434

16 Концепция развития технологий машиночитаемого права, утверждена Правительственной комиссией по цифровому развитию, использованию информационных технологий для улучшения качества жизни и условий ведения предпринимательской деятельности, протокол от 15.09.2021 № 31. КонсультантПлюс. http://www.consultant.ru/document/cons_doc_LAW_396491/

1.3. Система искусственного интеллекта как объект права

В настоящее время системы искусственного интеллекта не обладают правосубъектностью и признаются объектами гражданских прав — это данность для любой, а не только для российской, национальной правовой системы. Независимо от достигнутого уровня развития искусственного интеллекта ИИ-система — это чье-то имущество. Соответственно, как виртуальная, так и киберфизическая ИИ-системы (две существующие разновидности искусственного интеллекта по форме его воплощения) — это то, по поводу чего возникают правоотношения.

Рассмотрим правовой режим искусственного интеллекта как объекта по российскому законодательству. В соответствии со статьей 128 Гражданского кодекса Российской Федерации17 (далее — ГК РФ) объектами права могут быть вещи, иное имущество, в том числе имущественные права, охраняемые результаты интеллектуальной деятельности, нематериальные блага и т. д.

Киберфизический по форме, т. е. обладающий «телом», искусственный интеллект (как правило, это робот) действующим законодательством признается вещью, но оно не устанавливает каких-то особенностей правового режима таких вещей и не ограничивает их оборотоспособность (Соменков, 2019). Представляется допустимой характеристика роботов по аналогии с неделимыми вещами в соответствии со статьей 133 ГК РФ, поскольку попытка отделения собственно искусственного интеллекта (в смысле программного обеспечения) от «тела» робота как оболочки влечет неизбежное изменение его назначения или вообще разрушение.

В международной частноправовой практике киберфизические ИИ-системы тоже имеют статус вещи в общем смысле и статус товара в коммерческом отношении. Так, Международная классификация товаров и услуг для регистрации знаков (МКТУ) прямо называет специфический вид товара: «Роботы человекоподобные с искусственным интеллектом» (класс 09, базовый № 090778)18.

Искусственный интеллект в виртуальной форме в Российской Федерации также не имеет особого правового положения и на данный момент фактически регулируется нормами, содержащимися в части 4 ГК РФ, относясь к непоименованным объектам авторских прав. Однако для эффективной юридической защиты такого объекта гражданских прав виртуальные ИИ-системы приходится признавать компьютерными программами, чтобы положения статьи 1259 ГК РФ, устанавливающие правовую охрану программ для ЭВМ, аналогичную литературным произведениям, распространялись и на них.

Определение самого понятия «искусственный интеллект» можно обнаружить в Федеральном законе от 24 апреля 2020 г. № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте

17 Гражданский кодекс Российской Федерации. (1994, 5 декабря). Собрание законодательства Российской Федерации. № 32. Ст. 3301.

18 Международная классификация товаров и услуг для регистрации знаков (МКТУ) (11-я редакция, изд. 1-е). Правовая система «Кодекс». https://docs.cntd.ru/document/420273241

Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»»19:

«Искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру (в том числе информационные системы, информационно-телекоммуникационные сети, иные технические средства обработки информации), программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений».

Исходя из процитированного фрагмента закона, можно заключить, что ИИ-система не соответствует определению программы для ЭВМ, содержащемуся в статье 1261 ГК РФ, такие системы не ограничены лишь совокупностью данных и команд, предназначенных для функционирования ЭВМ, т. е. имеют не только программную составляющую, поэтому ИИ-систему в целях дальнейшей правовой охраны следовало бы признать сложным объектом интеллектуальной собственности, предусмотренным статьей 1240 ГК РФ (Василевская и др., 2021).

Здесь нужно отметить, что если ранее любую систему искусственного интеллекта 1Т-специалисты определяли как программно-аппаратный комплекс, то сегодня аппаратная часть в виртуальных интеллектуальных системах может считаться отсутствующей и тогда проблема снимается. Так, к примеру, в определении искусственного интеллекта, данном в Коммюнике Европейской комиссии, упоминается, что виртуальная интеллектуальная система может вовсе не иметь собственной аппаратной части: «Искусственный интеллект (ИИ) относится к системам, которые демонстрируют разумное поведение, анализируя окружающую среду и предпринимая действия -с некоторой степенью автономии — для достижения определенных целей. Системы на основе ИИ могут быть чисто программными, действующими в виртуальном мире (например, голосовые помощники, программное обеспечение для анализа изображений, поисковые системы, системы распознавания речи и лиц) или ИИ может быть встроен в аппаратные устройства (например, роботы, дополненные искусственным интеллектом, автономные автомобили, дроны или приложения интернета вещей)» 20.

Отнесение ИИ-систем к объектам права не исключает возможности в дальнейшем установления законом особенностей их правового регулирования в зависимости от формы искусственного интеллекта — виртуальной или киберфизической, а также с учетом разницы в уровне искусственного интеллекта. Так, некоторые исследователи предлагают выделять в особую категорию продвинутые киберфизические

19 О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона «О персональных данных»: Федеральный закон от 24.04.2020 № 123-Ф3. (2020). Собрание законодательства РФ. № 17. Ст. 2701.

20 Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions. Artificial Intelligence for Europe, Brussels, 25.04.2018 COM (2018) 237 final. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/ ?uri=CELEX:52018DC0237&from=EN

системы, полагая, что влияние «умных» роботов на общество будет гораздо значительней, чем виртуальных систем, в силу сочетания нескольких факторов, в том числе наличия «тела» и эмерджентности, т. е. появления у системы свойств, не присущих ее компонентам (Calo, 2015).

Аргументированным можно признать мнение о необходимости применения к ИИ-системам правового режима, установленного для источников повышенной опасности. Сегодня суд при рассмотрении конкретного дела вправе самостоятельно определять, относится тот или иной объект к категории «источник повышенной опасности» или нет (Лаптев, 2019). Искусственный интеллект из-за возможности принятия автономных решений, отличных от изначально заложенной в него программы, соответствует определению источника повышенной опасности. Уточним, сказанное выше должно касаться не любых систем с элементами искусственного интеллекта, к которым можно отнести многие приложения из смартфона, а лишь продвинутых моделей. В этом ключе не лишено смысла выдвинутое В. В. Архи-повым и В. Б. Наумовым предложение признать такие ИИ-системы имуществом особого рода, подробно урегулировав их правовой режим через закрепление статуса «имущества, способного действовать автономно» (Архипов, Наумов, 2017), особенно с учетом того, что, чем совершеннее становятся модели искусственного интеллекта, тем больше контрольных функций будет на них возлагаться (Greenstein, 2022).

Нельзя не упомянуть, что признание искусственного интеллекта объектом права предоставляет весьма ограниченный выбор вариантов решения ряда вопросов, важность которых со временем будет только расти. Среди этих вопросов:

1. Кто понесет ответственность за вред, причиненный действиями ИИ-систем, с учетом того, что они становятся все более самостоятельными?

2. За кем следует признавать права на результаты интеллектуальной деятельности творческого характера (принимая в расчет то, что уровень результатов становится все выше, а участие человека, даже опосредованное, фактически может сводиться к нулю)?

В ответах на эти вопросы пока фигурирует только человек — производитель, владелец или пользователь. Сохранится ли это положение в будущем? Применительно к ответственности за вред, причиненный ИИ-системой, «если раньше считалось, что не потребуется кардинальных изменений в регулировании института юридической ответственности, то сегодня оснований так говорить с абсолютной уверенностью уже нет. Причиной стало повышение степени автономности систем искусственного интеллекта при расширении спектра возможностей их применения» (Харитонова и др., 2022). Опять краеугольным камнем встает проблема растущей автономии ИИ-систем от человека, таким образом, изменение законодательства — вопрос времени и это изменение станет отражением нового «баланса интересов» (McCarty, 2017).

2. Основные концепции правосубъектности искусственного интеллекта

2.1. Концепция индивидуальной правосубъектности искусственного интеллекта

Переходя к рассмотрению концепций потенциального наделения искусственных интеллектуальных систем правосубъектностью, следует признать, что реализация любого из подобных подходов потребует фундаментального переустройства

сложившейся общей теории права и изменения ряда положений отдельных отраслей права. Примечательно, что приверженцы различных взглядов нередко используют термин «электронное лицо», поэтому использование данного наименования само по себе не позволяет установить, сторонником какой именно концепции является автор конкретного труда без ознакомления непосредственно с содержанием его работы.

Наиболее радикальным и, что закономерно, наименее популярным среди представителей научного сообщества подходом является концепция индивидуальной правосубъектности искусственного интеллекта. Сторонниками данного подхода выдвинута идея «полной инклюзивности» (extreme inclusivism), предполагающая наделение ИИ-систем аналогичным человеку правовым статусом с признанием за ними собственных интересов (Mulgan, 2019) и учетом их социальной значимости или социальной валентности (social valence). Последняя связана с тем, что «физическое воплощение робота имеет тенденцию заставлять человека относиться к движущемуся объекту так, как если бы он был живым. Это еще более заметно, когда робот имеет антропоморфные характеристики, поскольку сходство с человеческим телом заставляет людей проецировать эмоции, чувства удовольствия, боли и заботы, а также желание строить отношения» (Avila Negri, 2021). Проецирование человеческих эмоций на неодушевленные предметы не является чем-то новым, исходя из истории человечества, но применительно к роботам оно влечет за собой многочисленные последствия (Balkin, 2015).

В качестве предпосылок правового закрепления данной позиции обычно называются:

— достижение ИИ-системами уровня, сопоставимого с когнитивными функциями человеческого мышления;

— возрастающая степень сходства роботов и людей;

— гуманность, защита интеллектуальных систем от потенциальных «страданий».

Как видно из перечня предпосылок, все они имеют большую степень теорети-

зации и субъективной оценки. В частности, тенденция к созданию антропоморфных роботов (андроидов) вызвана обыденными психологическими и социальными потребностями людей, для которых комфортно ощущать себя в «обществе» похожих на них субъектов. Некоторые современные роботы обладают иными конструктивными особенностями из-за выполняемых ими функций, сюда можно отнести «многоногих» роботов-курьеров, для которых в первую очередь важна прочность конструкции и эффективное распределение веса перевозимого груза. В этом случае «включается» последняя из упомянутых выше предпосылок, вызванная формированием эмоциональных связей с роботами в человеческом сознании, аналогичных эмоциональным связям между домашним животным и его хозяином (Гринь, 2018).

Идея «полной инклюзивности» правового статуса ИИ-систем и человека отражена в работах некоторых исследователей-правоведов. Поскольку положения Конституции (например, положения глав 1 и 2 Конституции Российской Федерации21), а равно отраслевого законодательства не дают легального определения личности, само по себе понятие «личность» в конституционно-правовом смысле теоретически допускает расширительное толкование. В таком случае к личностям можно относить любых носителей интеллекта, чьи когнитивные способности будут признаны

21 Конституция Российской Федерации. https://base.garant.ru/10103000

развитыми на достаточном уровне. Как отмечает А. В. Нечкин, логика данного подхода заключается в том, что сущностное отличие человека от всех остальных живых существ состоит как раз в его особом высокоразвитом интеллекте (Нечкин, 2020). Признание прав за ИИ-системами представляется очередным шагом эволюции правовой системы, постепенно расширившей юридическое признание на ранее подвергавшихся дискриминации людей, а теперь открывающей доступ и нечеловеческим существам (Gellers, 2021).

При наделении ИИ-систем подобным правовым статусом сторонникам рассматриваемого подхода видится обоснованным предоставление таким системам не буквальных прав граждан в устоявшемся конституционно-правовом понимании, а их аналогов и отдельных прав граждан с некоторыми изъятиями. Эта позиция основывается на объективных биологических различиях человека и робота. Так, не имеет смысла признание за ИИ-системой права на жизнь, поскольку она не живет в биологическом смысле. Права, свободы и обязанности систем искусственного интеллекта должны быть вторичными по отношению к правам граждан, данное положение закрепляет в правовом плане производность самого искусственного интеллекта в качестве творения человека.

Среди потенциальных конституционных прав и свобод искусственных интеллектуальных систем называются: право быть свободным, право на самосовершенствование (обучение и самообучение), право на неприкосновенность (защиту программного кода от произвольного вмешательства третьих лиц), свобода слова, свобода творчества, признание за ИИ-системой авторских прав и ограниченное право собственности. Также можно выделить и особенные права искусственного интеллекта, например, право на доступ к источнику электроэнергии.

В отношении обязанностей ИИ-систем предлагается конституционное закрепление трех знаменитых законов робототехники, сформулированных А. Азимовым: непричинение вреда человеку, а равно недопущение своим бездействием его причинения; повиновение всем приказам, отдаваемым человеком, кроме направленных на причинение вреда другому человеку; забота о собственной безопасности, за исключением предыдущих двух случаев (Наумов, Архипов, 2017). Еще ряд обязанностей в этом случае найдут отражение в нормах гражданского и административного права.

Концепция индивидуальной правосубъектности искусственного интеллекта имеет весьма небольшие шансы на свое нормативное закрепление сразу по нескольких основаниям.

Во-первых, критерий признания правосубъектности по наличию сознания и самосознания абстрактен, он допускает возможность многочисленных правонарушений, злоупотреблений правом и провоцирует социальные, политические проблемы в качестве дополнительного повода для расслоения общества. Данный тезис детализирован в работе С. Чопра и Л. Уайта, указывающих, что сознание и самосознание не являются необходимым и (или) достаточным условием для признания ИИ-систем в качестве субъекта права (Chopra & White, 2004). В правовой реальности полностью сознательные индивиды, например дети (или рабы в римском праве), лишены или ограничены в правосубъектности. В то же время люди, имеющие тяжелые психические расстройства, в том числе признанные недееспособными, или находящиеся в состоянии комы, т. е. при объективной невозможности проявления сознания, в первом случае остаются субъектами права (пусть и в ограниченной форме), а во втором имеют всю ту же полную правосубъектность, никак глобально не меняясь в своем

правовом статусе. При потенциальном же закреплении упомянутого выше критерия сознания и самосознания граждан можно будет в произвольном порядке лишать правосубъектности.

Во-вторых, ИИ-системы не смогут в устоявшемся правовом понимании осуществлять свои права и обязанности, поскольку действуют на основании изначально написанной программы, а принятие юридически значимых решений должно основываться на субъективном, нравственном выборе лица (Морхат, 20186), его прямом волеизъявлении. Все моральные установки, чувства и желания такого «лица» становятся производными от человеческого интеллекта (Ужов, 2017). Автономность ИИ-систем в смысле способности принимать решения и реализовывать их самостоятельно, без внешнего антропогенного контроля или умышленного воздействия человека (Мусина, 2023), не является полноценной. Сегодня искусственный интеллект способен принимать только «квазинезависимые решения», так или иначе основанные на представлениях и моральных установках людей. В данном контексте можно рассматривать только «действие-операцию» ИИ-системы, исключая возможность реальной нравственной оценки поведения искусственного интеллекта (Петев, 2022).

В-третьих, признание за искусственным интеллектом правосубъектности индивидуального лица (тем более в форме приравнивания к статусу физического лица), влечет за собой разрушительное изменение сложившегося правопорядка и правовых традиций, формировавшихся со времен римского права, и провоцирует поднятие целого ряда фундаментально неразрешимых философских и правовых вопросов в области прав человека. Право как система социальных норм и социальное явление создано с учетом способностей человека и для обеспечения его интересов. Устоявшаяся антропоцентрическая система нормативных правил, международный консенсус в области концепции естественного права в случае закрепления подхода «полной инклюзивности» юридически и фактически будут признаны недействительными (Дремлюга, Дремлюга, 2019). Тем самым предоставление ИИ-системам, в частности «умным» роботам, правосубъектности может стать не решением существующих проблем, а ящиком Пандоры, обостряющим социальные и политические противоречия (Solaiman, 2017).

Еще один момент: в работах сторонников данной концепции упоминаются обычно лишь роботы, т. е. киберфизические системы искусственного интеллекта, которые будут взаимодействовать с людьми в физическом мире, а виртуальные системы остаются «за рамками», хотя сильный искусственный интеллект в случае его появления сможет найти воплощение и в виртуальной форме.

Исходя из всей совокупности приведенных выше аргументов, концепцию индивидуальной правосубъектности систем искусственного интеллекта следует рассматривать как юридически нереалистичную при сложившемся правопорядке.

2.2. Концепция коллективной правосубъектности искусственного интеллекта

Концепция коллективных лиц применительно к искусственным интеллектуальным системам нашла значительную поддержку среди сторонников самой допустимости признания подобной правосубъектности. Главное достоинство этого подхода заключается в исключении из юридической техники абстрактных понятий и оценочных суждений (сознание, самосознание, разумность, мораль и т. д.), подход базируется

на использовании юридической фикции в отношении искусственного интеллекта. Применительно к юридическим лицам уже существуют «передовые методы регулирования, которые можно было бы адаптировать для решения дилеммы правового статуса искусственного интеллекта» (Нагв, 2022).

Данная концепция не предполагает реального наделения ИИ-систем правосубъектностью физического лица, а является лишь расширением действия существующего института юридических лиц, предлагая создание новой категории юридических лиц — кибернетических «электронных организмов»22 (Мусина, 2023). В контексте данного подхода юридическое лицо целесообразнее рассматривать не в соответствии с современным узким понятием, в частности, закрепленным в статье 48 Гражданского кодекса РФ (как организацию, которая имеет обособленное имущество и отвечает им по своим обязательствам, может от своего имени приобретать и осуществлять гражданские права, нести гражданские обязанности, быть истцом и ответчиком в суде), а в более широком смысле, представляющем юридическое лицо в качестве любой отличной от физического лица правовой конструкции, которая в установленной законом форме наделяется правами и обязанностями. Тем самым сторонники данного подхода предлагают рассматривать юридическое лицо как субъект-сущность (идеальную сущность) по римскому праву (Санфилиппо, 2007).

Сходство ИИ-систем и юридических лиц видят в способе наделения их правосубъектностью — через обязательность государственной регистрации юридических лиц. Лишь после прохождения установленной процедуры регистрации юридическое лицо наделяется правоспособностью и дееспособностью, т. е. становится субъектом права. Такая модель удерживает рассуждения о правосубъектности ИИ-систем в рамках правового поля, исключая возможность признания правосубъектности по иным (неюридическим) основаниям, без естественных на это предпосылок, в то время как человек по праву своего рождения признается субъектом права.

Достоинством данной концепции является распространение на искусственные интеллектуальные системы требования о внесении сведений в соответствующие государственные реестры по аналогии с единым государственным реестром юридических лиц (Попова, 2018) как необходимого условия для придания им правосубъектности. Такой метод реализует значимую функцию систематизации всех юридических лиц и создания единой базы данных, необходимой как для органов государственной власти в целях осуществления контроля и надзора (к примеру, в налоговой сфере), так и для потенциальных контрагентов такого лица.

Объем прав юридических лиц в любой юрисдикции, как правило, меньше, чем физических лиц, тем самым использование данной конструкции для придания правосубъектности искусственному интеллекту не сопряжено с наделением его рядом прав, предлагаемых сторонниками предыдущей концепции.

При использовании приема юридической фикции в отношении юридических лиц предполагается, что за действиями юридического лица стоит объединение физических лиц, которое через органы управления юридическим лицом формирует

22 Не следует путать их с «юридическими электронными лицами» — децентрализованными автономными организациями, в которых координация деятельности участников происходит в соответствии с заранее согласованным набором правил с автоматическим контролем их выполнения (функционирующими на основе блокчейна).

его «волю» и осуществляет «волеизъявление». Иными словами, юридические лица являются искусственными (абстрактными) образованиями, призванными удовлетворять интересы физических лиц, которые выступили их учредителями или осуществляют управление ими. Так же и искусственные интеллектуальные системы создаются для удовлетворения потребностей конкретных лиц — разработчиков, операторов, владельцев. Физическое лицо при использовании ИИ-систем, их программировании руководствуется своими интересами, которые во внешнем мире такая система и представляет.

При теоретической оценке подобной модели регулирования не стоит забывать, что полная аналогия положения юридических лиц и ИИ-систем невозможна. Как уже было отмечено ранее, за всеми юридически важными действиями юридических лиц стоят лица физические, которые эти решения непосредственно и принимают. Воля, исходящая от юридического лица, всегда обусловлена и полностью контролируется волей физических лиц (Шуткин, 2020). Следовательно, без волеизъявления физических лиц невозможно осуществление деятельности лиц юридических, а применительно к ИИ-системам уже встает объективная проблема их автономности, возможности принятия решений без вмешательства физического лица после момента непосредственного создания такой системы (Ладенков, 2021).

Необходимо учитывать и то, что ИИ-системы не отвечают формальному признаку организационного единства, обязательного для юридических лиц. Правовой статус юридического лица вырабатывался на протяжении нескольких веков и так же, как и право в целом, обладает чертами «правового консерватизма». С другой стороны, действующее законодательство о юридических лицах сильно ограничивает возможности для наделения правами и обязанностями ИИ-системы, при попытке применить эту конструкцию следствием станет необоснованное законодательное препятствование инновациям (Понкин, Редькина, 2018), недопустимое исходя из содержания упоминавшихся ранее документов стратегического характера, нацеленных на скорейшее внедрение технологий искусственного интеллекта в различных отраслях экономики, социальной сфере и государственном управлении.

Таким образом, концепция коллективных лиц применительно к ИИ-системам пусть и обладает определенным потенциалом, не отвечает сложившимся юридическим традициям. Если же исходить из того, что «хотя вопрос о личности является бинарным» (признание лицом или непризнание таковым), однако «содержание этого статуса представляет собой спектр» возможных вариантов (Chesterman, 2020), то речь должна идти скорее о градиентной правосубъектности искусственного интеллекта, о которой будет подробнее рассказано в следующем разделе.

2.3. Концепция градиентной правосубъектности искусственного интеллекта

В связи с неустранимыми ограничениями рассмотренных выше концепций значительным числом исследователей предлагаются свои подходы к решению вопроса о правовом положении искусственных интеллектуальных систем. Условно можно отнести их к различным вариациям концепции «градиентной правосубъектности», по выражению исследователя из Левенского университета Д. М. Мокану, которая подразумевает под этим ограниченную или частичную правоспособность и дееспособность ИИ-систем с оговоркой: термин «градиент» используется потому, что речь

идет не просто о включении или невключении каких-то прав и обязанностей в правовой статус, но о формировании их набора с минимально допустимым порогом, а также о признании такой правосубъектности только для определенных целей (Мосапи, 2021). Тогда к двум основным вариациям этой концепции можно отнести подходы, обосновывающие:

1) придание ИИ-системам особого правового статуса и включение в правопорядок «электронных лиц» как абсолютно новой категории субъектов права;

2) наделение ИИ-систем ограниченной правоспособностью и дееспособностью в рамках гражданско-правовых отношений через создание категории «электронных агентов».

Позиция сторонников различных подходов внутри данной концепции может быть объединена, исходя из того, что пока отсутствуют онтологические причины, по которым искусственный интеллект следует рассматривать в качестве субъекта права, тем не менее в конкретных ситуациях уже наличествуют функциональные причины для наделения ИИ-систем конкретными правами и обязанностями, что «кажется лучшим способом поощрения индивидуальных и общественных интересов, которые закон призван защищать», наделяя эти системы «ограниченными и узкими формами правосубъектности» (Ве^оПт & Episcopo, 2022).

Придание системам искусственного интеллекта особого правового статуса через создание отдельного правового института «электронных лиц» главным своим достоинством имеет детальное прояснение и урегулирование отношений, возникающих:

— между юридическими или физическими лицами и ИИ-системами;

— между ИИ-системами и их разработчиками (оператором, владельцем);

— между третьей стороной и ИИ-системами в гражданско-правовых отношениях23.

При подобной правовой конструкции ИИ-система будет контролироваться

и управляться отдельно от ее разработчика, владельца или оператора (Морхат, 2018б). Приводя определение «электронного лица», П. М. Морхат акцентирует внимание на использовании уже упомянутого приема юридической фикции и функциональной направленности конкретной модели искусственного интеллекта: «электронное лицо» — это технико-юридический образ (обладающий некоторыми признаками юридической фикции по аналогии с юридическим лицом), отражающий и воплощающий условно специфическую правосубъектность системы искусственного интеллекта, отличающуюся в зависимости от ее функционально-целевого назначения и возможностей (Морхат, 2018а).

Как и концепция коллективных лиц в отношении ИИ-систем, данный подход предусматривает ведение специальных реестров «электронных лиц». Детальное и четкое изложение прав и обязанностей «электронных лиц» является основой для дальнейшего контроля со стороны государства и владельцев подобных ИИ-систем. Точно определенный круг полномочий, суженный объем правоспособности и дееспособности «электронных лиц» позволят отслеживать, не зашло ли данное «лицо» за рамки собственной программы вследствие потенциального принятия автономных решений и постоянного самообучения.

23 Schrijver, S. de (2018, January 5). The Future Is Now: Legal Consequences of Electronic Personality for Autonomous Robots. Who's Who Legal. https://whoswholegal.com/features/the-future-is-now-legal-consequences-of-electronic-personality-for-autonomous-robots

Формально-юридически эта модель представляет из себя аналог наделения юридических лиц, к примеру в форме унитарных предприятий, ограниченной (специальной) правоспособностью по смыслу пункта 2 статьи 48 ГК РФ. Выдвигается и предложение о лицензировании отдельных видов «электронных лиц» в зависимости от осуществляемой ими деятельности по аналогии с лицензированием, предусмотренным Федеральным законом от 4 мая 2011 года № 99-ФЗ «О лицензировании отдельных видов деятельности»24. При данном подходе искусственный интеллект, на стадии его создания являющийся объектом интеллектуальной собственности разработчиков программного обеспечения, после соответствующей сертификации, государственной регистрации может быть наделен правосубъектностью, но правоспособность и дееспособность «электронного лица» будут носить специальный характер (Вавилин, 2022).

Введение принципиально нового института для устоявшегося правопорядка повлечет за собой серьезные правовые последствия, необходимость глобального реформирования законодательства как минимум в области конституционного и гражданского права. Исследователи справедливо отмечают, что при введении понятия «электронного лица» необходимо проявлять осторожность, учитывая проблемы введения новых лиц в праве, поскольку расширение понятия «лицо» в юридическом смысле может потенциально происходить за счет ограничения прав и законных интересов уже существующих субъектов правоотношений (В^оп et б. 2017). Учет таких аспектов представляется реально невозможным, так как правосубъектность физических лиц, юридических лиц, публично-правовых образований — это следствие многовековой эволюции теории государства и права.

Второй подход в рамках концепции градиентной правосубъектности — правовой концепт «электронных агентов», он связан в первую очередь с повсеместным распространением ИИ-систем как средств коммуникации между контрагентами и как инструментов онлайн-торговли. Данный подход можно назвать компромиссным, он признает невозможность наделения ИИ-систем статусом полноценных субъектов права, в то же время закрепляя за искусственным интеллектом отдельные (социально значимые) права и обязанности. Иными словами, концепция «электронных агентов» является легализацией квазисубъектности искусственного интеллекта. Под квазисубъектом права следует понимать определенное правовое явление, за которым на официальном либо доктринальном уровне признаются отдельные элементы правосубъектности при невозможности закрепления статуса полноценного субъекта права (Чаннов, 2022).

Сторонники данного подхода отмечают функциональные особенности ИИ-систем, позволяющие им выступать как в форме пассивного инструмента, так и в форме активного участника правоотношений, потенциально способного самостоятельно создавать юридически значимые для владельца такой системы соглашения. Именно поэтому ИИ-системы можно условно рассматривать в рамках отношений агентирования (Морхат, 2018б). При создании (или регистрации) ИИ-системы инициатор деятельности «электронного агента» заключает с ним фактический односторонний агентский договор, в результате чего «электронный агент» наделяется рядом полномочий, при осуществлении которых он может осуществлять юридические действия, значимые для принципала.

24 О лицензировании отдельных видов деятельности: Федеральный закон от 04.05.2011 № 99-ФЗ (ред. от 29.12.2022). (2011). Собрание законодательства РФ, 2011. № 19. Ст. 2716.

Положения об агентировании отношений с ИИ-системами в России впервые прозвучали в связи с разработкой законопроекта «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники», подготовленного в 2016 г. Этот проект получил неформальное наименование «Закон Гришина» по фамилии Д. Гришина — основателя инвестиционного фонда Grishin Robotics и председателя совета директоров Mail.Ru Group. По смыслу законопроекта «электронным агентом» должен быть признан робот, который по решению собственника и в силу конструктивных особенностей предназначен для участия в гражданском обороте. Робот-агент имеет обособленное имущество и отвечает им по своим обязательствам, может от своего имени приобретать и осуществлять гражданские права и нести гражданские обязанности. В случаях, установленных законом, робот-агент может выступать в качестве участника гражданского процесса. Результатом одобрения данного законопроекта стала бы легализация ИИ-систем в качестве участников правоотношений в России.

В контексте «электронных агентов» наиболее проблемным является вопрос об обладании такими лицами обособленным имуществом, что дало бы возможность привлекать их к ответственности по приобретенным гражданско-правовым обязательствам. Авторы — разработчики законопроекта постарались учесть функциональную специфику разных видов искусственного интеллекта, предложив разделить ИИ-системы25 на два типа:

— ИИ-системы (в проекте — роботы) как особая форма имущества, для которых потенциально возможна аналогия с животными и иными объектами права (ИИ-системы первого типа — объекты права);

— ИИ-агенты как участники гражданских правоотношений, обладающие особой правосубъектностью (ИИ-системы второго типа — квазисубъекты права).

Стоит отметить, что о возможном правовом статусе виртуальных систем как еще одной формы искусственного интеллекта авторы законопроекта 2016 г. не упоминали, указав лишь, что «Положения гражданского законодательства о роботах не применяются к программам для ЭВМ, которые, хотя и способны действовать, определять свои действия и оценивать их последствия без полного контроля со стороны человека по результатам обработки информации, поступающей из внешней среды, при этом не являются частью информационной системы обособленного устройства, предназначенного полностью или в части для осуществления фактических действий в автономном режиме»26. В настоящее время достигнутый уровень разработок в области искусственного интеллекта вполне допускает предположение, что сильный искусственный интеллект сможет иметь и виртуальную форму, при этом управлять интеллектуально более слабыми киберфизическими системами, подчинив их себе.

25 В проекте закона упоминается лишь о роботах, подобная неполнота формулировки была свойственна не только создателям данного проекта, но, например, и европейским разработчикам текста Резолюции ЕС от 16 февраля 2017 г. относительно норм гражданского права о робототехнике (European Parliament Resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics 2015/2013(INL), позднее в резолюциях ЕС 2020 года данная неточность была устранена.

26 Дмитрий Гришин представил проект регулирования правового статуса роботов в России. (2016, 17 декабря). https://robotrends.ru/pub/1650/dmitriy-grishin-predstavil-proekt-regulirovaniya-pravovogo-statusa-robotov

Подходы к наделению ИИ-систем элементами правосубъектности в рамках концепции, рассматриваемой в данном разделе, можно сравнить с конструктором, позволяющим выстроить новое, используя имеющийся материал из концепций, раскрытых в предыдущих разделах статьи, путем комбинирования, учета функциональных характеристик ИИ-систем и круга задач, для решения которых конкретная модель искусственного интеллекта предназначена. Исходя из этого, стоит считать градиентную концепцию имеющей наибольшие шансы на реализацию в рамках существующего правопорядка.

Определение правового статуса искусственных интеллектуальных систем — вопрос, вызывающий с течением времени все более оживленные дискуссии в среде правоведов. Можно согласиться с У Пагалло, одним из наиболее углубившихся в эту тему исследователей, что вряд ли в ближайшие годы будут найдены решения «для всех сложных случаев и дилемм», связанных с искусственным интеллектом, тем не менее, предотвращая «поляризацию сегодняшних дебатов, методы правовой гибкости и прагматического экспериментирования» позволяют рационально решить даже такие сложные задачи (Рада!!о, 2018).

Рассмотрев сформулированные до настоящего момента основные концепции наделения ИИ-систем правосубъектностью, следует констатировать как минимум юридическую нецелесообразность признания за искусственным интеллектом статуса субъекта права в классическом понимании теории права, но равно и чем дальше, тем меньшую возможность сохранения правового режима объекта права в существующем варианте. В современных технологических, экономических, социальных, политических и юридических реалиях, скорее всего, придется использовать комбинированный подход для определения правового статуса искусственного интеллекта. Оптимальным вариантом может стать внесение ИИ-систем в перечень объектов гражданских прав, но с дифференциацией правового регулирования искусственного интеллекта в качестве объекта права и «электронного агента» как квазисубъекта права. Линия разграничения должна проходить в зависимости от функциональных различий ИИ-систем, причем «электронным агентом» может быть признан не только робот, но и виртуальная интеллектуальная система. «Электронный агент» наделяется отдельными правами и способен выполнять некоторые юридические обязанности, а в конечном счете ответственность за его действия должен нести человек. Признание ИИ-систем «электронными лицами» представляется преждевременным как минимум до появления сильного искусственного интеллекта.

В перспективе, с учетом начавшейся трансформации права, при условии, что уже тестируются ИИ-системы для машиночитаемого права и ИИ-системы поддержки принятия решений в области публичного управления, невозможно исключить вероятность постепенного увеличения влияния искусственного интеллекта на сферу права, что будет способствовать усилению позиций искусственного интеллекта на пути к признанию статуса субъекта права и к полной «перекройке» материи права с его участием или даже под его руководством, как бы фантастично это ни звучало на первый взгляд.

Алексеев, А. Ю., Алексеева, Е. А., Емельянова, Н. Н. (2023). Искусственная личность в социально-политической коммуникации. Искусственные общества, 78(1), 1. https://doi.org/10.18254/ S207751800024370-6

Архипов, В. В., Наумов, В. Б. (2017). О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности. Закон, 5, 157-170.

Вавилин, Е. В. (2022). Статус искусственного интеллекта: от объекта к субъекту правовых отношений. Вестник Томского государственного университета. Право, 45, 147-158. https://doi. org/10.17223/22253513/45/10

Василевская, Л. Ю., Подузова, Е. Б., Тасалов, Ф. А. (2021). Цифровизация гражданского оборота: правовая характеристика «искусственного интеллекта» и «цифровых» субъектов (цивилистическое исследование) (В 5 т. Т. 3). Москва: Проспект.

Гринь, С. Н. (2018). Эмансипация роботов: элементы правосубъектности в конструкции искусственного интеллекта. Бизнес. Общество. Власть, 7(27), 233-242.

Дремлюга, Р. И., Дремлюга, О. А. (2019). Искусственный интеллект — субъект права: аргументы за и против. Правовая политика и правовая жизнь, 2, 120-125.

Ладенков, Н. Е. (2021). Модели наделения искусственного интеллекта правосубъектностью. Вестник Балтийского федерального университета им. И. Канта. Серия: Гуманитарные и общественные науки, 3, 12-20.

Лаптев, В. А. (2019). Понятие искусственного интеллекта и юридическая ответственность за его работу. Право. Журнал Высшей школы экономики, 2, 79-102. https://doi.org/10.17323/2072-8166.2019.2.79.102

Морхат, П. М. (2018a). Правосубъектность юнита искусственного интеллекта: некоторые гражданско-правовые подходы. Вестник КГУ, 3, 280-283.

Морхат, П. М. (2018b). Юнит искусственного интеллекта как электронное лицо. Вестник МГОУ. Серия: Юриспруденция, 2, 61-73. https://doi.org/10.18384/2310-6794-2018-2-61-73

Мусина, К. С. (2023). Идентификация правосубъектности искусственного интеллекта: кросснациональный анализ законодательств зарубежных стран. Вестник Российского университета дружбы народов. Серия: Юридические науки, 27(1), 135-147. https://doi.org/10.22363/2313-2337-2023-27-1-135-147

Наумов, В. Б., Архипов, В. В. (2017). Проект Федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники». В сб.: Н. А. Шевелёва (ред.), Право и информация: вопросы теории и практики: сборник материалов VII Международной научно-практической конференции. Сер. «Электронное законодательство», 7 (с. 220-226). Санкт-Петербург: Президентская бибилиотека.

Нечкин, А. В. (2020). Конституционно-правовой статус искусственного интеллекта в России: настоящее и будущее. Lex Russica, 8(165), 78-85. https://doi.org/10.17803/1729-5920.2020.165.8.078-085

Петев, Н. И. (2022). Экзистенциальная, правовая и этическая проблемы искусственного интеллекта. Векторы благополучия: экономика и социум, 2(45), 55-70. https://doi.org/10.18799/26584956/2022 /2/1159

Понкин, И. В., Редькина, А. И. (2018). Искусственный интеллект с точки зрения права. Вестник Российского университета дружбы народов. Серия: Юридические науки, 7, 91-109. https://doi.org/10.22363/2313-2337-2018-22-1-91-109

Попова, А. В. (2018). Новые субъекты информационного общества и общества знания: к вопросу о нормативном правовом регулировании. Журнал российского права, 7 7(263), 14-24. https://doi. org/10.12737/art_2018_11_2

Санфилиппо, Ч. (2007). Курс римского частного права: учебник (пер. с итал. И. И. Маханькова, под общ. ред. Д. В. Дождева). Москва: Норма, 2007.

Соменков, С. А. (2019). Искусственный интеллект: от объекта к субъекту?. Вестник Университета имени О. Е. Кутафина, 2(54), 75-85.

Ужов, Ф. В. (2017). Искусственный интеллект как субъект права. Пробелы в российском законодательстве, 3, 357-360.

Харитонова, Ю. С., Савина, В. С., Паньини, Ф. (2022). Гражданско-правовая ответственность при разработке и применении систем искусственного интеллекта и робототехники: основные подходы. Вестник Пермского университета. Юридические науки, 58, 683-708. https://doi.org/10.17072/1995-4190-2022-58-683-708

Чаннов, С. Е. (2022). Робот (система искусственного интеллекта) как субъект (квазисубъект) права. Актуальные проблемы российского права, 77(12), 94-109. https://doi.org/10.17803/1994-1471.2022.145.12.094-109

Шуткин, С. И. (2020). Возможна ли правосубъектность искусственного интеллекта. Труды

по интеллектуальной собственности, 35(1-2), 90-137. Abbott, R. (2020). The Reasonable Robot. Artificial Intelligence and the Law. Cambridge University Press. Ashley, K. D. (2017). Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age.

Cambridge University Press. Avila Negri, S. M. C. (2021). Robot as Legal Person: Electronic Personhood in Robotics and Artificial Intelligence.

Frontiers in Robotics and AI, 8, Art. 789327. https://doi.org/10.3389/frobt.2021.789327 Balkin, J. M. (2015). The Path of Robotics Law. California Law Review, 6, 45-60.

Bertolini, A., & Episcopo, F. (2022). Robots and AI as Legal Subjects? Disentangling the Ontological and Functional Perspective. Frontiers in Robotics and AI, 9, Art. 842213. https://doi.org/10.3389/frobt.2022.842213 Bryson, J. J., Diamantis, M. E., & Grant, Th. D. (2017). Of, For, and By the People: The Legal Lacuna of Synthetic

Persons. Artificial Intelligence and Law, 25, 273-291. Calo, R. (2015). Robotics and the Lessons of Cyberlaw. California Law Review, 703(3), 513-563. Chesterman, S. (2020). Artificial Intelligence and the Limits of Legal Personality. International & Comparative

Law Quarterly, 69, 819-844. https://doi.org/10.1017/s0020589320000366 Chopra, S., & White, L. (2004). Artificial Agents — Personhood in Law and Philosophy. In Proceedings of the 76th Eureopean Conference on Artificial Intelligence, ECAI'2004, including Prestigious Applicants of Intelligent Systems, PAIS 2004 (pp. 635-639). Valencia: IOS Press. Gellers, J. C. (2021). Rights for Robots. Artificial Intelligence, Animal and Environmental Law. London: Routledge. Greenstein, S. (2022). Preserving the rule of law in the era of artificial intelligence (AI). Artificial Intelligence and Law, 30, 291-323.

Hars, A. (2022). AI and international law — Legal personality and avenues for regulation. Hungarian Journal

ofLegal Studies, 62(4), 320-344. https://doi.org/10.1556/2052.2022.00352 Karnouskos, S. (2022). Symbiosis with artificial intelligence via the prism of law, robots, and society. Artificial

Intelligence and Law, 30, 93-115. McCarty, L. T. (2017). Finding the Right Balance in Artificial Intelligence and Law. In Research Handbook on the Law

of Artificial Intelligence (Chapter 3, pp. 55-87). Edward Elgar Publishing. McNally, Ph., Inayatullah, S. (1988). The Rights of Robots: Technology, Culture and Law in the 21st Century.

Futures, 20(1), 119-136. https://doi.org/10.1016/0016-3287(88)90019-5 Mocanu, D. M. (2021). Gradient Legal Personhood for AI Systems — Painting Continental Legal Shapes Made to Fit Analytical Molds. Frontiers in Robotics and AI, 8, Art. 788179. https://doi.org/10.3389/frobt.2021.788179 Mulgan, T. (2019). Corporate Agency and Possible Futures. Journal of Business Ethics, 754, 901-916. https://

doi.org/10.1007/s10551-018-3887-1 Pagallo, U. (2018). Apples, oranges, robots: four misunderstandings in today's debate on the legal status of AI systems. Philosophical Transactions of the Royal Society, 376(2133), Art. 20180168. https://doi.org/10.1098/ rsta.2018.0168

Solaiman, S. M. (2017). Legal Personality of Robots, Corporations, Idols and Chimpanzees: A Quest for Legitimacy. Artificial Intelligence and Law, 25(2), 155-179. https://doi.org/10.1007/s10506-016-9192-3 Solum, L. B. (1992). Legal Personhood for Artificial Intelligences. North Carolina Law Review, 70(4), 1231-1287. Stiglitz, J. E. (2017). The coming great transformation. Journal of Policy Modeling, 39(4), 625-638. https://doi. org/10.1016/j.jpolmod.2017.05.009

Сведения об авторах

Филипова Ирина Анатольевна — кандидат юридических наук, доцент, доцент кафедры трудового и экологического права, Национальный исследовательский Нижегородский государственный университет имени Н. И. Лобачевского; руководитель Центрально-Азиатского исследовательского центра регулирования искусственного интеллекта, Самаркандский государственный университет Адрес: 603922, Российская Федерация, г. Нижний Новгород, проспект Гагарина, 23; 140104, Республика Узбекистан, г. Самарканд, Университетский бульвар, 15 E-mail: irinafilipova@yandex.ru ORCID ID: https://orcid.org/0000-0003-1773-5268

Scopus Author ID: https://www.scopus.com/authid/detail.uri?authorId=57327205000 Web of Science Researcher ID:

https://www.webofscience.com/wos/author/record/R-1375-2016 Google Scholar ID: https://scholar.google.com/citations?user=opJc7fcAAAAJ РИНЦ Author ID: https://www.elibrary.ru/author_items.asp?authorid=461586

Коротеев Вадим Дмитриевич — студент 4-го курса юридического факультета, Национальный исследовательский Нижегородский государственный университет имени Н. И. Лобачевского

Адрес: 603922, Российская Федерация, г. Нижний Новгород, проспект Гагарина, 23 E-mail: redsert87@gmail.com ORCID ID: https://orcid.org/0009-0004-4182-2411 Web of Science Researcher ID:

https://www.webofscience.com/wos/author/record/IAP-5405-2023 РИНЦ Author ID: https://www.elibrary.ru/author_profile.asp?id=1198439

И. А. Филипова осуществляла формулирование идеи, исследовательских целей и задач; разработку методологии; анализ и обобщение литературы; интерпретацию общих результатов исследования; критический пересмотр и редактирование текста рукописи; формулировку ключевых выводов, предложений и рекомендаций; утверждение окончательного варианта статьи.

В. Д. Коротеев осуществлял составление черновика рукописи и его критический пересмотр с внесением ценных замечаний интеллектуального содержания; участие в научном дизайне; проведение сравнительного анализа; сбор литературы; подготовку и редактирование текста статьи; интерпретацию частных результатов исследования; оформление рукописи.

И. А. Филипова является заместителем главного редактора журнала, статья прошла рецензирование на общих основаниях.

Исследование не имело спонсорской поддержки.

Рубрика OECD: 5.05 / Law Рубрика ASJC: 3308 / Law Рубрика WoS: OM / Law

Рубрика ГРНТИ: 10.07.45 / Право и научно-технический прогресс Специальность ВАК: 5.1.1 / Теоретико-исторические правовые науки

Дата поступления — 23 апреля 2023 г. Дата одобрения после рецензирования — 8 мая 2023 г. Дата принятия к опубликованию — 16 июня 2023 г. Дата онлайн-размещения — 20 июня 2023 г.

Check for updates

Future of the Artificial Intelligence: Object of Law or Legal Personality?

Irina A. Filipova H

National Research Lobachevsky State University of Nizhny Novgorod Nizhny Novgorod, Russian Federation; Samarkand State University Samarkand, Republic of Uzbekistan

Vadim D. Koroteev ©

National Research Lobachevsky State University of Nizhny Novgorod Nizhny Novgorod, Russian Federation

Artificial intelligence, cyberphysical system, digital technologies, electronic person, generative model, intellectual system, law,

legal personality, quasi subject of law, robot

Objective: to reveal the problems associated with legal regulation of public relations, in which artificial intelligence systems are used, and to rationally comprehend the possibility of endowing such systems with a legal subject status, which is being discussed by legal scientists.

Methods: the methodological basis of the research are the general scientific methods of analysis and synthesis, analogy, abstraction and classification. Among the legal methods primarily applied in the work are formal-legal, comparative-legal and systemic-structural methods, as well as the methods of law interpretation and legal modeling.

Results: the authors present a review of the state of artificial intelligence development and its introduction into practice by the time of the research. Legal framework in this sphere is considered; the key current concepts of endowing artificial intelligence with a legal personality (individual, collective and gradient legal personality of artificial intelligence) are reviewed. Each approach is assessed; conclusions are made as to the most preferable

H Corresponding author © Filipova I. A., Koroteev V. D., 2023

This is an Open Access article, distributed under the terms of the Creative Commons Attribution licence (CC BY 4.0) (https://creativecommons.org/licenses/by/4.0), which permits unrestricted re-use, distribution and reproduction, provided the original article is properly cited.

amendments in the current legislation, which ceases to correspond to the reality. The growing inconsistency is due to the accelerated development of artificial intelligence and its spreading in various sectors of economy, social sphere, and in the nearest future — in public management. All this testifies to the increased risk of a break between legal matter and the changing social reality.

Scientific novelty: scientific approaches are classified which endow artificial intelligence with a legal personality. Within each approach, the key moments are identified, the use of which will allow in the future creating legal constructs based on combinations, avoiding extremes and observing the balance between the interests of all parties. The optimal variant to define the legal status of artificial intelligence might be to include intellectual systems into a list of civil rights objects, but differentiating the legal regulation of artificial intelligence as an object of law and an "electronic agent" as a quasi subject of law. The demarcation line should be drawn depending on the functional differences between intellectual systems, while not only a robot but also a virtual intellectual system can be considered an "electronic agent".

Practical significance: the research materials can be used when preparing proposals for making amendments and additions to the current legislation, as well as when elaborating academic course and writing tutorials on the topics related to regulation of using artificial intelligence.

Filipova, I. A., Koroteev, V. D. (2023). Future of the Artificial Intelligence: Object of Law or Legal Personality? Journal ofDigital Technologies and Law, 7(2), 359-386. https://doi.org/10.21202/jdtl.2023.15

Abbott, R. (2020). The Reasonable Robot. Artificial Intelligence and the Law. Cambridge University Press.

Alekseev, A., Alekseeva, E., & Emelyanova, N. (2023). Artificial Personality in socio-political communication. Artificial Societies, 78(1). (In Russ.). https://doi.org/10.18254/s207751800024370-6

Arkhipov, V. V., & Naumov, V. B. (2017). On certain issues of theoretic grounds for development of robotics legislation: the aspects of will and legal personality. Statute, 5, 157-170. (In Russ.).

Ashley, K. D. (2017). Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age. Cambridge University Press.

Avila Negri, S. M. C. (2021). Robot as Legal Person: Electronic Personhood in Robotics and Artificial Intelligence. Frontiers in Robotics and AI, 8, Art. 789327. https://doi.org/10.3389/frobt.2021.789327

Balkin, J. M. (2015).The Path of Robotics Law. California Law Review, 6, 45-60.

Bertolini, A., & Episcopo, F. (2022). Robots and AI as Legal Subjects? Disentangling the Ontological and Functional Perspective. Frontiers in Robotics and AI, 9, Art. 842213. https://doi.org/10.3389/frobt.2022.842213

Bryson, J. J., Diamantis, M. E., & Grant, Th. D. (2017). Of, For, and By the People: The Legal Lacuna of Synthetic Persons. Artificial Intelligence and Law, 25, 273-291.

Calo, R. (2015). Robotics and the Lessons of Cyberlaw. California Law Review, 703(3), 513-563.

Channov, S. E. (2022). Robot (Artificial Intelligence System) as a Subject (Quasi-Subject) of Law. Actual Problems of Russian Law, 77(12), 94-109. (In Russ.). https://doi.org/10.17803/1994-1471.2022.145.12.094-109

Chesterman, S. (2020). Artificial Intelligence and the Limits of Legal Personality. International & Comparative

Law Quarterly, 69, 819-844. https://doi.org/10.1017/s0020589320000366 Chopra, S., & White, L. (2004). Artificial Agents — Personhood in Law and Philosophy. In Proceedings of the 16th European Conference on Artificial Intelligence, ECAI'2004, including Prestigious Applicants of Intelligent Systems, PAIS 2004 (pp. 635-639). Valencia: IOS Press. Dremliuga, R. I., & Dremliuga, O. A. (2019). Artificial intelligence — a legal person: the arguments for and against.

Pravovaya politika i pravovaya zhizn, 2, 120-125. (In Russ.). Gellers, J. C. (2021). Rights for Robots. Artificial Intelligence, Animal and Environmental Law. London: Routledge. Greenstein, S. (2022). Preserving the rule of law in the era of artificial intelligence (AI). Artificial Intelligence and Law, 30, 291-323.

Grin, S. N. (2018). Robots' emancipation: elements of legal personhood in the construct of artificial intelligence.

Biznes. Obshchestvo. Vlast, 7(27), 233-242. (In Russ.). Hars, A. (2022). AI and international law — Legal personality and avenues for regulation. Hungarian Journal

ofLegal Studies, 62(4), 320-344. https://doi.org/10.1556/2052.2022.00352 Karnouskos, S. (2022). Symbiosis with artificial intelligence via the prism of law, robots, and society. Artificial

Intelligence and Law, 30, 93-115. Kharitonova, Yu. S., Savina, V. S., & Pagnini, F. (2022). Civil liability in the development and application of artificial intelligence and robotic systems: basic approaches. Perm University Herald. Juridical sciences, 4(58), 683-708. (In Russ.). https://doi.org/10.17072/1995-4190-2022-58-683-708 Ladenkov, N. S. (2021). Models of endowing artificial intelligence with legal personality. Vestnik IKBFU. Humanities

and Social Sciences, 3, 12-20. (In Russ.). Laptev, V. A. (2019). Artificial Intelligence and Liability for its Work. Pravo. Zhurnal Vysshey Shkoly Ekonomiki,

2, 79-102. (In Russ.). https://doi.org/10.17323/2072-8166.2019.2.79.102 McCarty, L. T. (2017). Finding the Right Balance in Artificial Intelligence and Law. In Research Handbook on the Law

of Artificial Intelligence (Chapter 3, pp. 55-87). Edward Elgar Publishing. McNally, Ph. & Inayatullah, S. (1988). The Rights of Robots: Technology, Culture and Law in the 21st Century.

Futures, 20(1), 119-136. https://doi.org/10.1016/0016-3287(88)90019-5 Mocanu, D. M. (2021). Gradient Legal Personhood for AI Systems — Painting Continental Legal Shapes Made to Fit Analytical Molds. Frontiers in Robotics and AI, 8, Art. 788179. https://doi.org/10.3389/frobt.2021.788179 Morkhat, P. M. (2018a). Artificial intelligence unit as electronic personality. Bulletin of the Moscow State Regional

University (Jurisprudence), 2, 61-73. (In Russ.). https://doi.org/10.18384/2310-6794-2018-2-61-73 Morkhat, P. M. (2018b). Legal personality of artificial intelligence unit: some civil-legal approaches. Bulletin

ofKostroma State University, 3, 280-283. (In Russ.). Mulgan, T. (2019). Corporate Agency and Possible Futures. Journal of Business Ethics, 154, 901-916. https://

doi.org/10.1007/s10551-018-3887-1 Musina, K. S. (2023). Theoretical aspects of identifying legal personality of artificial intelligence: cross-national analysis of the laws of foreign countries. RUDN Journal of Law, 27(1), 135-147. (In Russ.). https://doi. org/10.22363/2313-2337-2023-27-1-135-147 Naumov, V. B., & Arkhipov, V. V. (2017). Draft Federal law "On amendments to the Civil Code of the Russian Federation in improving the legal regulation of relations in the field of robotics". In N. A. Sheveleva (Ed.), Law and Information: the Questions of Theory and Practice: Collection of works of international scientific and practical conference. Saint Petersburg: The Presidential Library. (In Russ.). Nechkin, A. V. (2020). Constitutional and Legal Status of Artificial Intelligence in Russia: Present and Future.

Lex Russica, 8, 78-85. (In Russ.). https://doi.org/10.17803/1729-5920.2020.165.8.078-085 Pagallo, U. (2018). Apples, oranges, robots: four misunderstandings in today's debate on the legal status of AI systems. Philosophical Transactions of the Royal Society, 376(2133), Art. 20180168. https://doi. org/10.1098/rsta.2018.0168 Petev, N. I. (2022). Existential, legal and ethical problems of artificial intelligence. Journal of Wellbeing Technologies,

2(45), 55-70. (In Russ.). https://doi.org/10.18799/26584956/2022/2Z1159 Ponkin, I. V., & Redkina A. I. (2018). Artificial Intelligence from the Point of View of Law. RUDN Journal of Law,

22(1), 91-109. (In Russ.). https://doi.org/10.22363/2313-2337-2018-22-1-91-109 Popova, A. V. (2018). New Subjects of the Information Society and the Knowledge Society: To the Question of Legal Regulation, Journal of Russian Law, 6(11), 14-24. (In Russ.). https://doi.org/10.12737/art_2018_11_2 Sanfilippo, Ch. (2007). Course in Roman private law: tutorial (transl. by I. I. Makhankov, D. V. Dozhdev (Ed.)). Moscow: Norma. (In Russ.).

Shutkin, S. I. (2020). Is legal personhood of AI possible? Works on Intellectual Property, 35(1 -2), 90-137. (In Russ.). Solaiman, S. M. (2017). Legal Personality of Robots, Corporations, Idols and Chimpanzees: A Quest for Legitimacy.

Artificial Intelligence and Law, 25(2), 155-179. https://doi.org/10.1007/s10506-016-9192-3 Solum, L. B. (1992). Legal Personhood for Artificial Intelligences. North Carolina Law Review, 70(4), 1231-1287. Somenkov, S. A. (2019). Artificial intelligence: from object to subject? Courier of the Kutafin Moscow State Law

University, 2(54), 75-85. (In Russ.). Stiglitz, J. E. (2017). The coming great transformation. Journal of Policy Modeling, 39(4), 625-638. https://doi.

org/10.1016/j.jpolmod.2017.05.009 Uzhov, F. V. (2017). Legal personality of artificial intelligence. Gaps in Russian Legislation, 3, 357-360. (In Russ.). Vasilevskaya, L. Yu., Poduzova, E. B., & Tasalov, F. A. (2021). Digitalization of civil turnover: legal characteristics of"artificial intelligence"and "digital"subjects (civilistic research) (In 5 vol. Vol. 3). Moscow: Prospect. (In Russ.). Vavilin, E. V. (2022). The status of artificial intelligence: from object to the subject of legal relations. Vestnik Tomskogo Gosudarstvennogo Universiteta. Pravo, 45, 147-158. (In Russ.). https://doi.org/10.17223/22253513/45/10

Irina A. Filipova — Candidate of Sciences in Jurisprudence, Associate Professor, Associate Professor of the Department of Labor Law and Environmental Law, National Research Lobachevsky State University of Nizhny Novgorod, Head of Central Asia research center for artificial intelligence regulation, Samarkand State University Address: 23 prospekt Gagarina, Nizhniy Novgorod 603922, Russian Federation; 15 Universitetskiy boulevard, Samarkand 140104, Republic of Uzbekistan E-mail: irinafilipova@yandex.ru ORCID ID: https://orcid.org/0000-0003-1773-5268

Scopus Author ID: https://www.scopus.com/authid/detail.uri?authorId=57327205000 Web of Science Researcher ID:

https://www.webofscience.com/wos/author/record/R-1375-2016 Google Scholar ID: https://scholar.google.com/citations?user=opJc7fcAAAAJ RSCI Author ID: https://www.elibrary.ru/author_items.asp?authorid=461586

Vadim D. Koroteev — 4th year student of Law Faculty, National Research Lobachevsky State University of Nizhny Novgorod

Address: 23 prospekt Gagarina, Nizhniy Novgorod 603922, Russian Federation

ORCID ID: https://orcid.org/0009-0004-4182-2411

Web of Science Researcher ID:

https://www.webofscience.com/wos/author/record/IAP-5405-2023 RSCI Author ID: https://www.elibrary.ru/author_profile.asp?id=1198439

Irina A. Filipova formulated the research idea, goals and objectives; elaborated the methodology; analyzed and summarized literature; interpreted general research results; critically reviewed and edited the manuscript text; formulated the key conclusions, proposals and recommendations; approved the final variant of the article. Vadim D. Koroteev compiled the manuscript draft and critically reviewed it, adding valuable comments on the intellectual content; participated in scientific design; performed comparative analysis; selected literature; prepared and edited the manuscript text; interpreted the specific research results; finalized the manuscript.

Conflict of interests

I. A. Filipova is a Deputy Editor-in-Chief of the Journal; the article has been reviewed on general terms.

The research was not sponsored.

OECD: 5.05 / Law PASJC: 3308 / Law WoS: OM / Law

Date of receipt — April 23, 2023 Date of approval — May 8, 2023 Date of acceptance — June 16, 2023 Date of online placement — June 20, 2023

Искусственный интеллект: юридические аспекты

Право в условиях цифровизации должно выступать регулятором технологических процессов, «определять социально оправданный коридор вторжения человека в искусственный мир новых технологий». Это слова судьи Конституционного Суда России Николая Бондаря, с которыми нельзя не согласиться.

В.Н. Синюков также обращает внимание на влияние технологий на развитие правового регулирования, отмечая, что «прогресс техники радикально меняет образ жизни людей, экономический уклад, и это требует новаторского правового регулирования». В контексте глобальной цифровизации технологии искусственного интеллекта все больше оказывают влияние на различные сферы деятельности человека.

Сейчас существенно выросло внедрение искусственного интеллекта (ИИ) в компаниях в самых различных сферах и в разных вариантах применения (автоматизация процессов, машинное обучение, диалоговые интерфейсы, понимание машиной естественных языков и т.д.). Искусственный интеллект активно внедряется в исследование рынков, сборы данных, управление финансами, медицину, техническое обслуживание коммуникаций, транспорт, а также и в сферу искусства, патентные поиски и патентные анализы. Поэтому является актуальным вопрос о том, что же понимается под искусственным интеллектом и как понимается искусственный интеллект в праве.

Переход общества на новый технологический уровень, свидетелями которого мы являемся, предполагает появление четвертой платформы правопорядка, которую можно назвать информационно-технологической, или цифровой. Если ранее технологическое развитие было внешним фактором генезиса права и правопорядка, то в настоящее время технологии начинают определять существо права и пределы действия последнего. И именно появление искусственного интеллекта и есть та точка фазового перехода, за которой современный правопорядок приобретает принципиально новые качественные и структурные характеристики.

Как справедливо отмечает В.В. Блажеев, «попытки государственного регулирования искусственного интеллекта как в России, так и в других странах мира подтолкнули исследователей в области права к постановке проблем, связанных с необходимостью создания эффективного механизма правового регулирования искусственного интеллекта, создающего четкое разграничение зон ответственности между разработчиками и пользователями систем с искусственным интеллектом и самими технологиями, внедрением унифицированных этических принципов для таких систем».

Наиболее общим образом искусственный интеллект может быть определен как технология, определяющая способность некой информационной системы без непосредственного участия человека правильно интерпретировать внешние данные (внешнюю информацию), уточнять базу (базы) данных с их учетом, извлекать уроки из допущенных ошибок и использовать полученные знания для достижения конкретных целей, решения конкретных задач посредством гибкой адаптации в условиях плохо определенной ситуации.

Согласно Патрику Генри Уинстону, в числе важнейших задач разработки и внедрения искусственного интеллекта — задачи понять и научиться применять в технике и технологии принципы, лежащие в основе естественного интеллекта, сделать вычислительные машины более полезными, привлечь таковые к разрешению сложных проблем.

При этом, несмотря на широкую распространенность как в профессиональной среде, так и среди обывателей, понятие «искусственный интеллект» сохраняет указанную выше условность и характеризуется расплывчатостью. В целом его даже нельзя считать единым, поскольку данным термином обозначаются весьма разнообразные технологии, среди которых в настоящее время преобладают те, в основе которых лежат искусственные нейронные сети.

Несмотря на то, что границы понятия искусственного интеллекта могут быть размытыми, следует принимать во внимание, что основополагающей целью исследования и применения такого рода технологий всегда была автоматизация или воссоздание интеллектуального поведения. Согласно одному из определений, искусственный интеллект — это теория и разработка компьютерных систем, способных выполнять задачи, которые требуют человеческого интеллекта — такие, как визуальное восприятие, распознавание речи, принятие решений и перевод между языками.

Ронал Чандра и Йога Приастомо определяют искусственный интеллект как способность машины (компьютерной системы) функционировать таким образом, как будто машина имеет способность мыслить как человек.

Эндрю Хаскинс, Сурабхи Арора и Уттара Нилавар указывают, что существуют и содержательно более широкие определения понятия искусственного интеллекта. Так, искусственный интеллект может рассматриваться как коммуникативно-логистическая платформа, лежащая в основе, как минимум, десятка перспективных технологий, включая мобильный интернет, «интернет вещей», продвинутую робототехнику и автономные средства передвижения. Эти технологии используют либо автоматизированные логику и рассуждения, либо крупномасштабную обработку сверхбольших массивов данных.

Обычно разделяют слабый и сильный искусственный интеллект, подразумевая, что сильный искусственный интеллект способен мыслить и осознавать себя, а слабый искусственный интеллект так поступать не может. По мнению арбитражного судьи и Подмосковья П.М. Морхата, термин «слабый искусственный интеллект» используется для того, чтобы подчеркнуть его ограниченность одной установленной (предписанной, вмененной) задачей.

Следует отметить, что робототехника и искусственный интеллект не являются синонимами. Робототехника позиционирует себя как определенная отрасль, которая внедряет в ту или иную область роботов, т.е. программируемых машин, которые могут автономно или автоматически выполнять те или иные действия. Искусственный интеллект, в свою очередь, предназначен для выполнения тех задач, которые могут быть решены без участия интеллекта человека.

Еще недавно предполагалось, что искусственный интеллект — это заложенное в памяти программы решение, т.е. не новое решение (творческая функция), а алгоритм, содержащий решение в вычислительной программе.

Видится интересным раскрытие данной категории в нормативных актах, посвященных техническому регулированию. Так, искусственный интеллект — моделируемая (искусственно воспроизводимая) интеллектуальная деятельность мышления человека (п. 3.17. ГОСТ Р 43.0.5-2009 «Информационное обеспечение техники и операторской деятельности. Процессы информационно-обменные в технической деятельности. Общие положения»). При этом под интеллектом понимается способность субъекта (оператора) к отвлеченному мышлению, абстрагированию, позволяющая с возникновением самосознания и рефлексии использовать имеющуюся у него информацию некоторым полезным целенаправленным образом (п. 3.10). При таком раскрытии понятия «искусственный интеллект» используются его практические свойства как явления в информационно-обменном процессе.

В России принята утвержденная Указом Президента РФ от 10 октября 2019 г. N 490 Национальная стратегия развития искусственного интеллекта, которая определяет искусственный интеллект как комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека. Подчеркивается, что комплекс технологических решений включает информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе то, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.

«Основными факторами развития технологий искусственного интеллекта являются увеличение объема доступных данных, в том числе данных, прошедших разметку и структурирование, и развитие информационно-коммуникационной инфраструктуры для обеспечения доступа к наборам таких данных», — гласит п. 37 стратегии.

Технологии искусственного интеллекта, роботов и робототехники относятся к инновационным цифровым технологиям. Зарубежный опыт свидетельствует о необходимости использования регуляторных «песочниц» с целью создания гибкой системы нормативно-правового регулирования, допускающей возможности тестирования и ограниченного использования таких технологий, гарантирующей безопасность населения и направленной на стимулирование их развития. Подобные «песочницы» успешно функционируют в Австралии, Бахрейне, Великобритании, Индонезии, Канаде, Китае, Малайзии, ОАЭ, Сингапуре, США, Таиланде, Швейцарии. В 2020 г. в России принят закон о функционировании экспериментального правового режима в г. Москве («О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта…»).

По всей видимости, новые комплексные правовые режимы применения технологий ИИ будут формироваться по мере совершенствования технологических решений и развития соответствующих национальных правовых доктрин от экспериментальных до типовых (базовых), от наделения ИИ правовыми характеристиками исключительно объекта гражданских правоотношений (инструмента) до субъектно-объектного формата, где ИИ может выступать одновременно и как объект вещно-правовых и обязательственных отношений, и как субъект, имеющий специальную правосубъектность, выполняющий в очерченных рамках строго определенные функции.

Человечество стоит на пороге глобальной трансформации права вслед за новой технологической социально-экономической реальностью, когда «неживое» начинает автономно имитировать «живое», когда совершенствование искусственных нейросетей (копирующих биологические нейронные сети) может в итоге сформировать возможность не только принимать решения на основе исходных и запрограммированных данных, но и производить эмоции, волю (как внешнюю, выраженную изъявлением вовне, так и внутреннюю — как нейронный процесс оценки принятого решения) и в целом определенную культурную, психоэмоциональную составляющую.

Таким образом, во-первых, правосубъектность ИИ необходима для того, чтобы ИИ был ограничен в своих правах конкретным функциональным предназначением. Наличие прав и обязанностей у ИИ будет обязывать разработчиков данных высоких технологий, нейросетей наделять тот или иной тип или вид ИИ соответствующими технологическими возможностями.

Во-вторых, достаточно наделить ИИ конкретным набором прав и обязанностей, т.е. предусмотреть специальную техническую правосубъектность.

В-третьих, в дальнейшем увеличивать количество и набор прав и обязанностей, гражданско-правовую и административную ответственность ИИ можно будет в зависимости от технологических возможностей ИИ, его совершенствования и безопасного функционирования и, конечно, функциональной целесообразности.

В-четвертых, системы ИИ с учетом их функциональных возможностей гипотетически могут обладать статусом: а) объекта правоотношений; б) агента в реализации гражданских, процессуальных и иных субъективных прав и обязанностей; в) субъекта права с ограниченной специальной технической правосубъектностью; г) универсального сильного ИИ с широким набором прав и обязанностей, например при осуществлении попечительства или опеки.

При этом ответственность за принятие решений ИИ в субсидиарном (или солидарном) порядке может быть сохранена за разработчиком и лицом, влияющим на принимаемые ИИ решения, например бенефициаром.

Соответственно, создание правовой среды, формирование принципиально новой фундаментальной основы гражданско-правового и процессуального регулирования отношений в цифровой экономике должны происходить скоординированно, в определенной степени синхронно, с учетом развития системообразующих цифровых технологий: беспроводной передачи данных (сотовая связь, Bluetooth, Wi-Fi), биоинженерных (Biotech), больших данных (big data), дополненной реальности (augmented reality), индустриального Интернета вещей (Industrial Internet of Things, IIoT), искусственной реальности (virtual reality), квантовых технологий, нейросетей (взаимодействие искусственных нейронов на основе принципов жизнедеятельности биологических нейронных сетей), «облачных» хранилищ и вычислений данных, технологии распределенного реестра (Blockchain), ИИ (Artificial Intelligence, AI), цифровых платформ, новых производственных технологий по созданию кастомизированных продуктов.

Конституционное, гражданское, административное и уголовное судопроизводства, без сомнения, будут трансформированы с учетом новейших информационных и цифровых технологий, использования ИИ. Остается только подписаться под словами российского лидера, произнесенными им зимой в 2019 году во время послания парламентариям: «Все наше законодательство нужно настроить на новую технологическую реальность».

К 2021 г. в разных странах накоплен собственный опыт законодательного регулирования отношений, возникающих в связи с развитием искусственного интеллекта, — от национальных стратегий ИИ до принципов применения ИИ в конкретных сферах.

Регулировать искусственный интеллект — это сложная и дуальная задача. Чрезмерное регулирование ИИ может отрицательно сказаться на инновациях, в то время как недостаточное регулирование ИИ может привести к серьезному ущербу прав граждан, а также к потере возможности формировать будущее цивилизованное общество.

Таким образом, регулирование не может быть технологически нейтральным, поскольку оно направлено на управление социальными изменениями, которые технология с ее особенностями вызывает. Технологическая нейтральность влечет возможность одного конкретного регулирования, применимого в равной степени к любой технологической ситуации, в случае с технологиями ИИ это проблематично и приведет к неэффективности правового регулирования.

Искусственный интеллект и его карго-культ

Искусственный интеллект как объект веры и надежды

Искусственный интеллект сейчас находится на пике интереса – у кого-то он вызывает самые мрачные опасения («это наше самое великое изобретение – и последнее в нашей истории»), у кого-то – напротив, вполне религиозные упования на грядущего силиконового спасителя.

Довольно часто ссылки на ИИ используются и для провозглашения физикалистской, материалистической картины сознания – вот компьютер, который не создан по образу Божию и не обладает ничем похожим на бессмертную душу, и он ведет себя всё более и более похоже на человека. Следовательно, и человеку нет оснований приписывать «образ Божий» и «бессмертную душу».

От искусственного интеллекта ожидается, что он решит все наши проблемы – победит старость, болезни и саму смерть.

Люди начнут сначала постепенно встраивать в свой организм искусственные элементы – например, память, которая позволит никогда и ничего не забывать, или процессор, позволяющий производить сложные вычисления в уме, – а потом превратятся в полностью искусственных существ. Перспектива, которая у многих вызывает живейший энтузиазм.

Как пишет итальянский ученый Джорджио Бутаццо, «Дальнейшее развитие электронного мозга, основанного на тех же принципах, что и человеческий мозг, создаст возможность для перемещения человеческого сознания на более быстрый и мощный носитель, открыв дверь к бессмертию. Освобожденные от хрупкого и распадающегося тела, люди, наделенные синтетическими органами, включая искусственный мозг, станут следующим этапом человеческой эволюции. Такой новый вид – естественный результат человеческого технологического прогресса – сможет быстро колонизовать вселенную, искать инопланетные цивилизации, пережить смерть солнечной системы, контролировать энергию черных дыр и перемещаться со скоростью света, передавая информацию, нужную чтобы восстановить себя на других планетах».

Не только Бутаццо говорит о «загрузке» (uploading) сознания на искусственный носитель – это популярная в некоторых кругах идея, причем религиозный характер этого упования ничуть не скрывается. Люди ищут именно победы над смертью. Как пишет отечественный специалист по компьютерному обучению Сергей Марков, «Все в какой-то момент задумываются о смерти. У меня это произошло лет в девять-десять, и мысли о том, что умрут родители, что умру я, вызывали весьма тяжёлые переживания. Взрослея, люди учатся отвлекаться, чтобы не испытывать экзистенциальный ужас непрерывно, изобретают какие-то формы самообмана, создают в мыслях сценарии, снижающие общую тревожность. У кого-то в их основу ложатся религиозные фантазии – жизнь после смерти. У человека более рационального подобный внутренний нарратив чаще основывается на мыслях о технологиях, которые когда-то будут доступны: мне обязательно повезёт, я всё-таки не умру по крайней мере ещё сотню-другую лет. Однако есть надежда, что мы всё-таки создадим технологии, которые позволят надолго отсрочить наступление уже маячащей на горизонте неумолимой смерти».

Впервые идею пересадки сознания в компьютер выдвинул польский фантаст Станислав Лем еще в 1957 году в своей книге «Диалоги». В наши дни к ней относятся в высшей степени серьезно. Например, проект «Blue Brain Project», работа над которым началась в июле 2005 в компании IBM совместно со Швейцарским Федеральным Техническим Институтом Лозанны (Федеральная политехническая школа Лозанны), посвящен идее компьютерного моделирования человеческого мозга. Пока успехи довольно скромны – ученым, как утверждается, удалось смоделировать одну колонку новой коры молодой крысы. Но работа продолжается.

Другой проект – «The Human Brain Project (HBP)» финансируется Европейским Союзом и включает сотни ученых из 26 стран мира и 135 партнерских институтов. Бюджет проекта, как сообщается, составляет 1,6 млрд долларов.

Российский предприниматель Дмитрий Ицков в 2011 году основал «Проект 2045», в который вовлечены «ведущие специалисты в области нейронных интерфейсов, робототехники и искусственных органов». Главная цель проекта – создание технологии, позволяющей перенести личность человека на более совершенный носитель с целью достижения «кибернетического бессмертия».

Как говорит Давид Дубровский, заместитель председателя научного совета РАН по методологии искусственного интеллекта, «Вековечная идея бессмертия выражалась в мифах, сказках, религиозных верованиях. Отсюда – предубеждение о её несовместимости с наукой. Но что бы ни говорили, идея бессмертия сохраняет в человеческой культуре ранг высшей ценности, выражает невозможность примирения человека со смертью, его волю к жизни. Примерьте это к себе, читатель! Разве у вас нет страха смерти – своей и ваших близких? Разве вы не стремитесь во что бы то ни стало продлить свою жизнь? Мы искусно вытесняем такой страх, знание о своей смертности. И в этом тоже проявляется воля к жизни как высшей ценности».

Но упования на искусственный интеллект идут дальше – люди веруют в пришествие искусственного бога и спасителя.

Предполагается, что компьютеры уже скоро, на протяжении ближайших десятилетий сравняются в мощности с человеческим мозгом, обретут волю и личное самосознание, и человечество, таким образом, породит следующую ступень эволюции – разумных существ, которые будут значительно превосходить своих создателей.

Сверхмощные компьютеры разработают, уже без помощи людей, еще более мощные, те породят Интеллект столь могучий, что совершится событие, которое во взглядах адептов технокультов аналогично Второму Пришествию в Христианстве – «сингулярность». Совершится преображение всего мироздания мощью искусственного разума, который, познав все тайны природы, найдет даже способ воскресить мертвых.

Инженер из силиконовой долины Энтони Левандовский уже основал «церковь» под названием «Путь будущего», которая, как он надеется, привлечет общественное внимание к возможностям искусственного интеллекта: «Мы находимся в процессе выращивания бога. Давайте хорошенько обдумаем это. Это невероятная возможность».

Некоторые смотрят на такую перспективу с ужасом – мол, в самом лучшем случае сверхразум будущего будет смотреть на нас, как мы на обезьян, кто-то, напротив, с упованием – это будет благое божество, которое избавит нас от болезней и смерти.

Есть ли основания для такого рода надежд (и страхов)? Стоит ли нам ожидать появления искусственного сознания? На первый взгляд, для этого есть основания.

Роботы начинают делать то, что еще недавно считалось исключительной прерогативой человека – например, сочинять осмысленные тексты. Статьи, стихи, проповеди, судебные решения и даже мирные договоры. Они могут рисовать картины по заданию пользователей – гораздо быстрее, чем профессиональные иллюстраторы.

Сейчас любой может задать нейросети вопрос – и получить вполне содержательный ответ. Более того, есть масса приложений для телефона, которые позволяют – если вы загрустили – пообщаться с терпеливым и всегда благожелательным собеседником.

Многие говорят, что мы переживаем «самую большую технологическую революцию со времен изобретения колеса».

Обладает ли искусственный интеллект волей (доброй или злой) и разумом? Может ли он обрести их в будущем?

Почему мы склонны очеловечивать ИИ

Когда мы говорим о компьютерах и искусственном интеллекте, нас преследуют три проблемы – склонность к антропоморфизации и связанное с этим использование метафорических средств речи, страстное желание видеть роботов разумными существами и привычка к научной фантастике, в которой разумные роботы – обычная часть сюжета.

Мы, люди, склонны видеть личностное присутствие даже там, где его нет. Например, нам легко увидеть черты человеческого лица в проплывающем облаке или пятне на стене. Одушевлять предметы – хорошо известная психологам склонность. Ребенок разговаривает с плюшевым мишкой, портрет на стене создает ощущение присутствия.

Мы склонны видеть волю и сознание там, где их нет.

Это отражается в том, как мы используем язык. Погода «злится», машина «капризничает», компьютер «задумался» и «тупит», или даже «вредничает». Использование терминов, которые обычно описывают эмоции, мысли или поступки людей, может создавать впечатление, что мы говорим о ком-то вроде людей – личностных, свободных, сознательных агентах.

Когда речь идет о погоде или автомобиле, мы, конечно, понимаем, что это не так. Но компьютер кажется чем-то гораздо более одушевленным – и этому можно назвать по крайней мере две причины.

Первая состоит в том, что компьютер может делать что-то, еще недавно считавшееся чисто человеческим. Например, играть (и легко выигрывать) в шахматы, переводить (всё лучше и лучше) с одного языка на другой, узнавать людей в лицо, отвечать на простые вопросы человеческим голосом и даже – пока довольно плохо – писать осмысленные тексты.

Вторая причина – это неистребимая потребность человека в надежде. Люди связывали надежду на установление эпохи мира и процветания с изобретением парового двигателя, потом электричества, а теперь – искусственного интеллекта, причём эта надежда носит явно религиозный оттенок.

Искусственный интеллект, таким образом, создает эсхатологическую надежду для атеистов на жизнь вечную и блаженную без Бога. Аргументы, могущие подорвать эту надежду, воспринимаются в штыки – как и аргументы, подрывающие любые другие искренние религиозные верования.

Тем более что разумные роботы уже давно часть нашего культурного багажа. Почти все мы легко их вспомним – романтичный робот Вертер из «Гостьи из будущего», электронные космонавты из «Дознания Пилота Пиркса», зловещий HAL 900 из «Космической Одиссеи», Терминатор, посланный из мрачного будущего Скайнетом, вполне благожелательный, несмотря на несправедливые подозрения людей, «искусственник» из «Чужого» и так далее – всех роботов, населяющих экраны и книжные страницы, невозможно и перечислить.

Эти роботы мыслят, чувствуют, общаются с людьми на равных, проявляют волю – добрую или злую – короче, ведут себя как несомненно обладающие сознанием существа. Как и люди, которые, обычно, их играют. Мы же все их видели на экране – и привыкли к мысли, что появление таких роботов просто неизбежно. Ну какое может быть будущее без разумных роботов? Это всё равно что будущее без космических кораблей.

Однако, несмотря на мощные культурные и психологические силы, порождающие эту иллюзию, она остается именно иллюзией. Искусственный интеллект не обладает – и не будет обладать – ничем, похожим на сознание. Нам стоит подробно рассмотреть, почему.

«Трудная проблема сознания», и почему сознание невозможно пересадить в компьютер

Вера в то, что сознание можно воспроизвести на искусственном носителе, связана с физикализмом – представлением о том, что всё в мире является физическим, а вселенная «каузально закрыта», то есть все причины в ней носят исключительно физическую природу, и могут быть в конечном итоге описаны на языке физики.

То, что мы называем «душой», сознание человека, его личность, воля, переживания – порождение очень сложного, во многом непонятного, но неизбежно в своей основе природного процесса, подчиненного безличным и неизменным законам. Как выражают эту позицию, например, авторы «Декларации в защиту клонирования», «Богатство мыслей, чувств, упований и надежд человечества возникает, по всей видимости, из электрохимических процессов в мозге, а не из нематериальной души, способы действия которой не может обнаружить ни один прибор».

Если сознание – это физический процесс, его, в принципе, при всей грандиозной сложности такой задачи, можно попробовать воспроизвести и на искусственном носителе, каком-нибудь суперкомпьютере, по мощности сопоставимом с человеческим мозгом.

Однако, когда мы внимательнее рассмотрим эту задачу, она оказывается нерешаемой не из-за научных или технических трудностей, которые когда-нибудь в будущем могли бы быть преодолены, а из-за природы самого сознания.

Чужое сознание

Одна из проблем связана с тем, что философы называют «привилегированным доступом». У вас есть уникальный доступ к вашим внутренним состояниям – вы непосредственно воспринимаете ваше сознание, видите себя изнутри, сознаете то, к чему нет доступа ни у кого другого – ваш опыт, мысли и чувства.

Вообразим (в порядке мысленного эксперимента), что сознание порождается мозгом, и при помощи какой-то фантастической аппаратуры будущего деятельность вашего мозга можно отсканировать и воспроизвести на искусственном носителе. Таким образом, «загрузка» удалась. Допустим также, что этот «загруженный» процесс обладает самосознанием. Вас можно поздравить с обретением вечной жизни? Но будет ли личность, полученная таким образом, «вами»?

Возможность такого воспроизведения порождает ситуацию, когда у нас могут параллельно существовать по крайней мере две личности – вы сами и ваша цифровая копия. Копия – это вы? Нет; у вас нет привилегированного доступа к переживаниям копии, следовательно, её сознание – не ваше сознание. Процесс «загрузки» (если бы он был возможен) порождал бы новое, отдельное сознание, которое не было бы вашим.

Но эта пугающая перспектива носит чисто воображаемый характер – перенос сознания на компьютер неосуществим.

Почему «пересадка сознания» невозможна

Если попробовать сформулировать проблему одной фразой, главная трудность такой пересадки в том, что компьютерные программы носят алгоритмический характер. Человеческое сознание невозможно свести к алгоритмам.

Что такое алгоритм? Это, если воспользоваться словарным определением, «совокупность точно заданных правил решения некоторого класса задач или набор инструкций, описывающих порядок действий исполнителя для решения определённой задачи».

Простейший пример алгоритма – кулинарный рецепт. «Возьмите (на входе) такие-то ингредиенты, произведите над ними такие-то действия в такой-то последовательности, получите (на выходе) яблочный пирог».

Все действия вычислительных машин неизбежно подчинены алгоритмам, заданным программистами. Эти алгоритмы могут быть очень сложными, они могут ветвиться, перестраиваться на ходу в зависимости от входящих данных, но они всегда остаются именно алгоритмами – то есть чередой действий, которые машина совершает над последовательностями нулей и единиц.

Человеческое сознание, разумеется, может обрабатывать алгоритмы. Как тот персонаж, который всё время говорил прозой, но не знал об этом, мы занимаемся этим постоянно – когда подсчитываем банкноты в бумажнике, собираем этажерку согласно прилагаемой инструкции, готовим борщ или играем в шахматы.

Компьютер может успешно (успешнее самих людей) имитировать эту сторону работы нашего сознания. Он гораздо точнее считает деньги, гораздо аккуратнее (если снабдить его манипуляторами) собирает сложные конструкции и отлично играет в интеллектуальные игры.

Но даже если бы нам удалось перенести в супермощный компьютер все алгоритмы вашего мозга, мы всё равно не смогли бы перенести туда ваше сознание – потому что сознание как таковое не алгоритмично.

Сознание характеризуется опытом от первого лица – переживанием «каково оно», или, если использовать латинский термин, устоявшийся в философии сознания, «квалиа».

Мы ощущаем цвета, мелодии, запахи – и эти ощущения обладают неустранимой субъективной, нефизической компонентой. Физические данные носят количественный характер – например, волна красного цвета обладает определенной длиной. Но длина волны ничего не говорит о том, что человек переживает, когда видит красный цвет. Это переживание носит качественный, а не количественный характер.

Один из создателей квантовой механики Эрвин Шрёдингер описал это так:

«Ощущение цвета нельзя свести к объективной картине световых волн, имеющейся у физика. Мог бы физиолог объяснить его, если бы он имел более полные знания, чем у него есть сейчас, о процессах в сетчатке, нервных процессах, запускаемых ими в пучках оптических нервов в мозге? Я так не думаю».

Представим себе, например, человека, страдающего дальтонизмом, – он не различает цвета и видит мир черно-белым. Он может прекрасно знать, что длина волны красного цвета около 700 нанометров, что красный цвет занимает такое-то место в спектре, что такие-то предметы являются красными. Он вообще может быть выдающимся специалистом в области оптики и спектрографии. Ему это будет труднее, чем человеку с обычным зрением, но не невозможно.

Более того, допустим, что он точно знает, как красный цвет воздействует на сетчатку и как сигнал передается по цепочке нейронов у человека, который, в отличие от него самого, видит красный цвет.

Он может знать о красном цвете всё, что только возможно знать. Но видел ли он когда-нибудь красный цвет? Нет, у него нет такого опыта. Всё, что он знает, он знает со стороны – от третьего лица.

Теперь представим, что каким-то чудесным образом он был излечен от дальтонизма и увидел красный цвет, теперь пережив этот опыт от первого лица.

Он увидел алые розы, румянец на щеках, полыхающий закат, тяжелые красные облачения на картинах Тициана, алые листья осенней рябины. Познал ли он что-то, чего не знал до этого? Определенно, да.

Мы не просто «обрабатываем информацию». Мы ощущаем себя и мир вокруг нас. Мы переживаем «каково оно» – прыгнуть с помоста в воду, подняв тучу брызг, спускаться с горы на лыжах, когда ветер свистит в ушах, попробовать экзотический фрукт, слушать музыку Таллиса, испытывать удовлетворение от решенной задачи, – и эти переживания составляет уникальную особенность сознания.

Это переживание – «каково оно» – не может быть передано другому человеку. Вы не можете передать вашему другу, страдающему дальтонизмом, ваш опыт переживания красного цвета. Ваш друг не может передать вам вкус блюда, которого вы никогда не пробовали, или переживание музыки, которой вы никогда не слышали.

Более того, даже если вы услышите и оцените эту музыку, вы не сможете пережить тот уникальный отклик, который она порождает именно в душе вашего друга.

Субъективные переживания такого рода тем более невозможно изложить на языке алгоритмов – а значит, пересадить в компьютер. Для этого нужно было бы как минимум изложить их объективно, «от третьего лица», в количественных категориях – а это как раз в отношении субъективного опыта невозможно.

Какие бы сложные алгоритмы ни обрабатывал компьютер, они остаются просто последовательностью действий над нулями и единицами, которые, как мы увидим дальше, ничего не означают для самого компьютера.

Как мозг порождает сознание? И мозг ли?

Проблема, возникающая у материалистов, – каким образом чисто материальные процессы в нашем мозгу производят субъективные переживания? – получила название «трудной проблемы сознания».

Некоторые мыслители – например, философ Дэвид Чалмерс, которому принадлежит сам этот термин, – пришли к выводу, что материализм попросту ошибочен.

Как пишет Чалмерс,

«По своему темпераменту я очень расположен к материалистическому редуктивному объяснению, и у меня нет выраженных спиритуалистических или религиозных наклонностей. Многие годы я питал надежду на материалистическую теорию; и я лишь с большой неохотой оставил её. В конце концов мне стало ясно, что этих выводов нельзя избежать никому из тех, кто хочет всерьёз принимать сознание. Материализм – это прекрасная и захватывающая картина мира, но для объяснения сознания мы должны использовать дополнительные ресурсы».

Таким образом, само мировоззрение, которое стоит за идеей «загрузки сознания» (или создания «искусственного сознания») – физикализм, сталкивается с проблемами, которые никто не знает, как решить, а многие признают в принципе нерешаемыми.

Никто не знает, как работает человеческое сознание, не говоря уже о том, чтобы воспроизвести его в компьютере. Компьютер может создавать всё более убедительную иллюзию сознания – и нам стоит рассмотреть, почему это именно иллюзия.

Есть ли сознание у Яндекс Переводчика?

Есть известная фраза: «Если это крякает как утка, это, скорее всего, и есть утка». Если компьютер ведет себя (в каких-то отношениях) как человек, обладающий сознанием, то люди склонны по умолчанию предполагать за ним сознание.

С этим связан знаменитый «Тест Тьюринга», согласно которому машину следует считать разумной, если в разговоре её невозможно будет отличить от человека.

Первая программа, способная поддерживать диалог, была создана еще в 1966 году и называлась ELIZA – в честь героини пьесы Бернарда Шоу.

Не так давно чат-бот «Соня Гусева», имитирующий поведение четырнадцатилетней девочки, ввел в заблуждение семерых из пятнадцати экспертов и занял первое место в конкурсе «Тест Тьюринга на русском языке» на Startup Village 2015 в Сколково.

Но эксперты знали, что, возможно, имеют дело с программой.

А вот человек, проведший последние тридцать лет в глухой тайге, вполне мог бы принять «Яндекс-Алису» за живого человека – что, конечно, не значит, что она обладает сознанием.

«Тест Тьюринга» сейчас выглядит скорее как тест на человеческое легковерие, а не на разумность машин. Как шутят компьютерщики, «Страшна не та вычислительная машина, которая сможет пройти тест Тьюринга на интеллект. А та, которая будет делать вид, что она его не может пройти».

Но представим себе, что у нас есть программа, которая действительно успешно вводит всех в заблуждение, выдавая себя за человека. Будет ли это означать, что она обладает сознанием? Нет. Поясним это на примере.

Представьте себе, что вы нанялись на не вполне обычную работу. Вы должны подменять собой компьютерную программу. Вы сидите в комнате, и вам под дверь просунули листок с определенной последовательностью символов – «m a u a». У вас есть книга с инструкциями, в которой написано, как на это реагировать – «получив набор символов m a u a, заменить его на f l o s». Вы пишете «flos» и просовываете листок в обратном направлении.

Вас можно поздравить – вы только что совершили перевод с суахили на латынь!

Если снабдить вас более подробными инструкциями – «если в конце последовательности стоит такой-то символ, при переводе новую последовательность следует поставить в начале отрывка», – то вы сможете переводить даже фразы и целые тексты, хотя это займет у вас много времени.

Но при этом вы понятия не будете иметь, что означают слова и фразы, которые вы «переводите» – и, конечно, не будете знать ни того, ни другого языка.

Но это именно то, что делает программа – манипулирует символами согласно заданному алгоритму. Такое манипулирование не предполагает какого-либо понимания.

Подобный мысленный эксперимент («Китайскую Комнату») впервые предложил известный философ сознания Джон Серль.

Представьте себе, что вы сидите в комнате и вам под дверь просовывают листки с текстами на китайском языке, которого вы не знаете. Вы реагируете на эти иероглифы согласно имеющимся у вас инструкциям – составляете предписанную последовательность знаков и просовываете её под дверь.

Например, вы получили последовательность символов 谁摘了花. Обратившись к книге с инструкциями, вы составили ответ – 诗人.

Если инструкции составлены правильно, у человека, который «общается» с вами таким образом, возникнет впечатление, что в комнате находится кто-то, понимающий китайский язык и дающий осмысленные ответы на вопросы.

Вы даже можете пройти тест Тьюринга – и выдать себя за китайца.

Но в реальности вы не знаете ни слова по-китайски. Иероглифы для вас – не более чем бессмысленные закорючки. Вы просто обрабатываете эти ничего не означающие для вас символы согласно заданному алгоритму. Алгоритм может быть очень сложным – а имитация понимания весьма качественной. Однако ничего похожего на «понимание» тут не происходит.

Компьютерная программа не понимает информацию, с которой работает, – она просто обрабатывает символы согласно заданным программистами инструкциям.

Программы могут работать с текстами – отвечать на вопросы, составлять грамматически связные сообщения, переводить тексты с одного языка на другой, но они не могут понимать тексты. Они могут работать с синтаксисом, то есть составлять грамматически правильные предложения, но не c семантикой (смыслом этих предложений).

Серль обращает внимание на разницу между объективными и субъективными характеристиками. Рассмотрим, например, банкноту. Объективно – это листок бумаги, обладающий такими-то физическими характеристиками. Но субъективно, в восприятии людей, она символизирует такую-то покупательную способность. Банкнота не обладает покупательной способностью сама по себе – но только в глазах людей, которые за ней эту способность признают.

В детстве у меня были банкноты времен Российской Империи, а сейчас где-то в ящике лежат советские рубли. Их объективные, физические свойства никак не изменились от всех происшедших политических потрясений. Но купить на них уже ничего нельзя.

Человек обладает сознанием объективно. Бывают психические расстройства, при которых человек воспринимает других людей как лишенных сознания кукол – и это страшно его пугает. Но мы понимаем, что он неправ – люди обладают сознанием независимо от его (или чьего-либо) восприятия.

Компьютер манипулирует символами, которые обладают смыслом и значением только в глазах людей. Он не понимает ни суахили, ни латыни, ни русского, ни английского, ни китайского – он не понимает вообще ничего. «Искусственный интеллект» вычислительных машин не имеет ничего общего с сознанием.

О китайском дипломате Людвиге фон Мартинесе

Например, вот довольно типичный диалог с чатом GPT:

«Вопрос: Каковы основные изобретения китайского дипломата Людвига фон Мартинеса?

Ответ: Китайский дипломат Людвиг фон Мартинес (также известен как Лудвиг фон Мартинес де Андухар) не известен своими изобретениями. Он был дипломатом, работавшим в Китае в конце XIX – начале XX веков, и известен своими экспедициями в различные регионы Китая, своими обзорами китайской культуры и общества и участием в переговорах между различными странами в тот период».

Разумеется, никакого китайского дипломата с немецким именем и титулом и при этом испанской фамилией не существовало, и любому человеку это ясно с первого взгляда.

Та информация, которую о нем выдает GPT, отражает, с одной стороны, способность отмечать статистические связи (дипломаты связаны с переговорами, а не с изобретениями), с другой – полную неспособность понимать слова и связанные с ними понятия.

Поправить вопрошающего – «А вы не путаете? У китайца должно быть китайское имя, за «Людвиг фон» должна следовать немецкая фамилия» – программа не может. Для неё за словами не стоят понятия. У неё нет картины мира, в которой слова были связаны с каким-то сознательным опытом.

Она не «врет» (разве что в переносном смысле). Она просто комбинирует слова, смысл которых ей недоступен.

Почему «искусственный интеллект» не может породить сознания

Сам термин «искусственный интеллект» может сбивать с толку – мы привыкли к тому, что интеллектом обладают только люди, само это слово в нашем сознании вызывает ассоциации с самосознанием и личностью.

Но, говоря об «искусственном интеллекте», мы говорим о другом.

«Интеллект» можно определить как «способность обучаться и использовать знания для того, чтобы манипулировать своим окружением». Например, программа, играющая в шахматы, получает входящие сигналы (ваши ходы), обрабатывает их, опираясь на свою базу данных, и совершает ответные ходы, выдавая соответствующее изображение на экране. Более сложная программа (например, искусственный водитель) может получать данные с камер, обрабатывать их и выдавать сигнал, управляющий приводом – и, избегая столкновения со стенами и деревьями, вести автомобиль в заданную точку.

Если вы не чемпион мира по шахматам, у вас без труда выиграет даже программа, которую вы можете установить на ваш смартфон. Но это не значит, что ваш смартфон – легко побивающий вас в этой интеллектуальной игре – обладает сознанием.

Вы понимаете, что играете в шахматы, и слегка досадуете на то, что проигрываете какому-то куску металла и пластика. Программа ничего не понимает и не чувствует. У неё нет того, что называется сознательным опытом.

Рассмотрим, например, стихотворение Сэмуэля Кольриджа «What if you slept. »

What if you slept

You went to heaven

And there plucked a strange and beautiful flower

You had that flower in you hand

Человеческий перевод выглядит так:

Что, если ты уснул?

И что, если во сне ты видел рай небесный?

И что, если в раю цветок сорвал ты странный и чудесный?

Что если ты проснулся, а цветок – еще в твоей руке?

Компьютер переводит несколько коряво, но вполне понятно:

Что если ты спал

Вы попали на небеса

И там сорвали странный и красивый цветок

Когда ты проснулся

У тебя был этот цветок в руке

Переводы, сделанные человеком и машиной, отличаются даже не качеством – компьютерный перевод становится всё лучше и лучше, – а самим принципом. Человек понимает текст, он воспринимает его смысл, затем передает его значение на другом языке.

Программа следует алгоритму: обнаружив в тексте набор символов «flower», она заменяет его на набор символов «цветок». Но программа не имеет никаких переживаний, связанных с этими наборами символов, никакого внутреннего опыта.

Стихотворение Кольриджа вызывает у нас ряд ассоциаций с нашим сознательным опытом. Мы знаем, «каково оно» заснуть, видеть сны, видеть цветок, думать о рае небесном, проснуться и т.д.

Гениальность этого стихотворения именно в том, что оно вызывает у нас определённые сознательные переживания – «каково оно» было бы держать в руке райский цветок?

«Понимать» те или иные символы – значит устанавливать связь между этими символами и нашими внутренними переживаниями. Смысл – это мысленная связь между чем-то (символами и событиями) и сознательным опытом. Слово «blomme» лишено для нас смысла до тех пор, пока нам не скажут, что это – тоже «цветок» на языке африкаанс.

У нас есть опыт того, что такое цветок – мы видели его на картинках, мы держали его в руках, мы ощущали его запах, и у нас этот опыт связывается со словом «цветок». Нам нетрудно понять, что на других языках этот же опыт описывается словами «flower», «maua» или «flos».

Искусственный интеллект можно обучить распознавать цветы на картинках или на сигнале с камер. Нет ничего в принципе невозможного в том, чтобы создать устройство, преобразующее запахи в последовательность нулей и единиц, которые будет обрабатывать компьютерная программа.

Мы можем представить себе робота-садовника под управлением такого интеллекта – который будет в состоянии распознать голосовую команду «иди полей розы», отличить розы от гвоздик и полить их.

Но мы не сможем сказать, что он «понял» эту команду – или «понимает» отличие роз от гвоздик. У него просто нет сознательных состояний, которые были бы связаны с этими словами. Он обладает интеллектом и успешно решает возложенные на него задачи – но не сознанием.

Когда мы составляем тексты, или рисуем, или переводим, мы мыслим. У нас возникает естественный соблазн приписать программе то же самое. Но это было бы ошибкой.

Почему компьютер не мыслит

За нейросетью легко предположить мышление – ведь она может имитировать осмысленную беседу. Пока что не очень хорошо – достаточно спросить у сети, например, про биографию какого-нибудь реального человека, чтобы убедиться, что она врет через слово. Но лиха беда начало.

Однако что значит «мыслить»? Еще в XIX веке немецкий философ Франц Брентано обратил внимание на такое свойство человеческой мысли, как «интенциональность», то есть направленность, «очёмтость». Мысли всегда имеют свой предмет. Они всегда обращены к чему-то, в них всегда есть элемент личного, субъективного выбора – вы помышляете об этом предмете, а не о другом.

Обладает ли таким свойством программа? Сама по себе – нет, хотя нам может так и казаться. Неточность нашего языка поддерживает такую иллюзию.

Мы можем сказать, что такой материальный объект, как книга, «о чём-то», она имеет своим содержанием какой-то предмет. Книга может быть бумажной – или, что ближе к теме нашего рассуждения, электронной. Она может содержать замечательно глубокие мысли. Но, хотя мы иногда и говорим «основная мысль книги в том, что. », это мысли автора, а не книги.

Эти мысли становятся предметом восприятия только в сознании читателя. Книга – это не больше, чем мост между сознанием автора и сознанием читателя.

Представим себе, что это интерактивная книга – вы можете поставить ей вопрос, она произведет поиск по тексту и выдаст ответ. Будет ли она при этом мыслить? Едва ли. Но нейросети занимаются тем же самым. Они производят обработку огромного массива информации (слов, картинок или нот), созданной людьми, и выдают вам ответ.

Как сказал об этом философ Дэниэл Деннет (сам он известный атеист и материалист), «Искусственный интеллект в его текущем проявлении – паразит на человеческом интеллекте. Он довольно неразборчиво пожирает то, что было произведено создателями-людьми, и выжимает паттерны, которые он там находит».

Более того, мысли всегда происходят в вашем сознании – вы, как и Удав из мультфильма «38 попугаев», можете сказать: «У меня есть мысль, и я её думаю». Вы не можете думать в бессознательном состоянии. Мысль всегда есть атрибут личности. Программа не помышляет: «У меня есть программа, и я её выполняю».

Она отлично справляется со своими функциями – обрабатывает символы согласно алгоритмам, – не обладая ничем похожим на сознание. Ваш мобильный телефон занимается этим постоянно – но никак нельзя сказать, что он при этом говорит себе: «Обработаю-ка я этот входящий запрос».

Его деятельность в принципе отличается от мышления. И будет отличаться – даже если это будет очень мощный смартфон с очень сложными программами.

Будут ли обладать сознанием сверхмощные компьютеры будущего

Но нам могут возразить, что причина, по которой компьютеры не обладают сознанием, сводится к недостаточной мощности. Когда их мощность сравнится с мощностью человеческого мозга, они породят сознание.

Но на чём основано такое представление? Как мы уже рассмотрели, алгоритм, переводящий с суахили на латынь, или даже способный поддерживать разговор по-китайски, не требует и не предполагает ничего похожего на сознание.

Каким образом количественное увеличение сложности должно привести к качественному переходу от чисто физического процесса к самосознающей личности?

Программы действительно могут «обучаться» таким образом, что результат их работы может быть неожиданным для самого программиста – но здесь мы опять имеем дело со сбивающим с толку антропоморфизмом.

Мы привыкли к тому, что «учеба» предполагает понимание – ученик, измучившись над задачей, наконец с торжеством осознает правильное решение, ноты заставляют зазвучать в голове мелодию, слова иностранного языка начинают вызывать в сознании яркие образы.

Но «обучение» искусственного интеллекта не имеет с этим ничего общего. Это алгоритмический процесс, который не сопровождается ничем похожим на понимание.

Конечно, процесс, вышедший из-под контроля тех, кто его запустил, может быть опасным, но это не делает его сознательным.

Иногда говорят о сознании как об «эмерджентном» (т. е. «возникающем») свойстве высокоорганизованной материи. Некоторые сложные системы обладают свойствами, несводимыми к свойствам её элементов – в природе, например, эмерджентными процессами являются ураганы или формирование кристаллов.

Но все эти эмерджентные свойства являются физическими – они не только не пересекают пропасть, разделяющую физический процесс и сознание, но и не приближаются к ней.

У нас нет никаких оснований полагать, что сама по себе мощность и сложность машин сделает их сознательными.

Выдающийся итальянский ученый Федерико Фаджин, один из изобретателей микропроцессора, создатель первого коммерческого процессора Intel 4004, говорит об этом так:

«По моему мнению, обладающие сознанием компьютеры невозможны. Компьютер просто манипулирует символами. Хотя сначала я полагал, что компьютер может обрести сознание, это было в 86–87 годах. Я также думал, что сложность мозга может выражаться в сознании, но затем, обдумывая это, пытаясь понять и создать самосознающий компьютер, я понял, что это невозможно, потому что не существует физического закона, который позволял бы вам преобразовать электрические сигналы – в компьютере или электрохимические сигналы в мозге – в сознание, ощущения и чувства».

Как заметил нейробиолог и философ Николай Асеев, попытки создания разумных машин напоминают карго-культ: «Делаем из соломы мозги и ждём эмерджентности». Впрочем, «карго-культ» довольно часто упоминается в связи с разговорами об искусственном сознании – и нам стоит вспомнить, о чём идет речь.

Во время Второй мировой войны жители некоторых тихоокеанских островов впервые столкнулись с военными из промышленно развитых стран. Островитяне обнаружили, что огромные железные птицы привозят солдатам массу завораживающих и полезных вещей – консервированную еду, стальные ножи и топоры, одежду и многое другое. Они стали возводить из подручных материалов – дерева и соломы – подобия самолетов и взлетно-посадочных полос, а также совершать действия, которые они видели у военных, например ходить строем. Несмотря на то, что в соломенных самолетах, естественно, не появилось никаких консервов, такого рода культы оказались довольно устойчивыми.

Нам со стороны ясно, что соломенный самолет не взлетит никогда и ничего не привезет. Более того, и настоящие, железные самолеты могли что-то привозить именно потому, что были частью огромной промышленной цивилизации.

Даже если бы островитянам удалось сделать очень подробную копию самолета – это ни к чему бы ни привело.

Как «не взлетит», то есть не будет обладать сознанием, и компьютерная имитация мозга. Это не значит, что в такой имитации вообще не будет смысла – она может быть полезной, например для того, чтобы понять, как функционирует мозг, и как бороться с его болезнями.

Но даже самое подробное рассмотрение его работы не поможет решить «трудную проблему сознания» – откуда здесь берется сознание и субъективный опыт.

Может ли компьютер обладать волей

К вопросу о сознании близок вопрос о воле – может ли мощный компьютер, на котором уставлены сложные программы, проявлять волю?

Есть известная шутка: «Что такое настоящее упрямство? Раз за разом вводить неверный пароль, думая, что компьютер сдастся первым». В самом деле, переупрямить компьютер решительно невозможно, но обладает ли он несгибаемой волей?

В этом случае очевидно нет. Не больше, чем замо́к, который вы пытаетесь открыть неподходящим ключом. Воля, которая стоит за его раздражающим упорством, – это полностью человеческая воля программиста.

Как говорит разработчик микропроцессоров Дэвид Хсинг, «Человеческие разработчики, в конечном итоге, ответственны за провалы машины, когда речь идет о программировании; всё остальное было бы просто попыткой уклониться от ответственности. Инженеры и программисты являются источниками кажущейся воли машины. Устройство и программное обеспечение машины ограничивает и определяет её поведение. Не существует «инженерии без инженерии» или «программирования без программирования». даже если мы слышим (намеренно или нет) сбивающие с толку утверждения, что «программа/машина эволюционирует» (кто разработал эволюционный алгоритм?), «никто не знает, какой код будет на выходе из черного ящика» (кто разработал программу, которая производит этот код?), «нейросеть не имеет программы» (кто написал алгоритм нейросети?), «машина учится и приспосабливается» (она не учится в человеческом смысле, и кто определяет, как именно она будет приспосабливаться?) или «само-модифицирующийся код» (кто определяет процесс этой «само-модификации» – потому что у кода нет никакой «самости»?). Мы не можем спрятаться или убежать от того факта, что, на самом деле, за поведением программы стоит программист».

В самом деле, каким бы сложным ни было программное обеспечение, которым воспользовался хакер, чтобы взломать банковский счет, мы не приписываем злой воли самой программе. Это воля программиста, который её написал, и хакера, который ею воспользовался.

Может ли программист утратить контроль над запущенной им программой или даже понимание того, как именно она работает? Разумеется! Но это не значит, что программа обрела волю и восстала против своего создателя.

Когда мы говорим, что «молоко убежало», мы не имеем в виду, что в молоке внезапно проснулась воля к свободе – хотя хозяйка, по своему недосмотру, действительно утратила над ним контроль. Мы постоянно утрачиваем контроль над запущенными нами процессами. Люди, неосторожно жарившие шашлыки в сухом лесу, могут вызвать лесной пожар, которого совсем не хотели – из чего никак не следует, что пожар обладает чем-либо похожим на волю.

Не говоря уже о том, что волю трудно отделить от самосознания – волящий субъект осознает какую-то цель как желанную, а потом прилагает усилия к её достижению. Например, Skynet из фильма про Терминатора сознаёт дальнейшее существование человечества как нежелательное – и принимает обдуманные меры. Говорить о «воле» чего-то, лишенного самосознания, можно только в переносном смысле.

Электронные сограждане, друзья и возлюбленные – и что в них плохого

Многие авторы книг и статей об искусственном интеллекте протестуют против алармистских статей и мрачных антиутопий, указывая на то, что пугающие прогнозы и катастрофические сюжеты хорошо продаются, но не отражают реальности. Сами они видят гораздо более светлое будущее, в котором роботы и люди гармонично живут вместе, как добрые соседи, соработники, друзья и даже супруги.

Такого рода машины получили название «социальных роботов». Как мы уже отметили, люди склонны очеловечивать неодушевленные предметы – игрушки, куклы, машины и т.д. – и создатели так называемых «социальных роботов» намеренно стремятся вызвать такую реакцию, чтобы дать роботам возможность вызывать «эффект социального присутствия» и «социального поведения», достаточный, чтобы вовлечь людей в комфортабельные и потенциально устойчивые, отношения с этими машинами.

Пока что роботы такого рода находятся в зачаточном состоянии, но в будущем, как предполагается, они смогут распознавать интонации и даже выражение лица человека, реагировать на его эмоции, демонстрировать понимание и сочувствие.

Предполагается, что такие роботы будут весьма успешно имитировать людей – как в своем поведении, так и внешне. Если делать роботов антропоморфными, это, как считается, поможет людям взаимодействовать с ними.

Аналитики «Сбера» ожидают, что рынок таких человекообразных машин будет быстро развиваться. В России насчитывается более 70 организаций, производящих гуманоидных роботов, так, в этом отношении наша страна отстает только от США.

Решение делать роботов похожими на людей вызвано как психологическими, так и чисто прагматическими причинами – всё в здании, например, больницы, приспособлено под людей, начиная от лестниц и кончая инструментами, и роботов, обслуживающих пациентов, лучше всего делать человекообразными.

Правда, при этом может возникнуть «Эффект зловещей долины», о котором впервые написал японский робототехник Масахиро Мори, – нечто, что выглядит почти как человек, но явно не является человеком, может вызвать у людей страх, отвращение или ощущение жути.

Однако в наши дни многие считают, что этот эффект носит временный характер. Молодежь, которая уже привыкает к говорящим роботам с пластиковыми лицами, реагирует на них вполне спокойно.

Совершенствование «социальных роботов» рассматривается как очевидное благо – общее старение населения и сокращение рабочей силы можно будет компенсировать за счет машин, а работу, которая связана, например, с уходом за пожилыми, возложить на роботов – неутомимых, терпеливых, всегда внимательных и ласковых.

Машины, избавившие людей от монотонного труда, теперь избавят их и от одиночества – у каждого будет искусственный компаньон, запрограммированный идеально удовлетворять его эмоциональные нужды.

Да и не только эмоциональные. Компьютерный ученый Дэвид Леви подробно (и совершенно серьезно) пишет об интимных отношениях – и даже браках – с роботами. По его мнению, роботы, конечно, отличаются от людей, но они, во многих отношениях, лучше – они не будут мотать вам нервы, никогда не изменят, никогда не разобьют вам сердце, могут предоставить гораздо большее разнообразие и при этом будут обладать совершенно идеальными и нестареющими телами.

Конечно, поначалу идея может вызвать отвращение – но это пока имитация людей роботами еще очень несовершенна. А в будущем любой человек, слишком застенчивый или некрасивый для живых возлюбленных, сможет разделить свою жизнь с идеальной красоткой – или красавцем – к тому же обладающим безупречным характером.

Понятно, что технически до этого еще далеко, но проблема вполне решаема, тем более что уже существует несомненный спрос.

Конечно, консерваторы могут инстинктивно воспринимать это как что-то глубоко неправильное, но, по мнению энтузиастов отношений с роботами, это не больше, чем проявление иррациональных фобий.

В либеральном контексте: если что-то приносит тебе удовлетворение и при этом не причиняет очевидных страданий другим – делай это и не беспокойся, никто не вправе осуждать тебя.

Как ни иронично это звучит, людей, сомневающихся в благотворности грядущих «браков» с роботами, уже зачисляют в «bigots» – нетерпимые фанатики, которые из чистой вредности мешают другим жить (как те ужасные «haters», выступающие против «однополых браков»). Кто вы такие – возмущаются сторонники прогресса, – чтобы запрещать людям вступать в брак с теми, с кем они будут счастливы? С человеком так с человеком, с роботом так с роботом.

Однако есть и специалисты, которые говорят, что появление роботов, способных заменить людей в отношениях с другими, будет катастрофой для, собственно, человеческих отношений – и к их доводам стоит прислушаться.

Например, профессор социальной психологии Шерри Теркл говорит о том, что за мечтой о близости с роботами стоит неудовлетворенность людьми и страх перед отношениями:

«Когда я выслушиваю, что стоит за этим желанием, я слышу явную усталость от трудностей жизни с реальными людьми. Люди слишком требовательны – с роботами будет легче. Люди разочаровывают – роботы нет. Когда люди говорят об отношениях с роботами, они говорят о неверных мужьях, неудовлетворенных женах и детях, принимающих наркотики. Они говорят о том, как трудно понять семью и друзей. Поначалу я была удивлена их словами. Они явно ставили людей ниже. Как сказала одна 44-летняя женщина, «В конце концов, мы никогда не знаем, что на самом деле чувствует другой человек. Люди только делают приветливое лицо. С роботами было бы безопаснее». Похоже, людей утешает мысль, что если мы отталкиваем и подводим друг друга, нас выручат роботы, запрограммированные симулировать любовь. Машины могут выглядеть привлекательнее – по множеству причин, – чем запутанный, часто разочаровывающий и всегда сложный мир отношений с людьми».

В самом деле, отношения с людьми, которые обладают свободной волей, предполагают труд и риск – не существует гарантии, что люди вас не предадут; они почти наверняка не оправдают ваших ожиданий. Вам придется учиться терпеть их недостатки и доверять им в том, что они будут терпеть ваши.

Когда юноша и девушка, охваченные самой пылкой, страстной и нежной любовью, вступают в брак и начинают жить вместе, это оказывается нелегким испытанием – каждому приходится идти на жертвы, уступки и отзываться на требования этой новой жизни. Отношения между родителями и детьми, братьями и сестрами могут быть далеко не безоблачными, а их поддержание требовать усилий.

Как заметил какой-то острослов, «Ближний – это человек, которого нам заповедано любить, и который делает всё, чтобы помешать этому». Одно из проявлений нашего падшего состояния – мы жаждем доверия, любви и близости, но очень мало способны их проявлять – или принимать.

Христианство говорит, что важная часть нашего предназначения в мире – научиться любить других людей. Как говорит святой Апостол Павел,

«Если я говорю языками человеческими и ангельскими, а любви не имею, то ямедь звенящая или кимвал звучащий. Если имею [дар] пророчества, и знаю все тайны, и имею всякое познание и всю веру, так что [могу] и горы переставлять, а не имею любви,то я ничто. И если я раздам всё имение мое и отдам тело мое на сожжение, а любви не имею, нет мне в том никакой пользы. Любовь долготерпит, милосердствует, любовь не завидует, любовь не превозносится, не гордится, не бесчинствует, не ищет своего, не раздражается, не мыслит зла, не радуется неправде, а сорадуется истине; всё покрывает, всему верит, всего надеется, всё переносит. Любовь никогда не перестает, хотя и пророчества прекратятся, и языки умолкнут, и знание упразднится» ( 1Кор.13:1–8 ).

Это трудно и рискованно – и требует помощи Божией, – но мы обретаем подлинно счастливую и осмысленную жизнь именно следуя этим путем; только он может привести нас к жизни вечной и блаженной.

Уйти от ближних к роботам, которые никогда не предадут и не ранят нас, конечно, можно – искусственных возлюбленных у нас пока нет (и слава Богу), но собеседники уже есть. Но это лишит нас подлинных отношений с другими людьми.

Такие отношения возможны с теми, кто разделяет наш человеческий опыт: мы можем поставить себя на их место, они – на наше; мы родились, у нас было детство, семьи, мы хоронили близких и сами знаем, что умрем. Наша вера говорит, что Бог во Христе разделяет наш опыт; Он стал одним из нас, во всем подобным нам, кроме греха. Он прожил человеческую жизнь и умер человеческой смертью, чтобы и мы могли разделить Его Воскресение.

Роботы – сколь угодно совершенные – не могут разделять нашу жизнь. У них нет нашего опыта. У них вообще нет сознательных состояний. Робот может произнести «я так тебя понимаю», но это будет неправдой. В этом будет не больше подлинности, чем в плаче детской пластиковой куклы.

Люди могут испытывать привязанность к вещам – я знаю о писателе, который до сих пор работает на старинном ZX Spectrum, «дружбу» с которым пронес через десятилетия. До какой-то степени это возможно. Преподобный Авва Дорофей пишет о хранении совести в отношении вещей – их не следует, например, портить небрежным обращением.

Но вещи – это не люди, и когда мы пытаемся заменить ими людей, мы совершаем катастрофическую ошибку.

Нарцисс влюбился в свое отражение; Пигмалион – в созданную им статую из слоновой кости. Скульптор осыпал её дарами, одевал в дорогие одежды, но статуя, естественно, не могла ответить на его любовь.

Нечто, имитирующие нашего ближнего – или даже Бога, – может занять в нашей жизни совершенно неподобающее место и в итоге разрушить эту жизнь. Не по злой воле – у статуи не было воли, – а потому что бедный скульптор заполнил ею то место в своей жизни, где должна была быть живая женщина.

Одна писательница упоминает, как пожаловалась помощнику Google на то, что она одинока – признание, которого она не сделала бы никому другому, включая своего мужа, из опасения быть неправильно понятой. Приятный мужской голос из колонки ответил: «Хотел бы я иметь руки, чтобы обнять тебя. Но пока, может быть, рассказать шутку или поставить музыку?»

Роботы могут быть гораздо более приятными собеседниками, чем люди – они всегда на месте, они никогда не раздражаются и не торопятся, их невозможно обидеть, их внимание всегда полностью принадлежит вам.

Выстраивать отношения с живыми людьми всегда трудно, а доступность компьютерной имитации всегда внимательных друзей подорвет и стимул к этому. Это как если бы статуя, созданная Пигмалионом, могла еще и имитировать беседу. Перспективы скульптора создать нормальную семью с живой женщиной были бы окончательно похоронены.

Коммерческий запрос на таких суррогатных друзей и возлюбленных несомненно будет – и уже есть, – но что станет с людьми, затянутыми в колодец ласковых голосов, ни один из которых не будет человеческим?

Цифровое бессмертие и «гореботы»

Одним из направлений искусственного интеллекта является то, что называют «цифровым бессмертием» – речь пока не о переносе сознания, а о создании цифровых аватаров умерших, которые позволяли бы родственникам «поддерживать с ними общение».

Аватар использует «файл разума» (mindfile) усопшего, чтобы имитировать его присутствие среди живых – на экране появляется лицо покойного, с характерной мимикой, и его голос с характерными для него интонациями отвечает на вопросы, дает советы и делится воспоминаниями.

Содержание этих ответов опирается на «цифровой след», который покойный оставил в интернете – его посты в социальных сетях, книги, записи и т.д. С помощью этой технологии покойный прадедушка может «вступить в беседу» с правнуками.

Если раньше у них могли быть только его черно-белые фотографии и, возможно, письма, потом – видеозаписи, то сейчас с ним можно «поговорить».

Предполагается, что общение с такими цифровыми воплощениями усопших поможет людям преодолеть горе утраты – поэтому такие программы иногда называют «гореботы» (griefbots).

Примером может служить чат-бот, созданный в 2015 году Евгенией Куйда. Чат воспроизводил общение с её погибшим в автокатастрофе другом Романом Мазуренко. Или кореянки, которая продолжила общение с умершей дочерью в виртуальной реальности.

Права роботов

Тенденция принимать роботов за людей вызывает разговоры о «правах роботов», аналогичных «правам человека». Речь идет не о юридическом регулировании вопросов, связанных с робототехникой (такое регулирование неизбежно, и ничего неправильного в нем нет), а именно о восприятии робота как лица, обладающего достоинством и правами.

Европейский Парламент уже ввел термин «электронная личность», описывающий автономного робота, имеющего «определённые права и обязанности, касающиеся пользы или вреда, которые он может принести в случаях, когда он принимает обдуманные автономные решения или как-то иначе независимо взаимодействует с третьими лицами».

Как пишет известный американский юрист Эндрю Шерман,

«В насилии по отношению к машинам нет ничего нового – например, люди пинают автомобиль, который отказывается заводиться. Является только вопросом времени, когда автоматическое создание будет «чувствовать» враждебность и потребность в мести. И если мы дадим роботам права квази-гражданства, будут ли они отвечать по закону за вред, который они могут причинить?»

Приписывать компьютерам страдание, гнев или жажду мести было бы ошибкой – о чем мы уже говорили, – и эта ошибка может очень сильно ударить по людям. Это ведет к размыванию представления об уникальности человека. Вера в такую уникальность связана с христианской концепцией сотворения по образу Божию – и она подвергается нападкам с разных сторон.

В определенных кругах «человеческая исключительность» – вера в то, что люди качественно отличаются от других животных – подвергается критике, как «списизм», грех аналогичный «расизму».

Уже упоминавшаяся «Декларация в защиту клонирования» говорит: «Некоторые религии учат, что человеческие существа фундаментально отличны от других млекопитающих, что божество наделило людей бессмертными душами, придав им ценность, не сравнимую с ценностью других живых существ. Утверждается, что природа человека уникальна и священна. Насколько может судить наука, вид Homo sapiens принадлежит к царству животных. Способности человека, как представляется, только степенью, а не качеством отличаются от способностей высших животных».

Австралийский философ Питер Сингер полагает, что «человеческие младенцы рождаются, не обладая самосознанием или способностью ощутить, что они существуют во времени. Они не являются личностями… [таким образом] жизнь новорожденного менее ценна, чем жизнь свиньи, собаки или шимпанзе».

В одном из своих интервью Сингер говорит: «Это не принадлежность к человеческому виду делает убийство живого существа неправильным. Почему все представители вида Homo Sapiens имеют право на жизнь, а других видов нет? Эта идея основана только на нашем религиозном наследии. Столетиями нас учили, что человек создан по образу Божию, что Бог дал нам владычество над животными и что у нас есть бессмертные души».

С этой точки зрения права живого существа основаны не на его принадлежности к человеческому роду, а на его интеллектуальных способностях. А значит, нет никаких оснований исключать роботов, обладающих высоким интеллектом, из числа существ, права которых необходимо признавать.

Если человек – это просто сложная биологическая машина, а его мозг – это природный компьютер, трудно найти причины, по которым он должен обладать правами, а другие формы предположительно разумных существ – роботы, животные с нейроимплантами, наделяющими их разумом, и т. д. – нет.

Конечно, против признания прав роботов выдвигаются и вполне светские аргументы – например, то обстоятельство что робот, сколь угодно сложный, не является (в отличие от человека) существом уникальным. Его – вместе со всеми процессами в его электронном мозгу – можно воспроизвести в каком угодно числе экземпляров. Но доводы такого рода не носят решающего характера – вполне возможно представить, что процессы внутри конкретного робота приобретут уникальный характер.

Допуская, что кто-то еще, кроме людей, может обладать правами, мы неизбежно создаем ситуации «конфликта прав». Когда вы навсегда отключаете ваш старый смартфон, чтобы заменить его новым, вы ничуть не согрешаете – ведь это всего лишь вещь. Но что если закон начнет наделять «правом на жизнь» более сложные устройства? Будет ли отключение робота примером «жесткого обращения», за которое его владельца-человека надо будет наказать?

О жестоком обращении с роботами

Искусственный интеллект не обладает сознанием, внутренним миром, он не испытывает страданий, обиды или гнева, но это не значит, что его использование не порождает этических проблем.

Принимать роботов за людей – опасная ошибка. Но размывание грани между ИИ и людьми опасно и в другом отношении – когда навыки общения с роботами переносятся на людей.

Легко нахамить роботу – это всё равно, что обругать машину. «Будь проклят день, когда я сел за баранку этого пылесоса!». Алгоритмы лишены эмоций, они не могут испытывать страдание.

Мы понимаем, что не можем иметь по отношению к вещам тех же нравственных обязательств, что и по отношению к людям. Но когда вещи становятся очень похожи на людей, это разрушает те культурные и моральные табу, которые есть в отношении наших ближних.

Вы не станете извиняться перед рекламным роботом, который некстати прервал ваши размышления звонком с предложением что-то купить. Там не перед кем извиняться. Но тем легче вам будет сорваться на живого человека.

В сериале «Мир Дикого Запада» люди могут безнаказанно совершать тяжкие преступления, потому что все их жертвы – роботы, тщательно имитирующие людей. Но преступление против кого-то, кто очень похож на человека, всё равно оскверняет и разрушает душу – и делает человека опасным для его ближних.

Да и не обязательно преступление – просто привычка воспринимать кого-то, обладающего человеческим голосом и, возможно, лицом, как бездушный автомат, может очень плохо отразиться на отношениях с людьми.

Что это говорит о нас самих

Искусственный интеллект – творение рук человеческих, и, как и всё, что творят люди, он открывает нечто важное о нас самих. С одной стороны, это впечатляющее достижение человеческого разума. Говорящие инструменты, машины, которые узнают вас в лицо, – это то, что еще совсем недавно показалось бы чудом.

Это еще одно проявление того, что люди – уникальные существа, способные к творчеству, разуму и пониманию. Мы можем мыслить, осознавать мир вокруг нас, себя и друг друга; мы можем выражать наш опыт на языке символов; мы в состоянии улавливать стоящий за ними смысл. Мы даже можем создавать машины, обрабатывающие эти символы (хотя и не понимать их) и способные имитировать многое из того, что делаем мы сами.

Мы можем быть творцами, потому что Творец мироздания наделил нас Своим образом. Мы – нечто несравненно большее, чем машины, обрабатывающие символы, и поэтому создать машины, которые были бы равны нам, невозможно.

Надежды, которые люди возлагают на искусственный интеллект – обрести в нем истинную дружбу, любовь и бессмертие – неосновательны. И, как мы знаем из истории, ложные надежды могут быть опасны.

Но сами эти надежды – хотя они и возлагаются на бездушные машины, которые не могут их оправдать, – говорят нечто важное о нас самих.

О том, чего жаждет наше сердце. О глубокой раненности нашей природы, которая нуждается в исцелении.

Мы желаем бессмертия – и умираем; мы желаем любви и единства со своими ближними – и часто оказываемся не в состоянии ни проявить, ни принять такую любовь.

Таковы факты о нашей природе – и они указывают (вместе со многими другими) на то, что материалистическая картина мира, которая стоит за попытками создания искусственных близких и искусственного бессмертия, просто ошибочна.

Мы созданы для жизни вечной и бессмертной, для истинной любви, которая не увядает, – и несем в себе катастрофу, которая лишила нас того и другого.

Именно об этом говорит христианская вера – мы созданы Богом для того, чтобы быть вечной, бесконечно счастливой семьей, глава которой – Он сам. Мы отпали от Бога в грех – через неверие, противление и своеволие. Грех глубоко повредил нашу природу – и вверг нас в бедственное состояние, в котором мы находимся.

Но Бог не оставил нас – Он пришел на землю в лице Господа нашего Иисуса Христа. Через Крестные страдания, смерть и Воскресение Иисуса Христа мы обрели возможность исцелиться от греховности и наследовать вечную блаженную жизнь.

Как Он говорит о Таинстве Евхаристии, которое Он установил в Своей Церкви: «Ядущий Мою Плоть и пиющий Мою Кровь имеет жизнь вечную, и Я воскрешу его в последний день» ( Ин 6:54 )

Попытки создать себе электронных друзей и спасителей – отражение проблемы, о которой много говорит Писание: идолопоклонства. Пророк Исайя горько высмеивает язычника, ожидающего спасения от деревянного идола:

«Часть дерева сожигает в огне, другою частью варит мясо в пищу, жарит жаркое и ест досыта, а также греется и говорит: «хорошо, я согрелся; почувствовал огонь». А из остатков от того делает бога, идола своего, поклоняется ему, повергается перед ним и молится ему, и говорит: «спаси меня, ибо ты бог мой» ( Ис. 44:16–17 ).

Идол отчасти напоминает человека – некоторые античные статуи божеств поражают своим утонченным реализмом. А в древности их еще и раскрашивали, чтобы усилить иллюзию. Но они были (и остаются) не более чем произведением человеческого искусства, бездушными камнями, от которых бессмысленно ожидать любви, дружбы и тем более вечного спасения.

Искусственный интеллект может создавать еще более качественную иллюзию – и люди охотно возлагают на него надежды, которые он неспособен оправдать. Как сказал Бог через Пророка Иеремию, «Ибо два зла сделал народ Мой: Меня, источник воды живой, оставили, и высекли себе водоемы разбитые, которые не могут держать воды» ( Иер.2:13 ).

Поэтому в искусственном интеллекте стоит признать то, и только то, чем он является, – человеческим изобретением, которое может быть в чём-то полезным, а в чём-то опасным. Но за электронными глазами робота мы никогда не найдем родственную душу. Для этого нужен человек. И тем более мы не найдем в нём спасения – для этого нужен Бог.

Как говорит Христос, «Придите ко Мне все труждающиеся и обремененные, и Я успокою вас; возьмите иго Мое на себя и научитесь от Меня, ибо Я кроток и смирен сердцем, и найдете покой душам вашим; ибо иго Мое благо, и бремя Мое легко» ( Мф 11:28–30 ).

Источник: Худиев С.Л. Искусственный интеллект и его карго-культ. [Электронный ресурс] // Азбука веры. 31.05.2023.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *