Метки: Обзоры | Мнения | Прогнозы
Источник: информация из открытых интернет-источников
Пора наделить искусственный интеллект такой же защитой, как и животных?
Университеты по всему миру проводят серьезные исследования искусственного интеллекта. Технологические гиганты его активно развивают. Вероятнее всего, очень скоро у нас будет искусственный интеллект, по своим мыслительным способностям стоящий на уровне мышей или собак. И значит, пришло время подумать о том, что такому искусственному интеллекту понадобится этическая защита, которую мы обычно дает животным.
Больно ли искусственному интеллекту?
До сих пор в дискуссиях на тему «прав ИИ» или «прав роботов» преобладали вопросы о том, какие этические обязательства мы возложили бы на ИИ с человеческим или превосходным интеллектом — вроде андроида Дейты из «Звездного пути» или Долорес из «Мира Дикого Запада». Но думать об этом — значит начинать не с того места. Прежде чем мы создадим ИИ с человеческими качествами, заслуживающего человеческой этики, мы создадим менее сложный ИИ, заслуживающий этических прав, в лучшем случае, животных.
Мы уже начали осторожничать в исследованиях, в которых вовлечены определенные животные. Особые комитеты оценивают исследовательские предложения, чтобы гарантировать, что позвоночные животные не будут убиты без необходимости и не подвергнутся чрезмерным страданиям. Если задействуются стволовые клетки человека или клетки человеческого мозга, стандарты надзора еще более строгие. Биомедицинские исследования тщательно рассматриваются, но исследования ИИ, которые могут повлечь за собой некоторые из тех же этических рисков, в настоящее время вообще не изучаются. Возможно, стоило бы.
Вы могли бы подумать, что ИИ не заслуживает такой этической защиты, поскольку не обладает сознанием — то есть, поскольку у нет подлинного потока опыта, с настоящей радостью и страданиями. Мы с этим согласны. Но вот вам сложный философский вопрос: как мы узнаем, что создали нечто, способное на радость и страдания? Если ИИ похож на Дейту или Долорес, он может пожаловаться и защитить себя, инициируя обсуждение своих прав. Но если ИИ не может выразить это, как мышь или собака, либо по какой-то другой причине не сообщает нам о своей внутренней жизни, возможно, он не сможет сообщить о страданиях. Но ведь собаки вполне могут радоваться и страдать.
Вот здесь возникает загадка и трудности, потому что научное исследование сознания не достигло консенсуса о том, что же такое сознание, и как нам сказать, присутствует оно или нет. По некоторым представлениям — так сказать, либеральным — для наличия сознания достаточно лишь присутствие процесса хорошо организованной обработки информации. Мы, возможно, уже стоим на пороге такой системы. По другим представлениям — консервативным — сознание может требовать весьма специфических биологических функций, вроде мозга млекопитающего во всем его великолепии: и тогда мы и близко не подошли к созданию искусственного сознания.
Непонятно, какой из подходов верный. Но если верен «либеральный» взгляд, очень скоро мы создадим множество недочеловеческих искусственных интеллектов, которые заслуживают этической защиты. Возникает нравственный риск.
Обсуждение «риска ИИ» обычно фокусируется на рисках, которые новые технологии ИИ могут представлять для нас, людей, вроде захвата мира и уничтожения человечества или разрушения нашей банковской системы. Куда реже обсуждаются этические риски, которым мы подвергаем ИИ вследствие неправильного обращения с ним.
Все это может показаться надуманным, но поскольку ученые из сообщества разработчиков ИИ стремятся разработать сознательный ИИ или надежные системы ИИ, которые вполне могут в конечном итоге стать сознательными, мы должны отнестись к этому вопросу серьезно. Подобные исследования требуют этической проверки вроде той, что мы проводим в исследованиях на животных и образцах нервной ткани человека.
В случае исследований на животных и даже на людях соответствующие меры защиты были приняты только после того, как выявлялись серьезные этические нарушения (например, в случае ненужных вивисекций, военных медицинских преступлений нацистов и прочих). С ИИ у нас есть шанс добиться большего. Возможно, нам придется создавать комитеты надзора, которые оценят передовые исследования в области ИИ с учетом этих вопросов. В такие комитеты должны входить не только ученые, но и дизайнеры ИИ, когнитивисты, специалисты по этике и заинтересованные люди. Таким комитетам будет поручено идентифицировать и оценивать этические риски новых форм дизайна ИИ.
Вполне вероятно, что такие комитеты посчитают все текущие исследования в области ИИ вполне допустимыми. В большинстве случаев никто не считает, что мы создаем ИИ с сознательным опытом, заслуживающим этического рассмотрения. Но вскоре мы, возможно, пересечем эту черту. Нужно быть готовыми.
-------------------------------------------------------------------
Хотите оперативно узнавать о выходе других полезных материалов на сайте "ГИС-Профи"?
Подписывайтесь на нашу страницу в Facebook.
Ставьте отметку "Нравится", и актуальная информация о важнейших событиях в энергетике России и мира появится в Вашей личной новостной ленте в социальной сети.