1. Перейти к содержанию
  2. Перейти к главному меню
  3. К другим проектам DW
Цифровые технологииГлобальные темы

Искусственный интеллект. Стоит ли нам его бояться?

Штефан Деге | Наталья Позднякова
13 июля 2023 г.

Где границы применения искусственного интеллекта и в чем тут риски для человечества? Ученые выражают опасения в связи с бесконтрольным использованием ИИ. Подробности - у DW.

https://p.dw.com/p/4TmjK
Роботы у экранов мониторов
Фото: Manuel Ruiz/Addictive Stock/IMAGO

Новый роман в стиле Эрнеста Хемингуэя? Фейковые фотографии ареста Дональда Трампа? Или новая картина Герхарда Рихтера (Gerhard Richter)? Все это - не проблема для искусственного интеллекта (ИИ). Чат GPT, Stable Diffusion или Aiva пишут тексты, создают картины или сочиняют музыку - и все это за считанные минуты в прекрасном качестве. Миру остается только изумляться и задумываться о том, что будет дальше.

"С появлением искусственного интеллекта все то, что раньше делали высококвалифицированные специалисты и что являлось своего рода штучным товаром, превращается в массовый продукт, - констатирует Роберт Экснер (Robert Exner), основатель агентства Fundwort в Ганновере. - Искусственный интеллект лишает ценности человеческое творческое мышление и работу". Экснер воспринимает ИИ как угрозу для себя и своей деятельности и хочет от нее защититься.

Искусственный интеллект и авторское право 

Искусственный интеллект, но честно. Под таким лозунгом 15 организаций немецкой креативной индустрии опубликовали письмо. В нем представители объединений из таких сфер, как графика, журналистика, иллюстрация, фотография и искусство, потребовали защиты от использования системами искусственного интеллекта, не имеющими соответствующих разрешений, их произведений.

Защита авторского права должна быть усилена, говорится в этом коллективном обращении, которое подписал и Экснер. Фактически системы ИИ, базирующиеся на определенных алгоритмах, без материала для самообучения не могут производить тексты, музыку или фото. "Чтобы обеспечить таким развивающимся системам необходимую информацию, разработчики используют наши произведения - без нашего разрешения согласия и оплаты", - поясняет Экснер в интервью DW.

Роберт Экснер
Роберт ЭкснерФото: Frîa Hagen

Философ Винсент Мюллер (Vincent Müller) разделяет такое мнение. Мюллер в Университете Эрланген-Нюрнберг занимается исследованиями еще достаточно новой дисциплины - философии и этики искусственного интеллекта. "ИИ это то, на что тоже распространяется авторское право", - убежден он. По его выражению, системы искусственного интеллекта не просто воспроизводят данные - скорее, они извлекут из них что-то новое, что затем смогут использовать в следующий раз. "Но у кого тогда авторские права на этот новый продукт? Если из данных, которые получены бесплатно, производится нечто новое, что приносит прибыль, тогда возникает проблема для общества", - указывает Винсент Мюллер.

Самая большая проблема для общества, однако, состоит в том, что пока отсутствуют правила, касающиеся искусственного интеллекта. Об этом ранее уже предупреждал Немецкий совет по культуре. Сейчас обратить внимание на этот аспект, усилить защиту авторского права и личных данных при использовании ИИ требуют и представители креативной индустрии. "Мы ожидаем от политиков, что они вступятся за 1,8 млн лиц, работающих в творческой сфере", - делится Экснер. 

ИИ уже в нашей жизни 

Искусственный интеллект, несмотря на то, что многие этого не видят или не осознают, уже давно присутствует в нашей повседневной жизни. Издательства проверяют тексты на предмет ошибок с помощью искусственного интеллекта. Он же переводит тексты с одного языка на другой. Страховые компании высчитывают риски с помощью ИИ, а онлайн-страницы размещают подходящую рекламу.

"Решающим является вопрос, кому это приносит пользу? И является ли его использование негативным или позитивным для общества? Соблюдены ли при этом права всех участвующих?" - перечисляет требующие скорейшего решения проблемы Мюллер. По его оценке, использование искусственного интеллекта ведет к колоссальным культурным изменениям.

Ведь все больше решений принимается автоматизированно, с помощью систем ИИ. При выписке штрафа это может показаться не такой большой проблемой. Но как быть в других ситуациях? "Ведь решений, которые принимаются ИИ, будет все больше и больше. И мы должны подумать о том, какие решения могут приниматься автоматически, а какие лишь при иcпользовании ИИ как вспомогательного средства", - поясняет Винсент Мюллер.

Стоит ли бояться ИИ?

Без законодательной базы использовать ИИ нельзя, уверен Мюллер. Он напоминает о предложении Еврокомиссии, содержащем список систем ИИ с высоким риском, которые должны получить разрешение для применения. Например, использование биометрических систем идентификации личности в публичном пространстве должно быть ограничено и разрешено лишь в исключительных случаях, таких как борьба с терроризмом. 

Винсент Мюллер
Винсент МюллерФото: Bart van Overbeeke/TU Eindhoven

Но станут ли от этого люди больше доверять системам искусственного интеллекта? "ИИ меняет психологические отношения между машиной и человеком, - уточняет Мюллер. - Обычно мы рассматриваем машины как объект с ограниченной автономией, который в конечном счете контролируется людьми. Но это меняется, когда машина получает больше автономии. Тогда меняются и наши возможности вмешаться".

Кроме оправданного страха потери контроля существует и еще кое-что. Машины, управляемые ИИ, многим кажутся непостижимыми "черными ящиками": "Конечно, такое встречается во многих технологиях. Вряд ли кто-то сегодня знает, почему едет автомобиль. Но если компьютер решает, что вы не сможете получить кредит, то это уже совершенно непостижимо".

Риски ИИ беспокоят разработчиков и инвесторов. В своей петиции, которую подписали более тысячи человек, известные эксперты в области ИИ, в их числе и Илон Маск, призвали взять полугодовую паузу для разработки систем ИИ. За это время должны быть созданы правовые рамки для использования этих новых технологий, отмечается в открытом письме общественной организации Future of Life.

"Системы ИИ должны разрабатываться только тогда, когда мы уверены, что их влияние будет положительным, а риски - управляемыми", - сказано в письме. В нем же при этом признается - уже сейчас такие системы настолько развиты, что даже разработчики уже не могут полностью понять и эффективно контролировать свои программы. Помимо прочего, это может служить причиной для распространения пропаганды и фейков.

Смотрите также:   

Итоги экономического форума в Давосе

Пропустить раздел Еще по теме