13 мая 2024 , 7:27

SciTechDaily: «Мертвые боты» могут в цифровом виде преследовать близких людей

Согласно выводам исследователей из Кембриджского университета, внедрение искусственного интеллекта (ИИ), позволяющего пользователям вести текстовые и голосовые диалоги с усопшими близкими людьми, таит в себе риск нанесения психологической травмы живым и даже возможности их «преследования».

«Мертвые боты» (Deadbots или Griefbots) представляют собой чат-боты на базе ИИ, имитирующие речевые обороты и черты характера умерших личностей посредством использования оставленных ими цифровых следов. «Они обеспечивают совершенно новый вид «посмертного присутствия», и некоторые компании уже предлагают подобные услуги», — отмечается в публикации SciTechDaily.

«Специалисты по этике ИИ из Центра изучения будущего интеллекта имени Леверхальма при Кембриджском университете описывают три сценария развития платформ в рамках формирующейся «индустрии цифровой загробной жизни» с целью продемонстрировать потенциальные последствия небрежного подхода к разработке в области ИИ, которую они оценивают как сферу «с высоким уровнем риска»,» — говорится в статье.

SciTechDaily: "Мертвые боты" могут в цифровом виде преследовать близких людей

Результаты исследования, опубликованные в журнале Philosophy and Technology, показывают, что компании могут использовать «мертвых ботов» для скрытой рекламы товаров или манипулирования людьми, внушая им, что усопший родственник по-прежнему присутствует рядом с ними.

Платформы, предлагающие за умеренную плату «воссоздать умерших» с помощью ИИ, уже существуют. Среди них «Проект Декабрь», первоначально использовавший модели GPT, а затем разработавший собственные системы, включая приложение HereAfter. Аналогичные сервисы стали появляться и в Китае.

В Поднебесной также начали функционировать аналогичные сервисы. Один из возможных сценариев, описанных в новом исследовании, — MaNana: интерактивный ИИ-сервис, позволяющий создавать цифровых двойников усопших без согласия «доноров данных» — самих ушедших из жизни людей. В другом представленном сценарии вымышленная компания Paren’t повествует о случае смертельно больной женщины, оставившей «робота-мертвеца» для поддержки своего восьмилетнего сына. Первоначально бот оказывал терапевтическую помощь, но по мере адаптации к потребностям ребенка ИИ стал генерировать странные высказывания, например, о грядущей личной встрече.

«В другом гипотетическом сценарии, рассмотренном в исследовании, пожилой человек создает «мертвого бота», предоставляя свои данные и образцы голоса, и оплачивает 20-летнюю подписку в надежде, что это утешит его взрослых детей и позволит внукам лучше его узнать», — говорится в публикации.

После кончины мужчины сервис активируется. Один из родственников игнорирует его и получает множество электронных писем с голосовыми посланиями от умершего человека. Другой подключается, но в итоге испытывает эмоциональное истощение и чувство вины перед покойным. При этом отключение «мертвого бота» нарушило бы условия контракта, подписанного их родственником с компанией-провайдером.

«Люди могут образовать сильную эмоциональную связь с такими симуляторами, что сделает их особо уязвимыми для манипуляций. Мы рекомендуем разработать протоколы, которые не позволят использовать «мертвых ботов» в неуважительных целях, например, для рекламы или активного присутствия в социальных сетях», — подчеркивает соавтор исследования доктор Томаш Холланек.

Автор: Елена Маслова

Народная дипломатия: политика и общество