Согласно выводам исследователей из Кембриджского университета, внедрение искусственного интеллекта (ИИ), позволяющего пользователям вести текстовые и голосовые диалоги с усопшими близкими людьми, таит в себе риск нанесения психологической травмы живым и даже возможности их «преследования».
![](https://publicdiplomacy.su/wp-content/uploads/2024/05/9bd3c128abaed187c862ccc15dc6ee94.jpg)
«Мертвые боты» (Deadbots или Griefbots) представляют собой чат-боты на базе ИИ, имитирующие речевые обороты и черты характера умерших личностей посредством использования оставленных ими цифровых следов. «Они обеспечивают совершенно новый вид «посмертного присутствия», и некоторые компании уже предлагают подобные услуги», — отмечается в публикации SciTechDaily.
«Специалисты по этике ИИ из Центра изучения будущего интеллекта имени Леверхальма при Кембриджском университете описывают три сценария развития платформ в рамках формирующейся «индустрии цифровой загробной жизни» с целью продемонстрировать потенциальные последствия небрежного подхода к разработке в области ИИ, которую они оценивают как сферу «с высоким уровнем риска»,» — говорится в статье.
Результаты исследования, опубликованные в журнале Philosophy and Technology, показывают, что компании могут использовать «мертвых ботов» для скрытой рекламы товаров или манипулирования людьми, внушая им, что усопший родственник по-прежнему присутствует рядом с ними.
Платформы, предлагающие за умеренную плату «воссоздать умерших» с помощью ИИ, уже существуют. Среди них «Проект Декабрь», первоначально использовавший модели GPT, а затем разработавший собственные системы, включая приложение HereAfter. Аналогичные сервисы стали появляться и в Китае.
В Поднебесной также начали функционировать аналогичные сервисы. Один из возможных сценариев, описанных в новом исследовании, — MaNana: интерактивный ИИ-сервис, позволяющий создавать цифровых двойников усопших без согласия «доноров данных» — самих ушедших из жизни людей. В другом представленном сценарии вымышленная компания Paren’t повествует о случае смертельно больной женщины, оставившей «робота-мертвеца» для поддержки своего восьмилетнего сына. Первоначально бот оказывал терапевтическую помощь, но по мере адаптации к потребностям ребенка ИИ стал генерировать странные высказывания, например, о грядущей личной встрече.
«В другом гипотетическом сценарии, рассмотренном в исследовании, пожилой человек создает «мертвого бота», предоставляя свои данные и образцы голоса, и оплачивает 20-летнюю подписку в надежде, что это утешит его взрослых детей и позволит внукам лучше его узнать», — говорится в публикации.
После кончины мужчины сервис активируется. Один из родственников игнорирует его и получает множество электронных писем с голосовыми посланиями от умершего человека. Другой подключается, но в итоге испытывает эмоциональное истощение и чувство вины перед покойным. При этом отключение «мертвого бота» нарушило бы условия контракта, подписанного их родственником с компанией-провайдером.
«Люди могут образовать сильную эмоциональную связь с такими симуляторами, что сделает их особо уязвимыми для манипуляций. Мы рекомендуем разработать протоколы, которые не позволят использовать «мертвых ботов» в неуважительных целях, например, для рекламы или активного присутствия в социальных сетях», — подчеркивает соавтор исследования доктор Томаш Холланек.
Автор: Елена Маслова