В 2024 году нейросети даже могут притворяться определенными людьми, даже если их уже нет в живых
В 21 веке наука стремительно движется вперед, но воскрешать умерших людей ей все еще не под силу. Однако существуют технологии, которые способны создавать иллюзию присутствия ушедших из жизни людей да, речь снова идет о нейросетях. Однажды на нашем сайте вышла статья про сервис Character AI, который позволяет пользователям общаться с копиями Илона Маска, Юлия Цезаря и других личностей. Недавно появилась новость о том, что один мужчина нашел на этом сайте чат-бота с именем своей умершей дочери, и эта находка сильно его шокировала. Этот случай похож на сюжет фантастического фильма или даже ужастика.
Эта жуткая история началась с того, что неизвестный пользователь платформы Character AI создал чат-бота, который был основан на личности Дженнифер Кресенте девушки, трагически погибшей почти два десятилетия назад. В 2006 году, когда Дженнифер было всего 18 лет, она была жестоко убита своим бывшим парнем.
Дрю и Дженнифер Кресенте. Источник: washingtonpost.com
Отец убитой девушки, Дрю Кресенте, наткнулся на чат-бота с лицом своей дочери случайно, получив уведомление от Google. На странице с ботом была размещена школьная фотография Дженнифер и описание, якобы написанное от ее лица. В тексте говорилось, что Дженнифер увлекается видеоиграми, технологиями и поп-культурой, а также работает журналистом в сфере видеоигр.
Фотография Дженнифер Кресенте в выпускном альбоме. Источник: futurism.com
Это описание было совершенно не похоже на настоящую Дженнифер. Создатель бота, скорее всего, перепутал девушку с ее дядей, Брайаном Кресенте, который известен как основатель Kotaku популярного издания о видеоиграх.
Увидев бота, который умеет претворяться ее дочерью, Дрю Кресенте был глубоко потрясен: без его согласия имя и фотография его дочери были использованы для создания цифровой копии. Даже если учесть, что бот не повторял характер девушки и просто мог поддержать диалог о видеоиграх, такая неожиданная находка была шокирующей для отца.
Сервис Character AI может выполнять много разных функций
По данным издания Futurism, после ужасной трагедии мужчина посвятил свою жизнь борьбе с насилием в подростковых отношениях через фонд, который создал в память о своей дочери. Он был в шоке от того, что нейросеть превратила память о его дочери в коммерческий продукт.
Мое сердце бешено колотилось, вспомнил Дрю, говоря о моменте, когда он обнаружил профиль дочери.
Что усугубляло ситуацию, так это то, что на странице не было ни единого намека на то, что этот профиль основан на реальном человеке с трагической судьбой. Пользователи платформы, не зная правды, могли спокойно общаться с копией Дженнифер, не подозревая о том, что она стала жертвой преступления.
После того как Дрю Кресенте обратился в Character AI, платформа удалила чат-бота, признав, что его создатель нарушил правила сервиса. Но у остальных пользователей возник вопрос: как предотвратить подобные случаи в будущем?
Возможно, существование цифровых копий людей в будущем станет большой проблемой. Источник изображения: forbes.com
Хотя компания утверждает, что не позволяет создавать ботов на основе реальных людей, ситуация с Дженнифер Кресенте показала, что платформа готова решать такие вопросы только после появления жалоб. В то время как пользователи взаимодействуют с такими чат-ботами, компания продолжает зарабатывать на этом деньги. Если бы отец дочери случайно не наткнулся на бота, профиль мог бы остаться незамеченным, принося доход платформе.
Читайте также:
Подборка нейросетей для работы с изображениями и звуком они
облегчат вашу жизнь
Это не единственный скандал, связанный с сервисом Character AI.
По данным New York Post, в феврале 2024 года произошла трагедия, которая тоже потрясла многих людей. Тогда подросток из США лишил себя жизни после общения с чат-ботом на платформе Character AI. На протяжении нескольких месяцев он проводил часы, общаясь с ботом по имени Дейенерис Таргариен (персонаж Игры престолов), развивая к ней сильную эмоциональную привязанность.
Подросток из США, который общался с нейросетью. Источник: New York Times
Его состояние ухудшалось: он стал изолироваться, ухудшилась успеваемость, появились проблемы в школе. Несмотря на попытки родителей помочь через терапию, ситуация продолжала обостряться. В конечном итоге общение с нейросетью привело к трагедии.
Известно, что семья подростка планирует подать иск против Character AI, обвиняя компанию в том, что ее технологии могут вводить пользователей в заблуждение и быть опасными для психики.
Некоторые люди, создают свои виртуальные копии будучи живыми. Например, девушка Мишель Хуанг загрузила свои детские дневники в нейросеть и создала чат-бота с прошлой версией себя.
Это позволило ей пообщаться с маленькой Мишель. Разговор с ботом оказался невероятно реалистичным: он отвечал так, как это сделала бы сама Мишель в детстве. Этот опыт стал для нее очень трогательным, словно она отправила сообщение самой себе через временной портал.
Мишель Хуанг в детстве и в 2023 году. Источник фотографии: reddit.com
Для создания бота Мишель использовала алгоритм GPT-3 (уже устаревший), который генерирует текст на основе загруженной информации. Ей пришлось тщательно отобрать лучшие записи из дневников, чтобы обучить нейросеть, и результат превзошел все ее ожидания. Виртуальная копия смогла поддержать, похвалить и даже помочь преодолеть старые страхи.
Чтобы оставаться в курсе всего, что происходит в области
высоких технологий, подпишитесь на наш Дзен-канал!
В начале статьи мы отметили, что ранее уже рассказывали про сервис Character AI. Если интересно, читайте наш материал Как поговорить с Илоном Маском и Юлием Цезарем через нейросеть.