ИИ теперь может воспроизвести вашу личность
ИИ научился клонировать личность человека всего за два часа — и это стало воплощением мечты социологов и мошенников, занимающихся фейками.
Ученые из Стэнфордского университета и Google DeepMind совместно разработали приложение для искусственного интеллекта, способное создать цифровую копию личности человека.
Их результаты, подробно описанные на сервере препринтов arXiv и опубликованные в MIT Technology Review, демонстрируют, как генеративный ИИ может имитировать человеческие черты с поразительной точностью.
Система, построенная на основе большой языковой модели ChatGPT, работает, задавая ряд вопросов, собирая ответы в течение двухчасовой сессии и обрабатывая их для создания цифровой копии личности человека.
Чтобы проверить его точность, исследователи задавали идентичные вопросы участникам исследования и их цифровым «двойникам». В 85 % случаев ответы созданных ИИ личностей совпадали с ответами их человеческих коллег.
Если вы сможете заставить кучу маленьких «ты» бегать вокруг и принимать решения, которые принимали бы вы, я думаю, что за этим будущее», — сказал Джун Сунг Парк, аспирант Стэнфордского университета по информатике, участвовавший в исследовании.
Разработчики подчеркнули, что их цель — не заменить человека, а упростить задачи для социологов и исследователей. Проведение опросов с живыми респондентами, отметили они, может отнимать много времени и средств. Эта новаторская работа подчеркивает многогранность человеческой личности, которая может показаться неизмеримой и сложной.
Однако исследователи продемонстрировали, что мировоззрение и систему ценностей человека можно эффективно определить с помощью хорошо составленного опросника. Когда эти данные поступают в генеративный ИИ, он может убедительно имитировать черты личности — по крайней мере, в контролируемых условиях. Хотя эта инновация имеет захватывающее применение в таких областях, как социология, она также вызывает опасения. Если ИИ сможет убедительно воспроизводить личности, это может сделать фальшивки и другие формы цифровой имперсонации более изощренными и потенциально более опасными.
Исследователи осознают необходимость внедрения этических норм и мер безопасности на этапе разработки таких технологий. Они начинают рассматривать, как можно регулировать использование ИИ для предотвращения злоупотреблений. Специалисты по безопасности уже предупреждают о рисках, связанных с углублением цифровых манипуляций, которые могут создать новые возможности для мошенников и киберпреступников.
Кроме того, важно отметить, что использование ИИ для имитации личностей может вызвать серьезные вопросы о приватности и согласии. Как далеко готовы идти люди в отношении своих данных и личной информации? Эти дискуссии станут центральными в будущих дебатах об использовании подобных технологий в обществе.
Тем не менее, исследование также открывает двери для новых возможностей в сфере психологии и маркетинга. С помощью цифровых двойников можно проводить точные исследования новых моделей поведения и предпочтений, углубляя понимание человеческой природы. В конечном итоге, использование ИИ для клонирования личности может стать ценным инструментом, однако его потенциал должен быть сбалансирован с ответственностью перед обществом.
Поделитесь в вашей соцсети👇