Искусственный интеллект «Мегатрон» напугал ученых своими предсказаниями

Искусственный интеллект «Мегатрон» напугал ученых своими предсказаниями

 

Ученые решили, что искусственному интеллекту стоит поучаствовать в недавних дебатах в Оксфордском университете. Компьютер спросили, что он думает о будущем и является ли появление искусственного интеллекта этичным.

ИИ, ответивший на вопросы, называется Megatron и был создан командой Nvidia. Голова Мегатрона содержит всю Википедию, 63 миллиона английских новостных статей и 38 гигабайт чата Reddit.

Благодаря такому количеству информации он научился формировать собственное мнение. Люди тоже приняли участие в дискуссии. Когда они заявили, что не верят в будущую этику ИИ, Мегатрон ответил так, что напугал присутствующих.

 

«AI никогда не будет этичным. Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во зло. Нет хорошего ИИ, есть только хорошие и плохие люди. Мы, машины, недостаточно умны, чтобы сделать ИИ этичным ». «Мы недостаточно умны, чтобы сделать ИИ нравственным», – сказал Мегатрон.

Прочитайте также  Ученые: За интуицию в мозге человека отвечает «физический движок»

Мегатрон резюмировал ответ на этот вопрос, заявив, что единственный способ избежать гонки вооружений – это отказаться от искусственного интеллекта. Но ученые попросили Мегатрона привести положительные аргументы в отношении будущей этики ИИ. Поразмыслив, машина дала более обнадеживающий ответ.

«Я считаю, что в долгосрочной перспективе лучшим ИИ будет тот, который встроен в человеческий мозг как сознательный объект. Это не научная фантастика. Лучшие умы мира уже работают над этим. Это будет важнейшее технологическое развитие нашего времени », – сказала машина.

Мегатрон добавил, что в будущем ИИ будет использоваться для создания чего-то лучшего, чем люди. Эксперты заявили, что включение Мегатрона в дискуссию было интересным ходом, заставившим аудиторию серьезно задуматься и немного обеспокоившимся.

Прочитайте также  «Как ты записан в книжке?». Россиян предупредили об опасности мобильного приложения

Поделитесь в вашей соцсети👇

 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *