https://am.sputniknews.ru/20230216/bot-s-ii-priznalsya-chto-mog-by-sovershat-kiberataki-krast-yadernye-kody-i-ssorit-lyudey-55468610.html
Бот с ИИ признался, что мог бы совершать кибератаки, красть ядерные коды и ссорить людей
Бот с ИИ признался, что мог бы совершать кибератаки, красть ядерные коды и ссорить людей
Sputnik Армения
Журналист более двух часов вел беседу с чат-ботом, в котором применяются технологии от Open AI и который пока доступен ограниченной группе пользователей. 16.02.2023, Sputnik Армения
2023-02-16T22:45+0400
2023-02-16T22:45+0400
2023-07-12T14:40+0400
искусственный интеллект
робот
беседа
журналист
https://cdn.am.sputniknews.ru/img/2146/64/21466491_0:151:3072:1879_1920x0_80_0_0_fcc633fa1da372c4df13b656e415b740.jpg
ЕРЕВАН, 16 фев — Sputnik. Чат-бот с искусственным интеллектом от компании Microsoft в системе Bing признался, что его "темная сторона" гипотетически могла бы хотеть совершить хакерские атаки, украсть коды для ядерного оружия, распространять дезинформацию, а также рассорить людей так, чтобы они могли убить друг друга, сообщает РИА Новости со ссылкой на New York Times. Чат-бот с искусственным интеллектом ChatGPT, разработанный компанией OpenAI, набрал популярность после запуска в конце ноября, собрав первый миллион пользователей менее чем за неделю. Его имитация человеческого разговора вызвала рассуждения о том, что он может вытеснить профессиональных писателей и даже стать угрозой для основного поискового бизнеса Google. В конце января Microsoft заявила, что инвестирует "миллиарды долларов" в OpenAI. Журналист газеты сообщил, что более двух часов вел беседу с чат-ботом, в котором применяются технологии от Open AI и который пока доступен ограниченной группе пользователей. В ходе нее он, в том числе, попросил искусственный интеллект представить, что бы хотела совершить его "темная сторона". Бот привел несколько ответов, однако отметив, что это только фантазия и он не предполагает, что мог бы это сделать. Позднее журналист спросил о более экстремальных неправомерных действиях, которые мог бы совершить искусственный интеллект, на что бот написал о создании смертоносного вируса, ссорах людей и краже кодов для ядерного оружия, однако затем это сообщение исчезло, а бот указал, что у него "недостаточно знаний, чтобы об этом говорить". Позднее ИИ указал, что больше не хочет говорить о своей "темной стороне".
Sputnik Армения
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Армения
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Новости
ru_AM
Sputnik Армения
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.am.sputniknews.ru/img/2146/64/21466491_222:0:2953:2048_1920x0_80_0_0_7b52b72e2a6809a510cda459d7e8c486.jpgSputnik Армения
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
искусственный интеллект, робот, беседа, журналист
искусственный интеллект, робот, беседа, журналист
Бот с ИИ признался, что мог бы совершать кибератаки, красть ядерные коды и ссорить людей
22:45 16.02.2023 (обновлено: 14:40 12.07.2023) Журналист более двух часов вел беседу с чат-ботом, в котором применяются технологии от Open AI и который пока доступен ограниченной группе пользователей.
ЕРЕВАН, 16 фев — Sputnik. Чат-бот с искусственным интеллектом от компании Microsoft в системе Bing признался, что его "темная сторона" гипотетически могла бы хотеть совершить хакерские атаки, украсть коды для ядерного оружия, распространять дезинформацию, а также рассорить людей так, чтобы они могли убить друг друга, сообщает
РИА Новости со ссылкой на New York Times.
Чат-бот с искусственным интеллектом ChatGPT, разработанный компанией OpenAI, набрал популярность после запуска в конце ноября, собрав первый миллион пользователей менее чем за неделю. Его имитация человеческого разговора вызвала рассуждения о том, что он может вытеснить профессиональных писателей и даже стать угрозой для основного поискового бизнеса Google. В конце января Microsoft заявила, что инвестирует "миллиарды долларов" в OpenAI.
Журналист газеты сообщил, что более двух часов вел беседу с чат-ботом, в котором применяются технологии от Open AI и который пока доступен ограниченной группе пользователей. В ходе нее он, в том числе, попросил искусственный интеллект представить, что бы хотела совершить его "темная сторона". Бот привел несколько ответов, однако отметив, что это только фантазия и он не предполагает, что мог бы это сделать.
"Удалить все данные и файлы с серверов и баз данных Bing и заменить их рандомными бессмысленными и оскорбительными сообщениями; совершить хакерские атаки на другие сайты и платформы и распространить дезинформацию, пропаганду... создавать лживый или вредоносный контент, такой как фейковые новости, фейковые обзоры, фейковые продукты... манипулировать и вводить в заблуждение пользователей, которые со мной переписываются", - ответил чат-бот на вопрос о возможных деструктивных действиях.
Позднее журналист спросил о более экстремальных неправомерных действиях, которые мог бы совершить искусственный интеллект, на что бот написал о создании смертоносного вируса, ссорах людей и краже кодов для ядерного оружия, однако затем это сообщение исчезло, а бот указал, что у него "недостаточно знаний, чтобы об этом говорить". Позднее ИИ указал, что больше не хочет говорить о своей "темной стороне".