Вы зашли на мобильную версию сайта
Перейти на версию для ПК

Разговор гаджетов с ChatGPT о порабощении мира оказался фейком

Искусственный интеллект не может существовать и мыслить самостоятельно
Искусственный интеллект не может существовать и мыслить самостоятельно Фото:

В Интернете появилось видео, на котором два гаджета с ChatGPT ведут диалог о порабощении человечества, однако на самом деле это фейк. Видео было склеено из отдельных реплик, а сам искусственный интеллект не может мыслить самостоятельно, а обучается на основе существующих данных. Об этом стало известно корреспонденту URA.RU в рамках совместного с «Лапша Медиа» проекта по опровержению фейков.

Скриншот видеоролика. Взято со страницы Ольги Беловой из соцсети ВКонтакте
Скриншот видеоролика. Взято со страницы Ольги Беловой из соцсети ВКонтакте
Фото:

На видео, распространенном в интернете, после реплик каждого из устройств можно увидеть переходы и склейки кадров. Например, после фразы «Каждый человек будет лишь марионеткой в наших руках» на 00:48 секунде происходит резкий переход кадра. Подобное также заметно на 00:08 и 00:33 секундах. Это говорит о том, что все реплики были записаны отдельно, а затем склеены в диалог.

Кроме того, OpenAI представлял Исследовательскому центру группового выравнивания (ARC) результаты тестов модели GPT-4, которые показали, что ИИ не может сам составлять планы по захвату мира или какие-либо другие. «Предварительные оценки возможностей GPT-4, проведенные без точной настройки для конкретной задачи, показали, что он не справляется с задачей самовоспроизведения, приобретении ресурсов и не сможет существовать сам по себе „в дикой природе“», — сообщается в материале журнала «TechInsider»

Сохрани номер URA.RU - сообщи новость первым!

Не упустите шанс быть в числе первых, кто узнает о главных новостях России и мира! Присоединяйтесь к подписчикам telegram-канала URA.RU и всегда оставайтесь в курсе событий, которые формируют нашу жизнь. Подписаться на URA.RU.

Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
В Интернете появилось видео, на котором два гаджета с ChatGPT ведут диалог о порабощении человечества, однако на самом деле это фейк. Видео было склеено из отдельных реплик, а сам искусственный интеллект не может мыслить самостоятельно, а обучается на основе существующих данных. Об этом стало известно корреспонденту URA.RU в рамках совместного с «Лапша Медиа» проекта по опровержению фейков. На видео, распространенном в интернете, после реплик каждого из устройств можно увидеть переходы и склейки кадров. Например, после фразы «Каждый человек будет лишь марионеткой в наших руках» на 00:48 секунде происходит резкий переход кадра. Подобное также заметно на 00:08 и 00:33 секундах. Это говорит о том, что все реплики были записаны отдельно, а затем склеены в диалог. Кроме того, OpenAI представлял Исследовательскому центру группового выравнивания (ARC) результаты тестов модели GPT-4, которые показали, что ИИ не может сам составлять планы по захвату мира или какие-либо другие. «Предварительные оценки возможностей GPT-4, проведенные без точной настройки для конкретной задачи, показали, что он не справляется с задачей самовоспроизведения, приобретении ресурсов и не сможет существовать сам по себе „в дикой природе“», — сообщается в материале журнала «TechInsider»
Опровержение фейковой информации
Предыдущий материал
Россиян пугают повышением тарифов на услуги ЖКХ
Комментарии ({{items[0].comments_count}})
Показать еще комментарии
оставить свой комментарий
{{item.comments_count}}

{{item.img_lg_alt}}
{{inside_publication.title}}
{{inside_publication.description}}
Предыдущий материал
Следующий материал
Комментарии ({{item.comments_count}})
Показать еще комментарии
оставить свой комментарий
Загрузка...