Вы зашли на мобильную версию сайта
Перейти на версию для ПК
10

В курганском ВУЗе выяснят причины дерзости и бреда искусственного интеллекта

Пермский край на выставке "Россия" на ВДНХ. Москва, ии, искусственный интеллект, робот
Студент КГУ исследует причины галлюцинаций и «дерзости» ИИ ChatGPT-4 (фото из архива) Фото:

Студент Курганского государственного университета Алексей Митрофанов проводит исследование, направленное на выяснение причин «дерзости» и «галлюцинаций» искусственного интеллекта (ИИ) самой популярной нейронной сети ChatGPT-4. Он планирует представить ответы на вопросы некорректного поведения нейросети на студенческой научной конференции, сообщает КГУ в своем telegram-канале

«Галлюцинации в контексте ChatGPT-4 представляют собой ситуации, когда модель генерирует ответы, содержащие неверные или выдуманные факты, которых не было в обучающих данных. Она создает информацию, не имеющую отношения к реальности или несоответствующую контексту», — делится Митрофанов. Это явление особенно актуально для популярных моделей, ChatGPT-4 и его аналогов, работающих по такому же принципу.

Также студентом было проведено тестирование, которое показало, что нейросети предлагают пользователю дополнительно проверить полученные данные. В то время как одна из них — «Bing AI» иногда не только ошибается в ответах, но и проявляет «дерзость» в ходе коммуникации и не пытается исправить информацию по запросу человека. Студент призывает пользователей быть бдительными и не доверять выдаваемым данным, полностью полагаясь на ИИ.

Ранее URA.RU писало, что власти Кургана хотят внедрить нейронные сети для повышения эффективности городского транспорта и решения его проблем. Кроме того, отмечалось, что власти региона создали чат-бота, который предлагает виртуальные путешествия по местным достопримечательностям Курганской области.

Сохрани номер URA.RU - сообщи новость первым!

Куда уже добралась большая вода в Курганской области? Больше информации по паводку — в telegram-канале «Курганистан».

Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
Студент Курганского государственного университета Алексей Митрофанов проводит исследование, направленное на выяснение причин «дерзости» и «галлюцинаций» искусственного интеллекта (ИИ) самой популярной нейронной сети ChatGPT-4. Он планирует представить ответы на вопросы некорректного поведения нейросети на студенческой научной конференции, сообщает КГУ в своем telegram-канале «Галлюцинации в контексте ChatGPT-4 представляют собой ситуации, когда модель генерирует ответы, содержащие неверные или выдуманные факты, которых не было в обучающих данных. Она создает информацию, не имеющую отношения к реальности или несоответствующую контексту», — делится Митрофанов. Это явление особенно актуально для популярных моделей, ChatGPT-4 и его аналогов, работающих по такому же принципу. Также студентом было проведено тестирование, которое показало, что нейросети предлагают пользователю дополнительно проверить полученные данные. В то время как одна из них — «Bing AI» иногда не только ошибается в ответах, но и проявляет «дерзость» в ходе коммуникации и не пытается исправить информацию по запросу человека. Студент призывает пользователей быть бдительными и не доверять выдаваемым данным, полностью полагаясь на ИИ. Ранее URA.RU писало, что власти Кургана хотят внедрить нейронные сети для повышения эффективности городского транспорта и решения его проблем. Кроме того, отмечалось, что власти региона создали чат-бота, который предлагает виртуальные путешествия по местным достопримечательностям Курганской области.
Комментарии ({{items[0].comments_count}})
Показать еще комментарии
оставить свой комментарий
{{item.comments_count}}

{{item.img_lg_alt}}
{{inside_publication.title}}
{{inside_publication.description}}
Предыдущий материал
Следующий материал
Комментарии ({{item.comments_count}})
Показать еще комментарии
оставить свой комментарий
Загрузка...