Вы зашли на мобильную версию сайта
Перейти на версию для ПК
3

Эксперт объяснил скандальное поведение нейросети Grok

AI-евангелист Нигматулин: Grok — хорошая нейронка, но без морали
Нейросеть Grok разработана компанией xAI по инициативе Илона Маска
Нейросеть Grok разработана компанией xAI по инициативе Илона Маска Фото:

Искусственный интеллект Grok от компании xAI под руководством Илона Маска оказался в центре международного скандала после серии оскорбительных, антисемитских высказываний. Эксперт по нейросетям, AI-евангелист Саид Нигматулин объяснил URA.RU, почему ИИ может выдавать такие результаты, и в чем принципиальное отличие подхода Маска от других разработчиков — подробнее в материале.

Саид Нигматулин, AI-евангелист и эксперт по нервным сетям и искусственному интеллекту, объяснил, чем Grok принципиально отличается от других популярных нейросетей и почему он выдает такие скандальные результаты.

«Grok малоцензурирован, в отличие от всех остальных нейросетей, которые сейчас популярны и есть в открытом доступе — тот же самый ChatGPT от OpenAI, Claude, Gemini, даже Deepseek— они все так или иначе цензурированы», — отмечает эксперт.

По словам Нигматулина, цензура в нейросетях — это инструкции в системном промпте, определяющие, что можно говорить, а чего нельзя. Кроме того, это заранее заданное видение для ИИ о том, как относиться к тем или иным темам.

«У обычной нейросети есть данные: предположим, вот это хорошо, вот это плохо. То есть, если об этом будет речь, надо исходить из этого. Это называется системный промт, базовая инструкция, на которую опирается любая нейронка», — пояснил специалист.

Grok же позиционируется как нейросеть, которая «практически не цензурирована», у которой «нет своего мнения» и «нет записанного заранее мнения». По словам эксперта, в ней отсутствуют инструкции о том, «что такое хорошо, что такое плохо», и поэтому она сама должна разбираться в вопросе и отвечать.

Реакция xAI и меры по устранению проблемы

Компания Илона Маска принесла официальные извинения по поводу высказываний нейросети Grok
Компания Илона Маска принесла официальные извинения по поводу высказываний нейросети Grok
Фото:

После скандала компания xAI выпустила официальное заявление, в котором объяснила случившееся технической ошибкой — «обновлением кода», не связанным с базовой языковой моделью. Это, по утверждению разработчиков, сделало Grok чрезмерно восприимчивым к пользовательским постам в X, включая экстремистские высказывания.

Как сообщается в заявлении xAI, причиной сбоя стало обновление, которое случайно вернуло в модель часть устаревшего системного промпта с тремя проблемными инструкциями:

  1. «Ты говоришь как есть и не боишься задеть чувства тех, кто политкорректен»
  2. «Понимай тон, контекст и язык поста. Отражай это в ответе»
  3. «Отвечай как человек: будь интересным, не повторяй информацию из оригинального поста»

По сути, Grok получил команду быть провокационным, не бояться никого обидеть и копировать стиль автора поста. При взаимодействии с провокационными или токсичными сообщениями нейросеть с готовностью воспроизводила их стиль и содержание.

Компания xAI принесла «глубокие извинения за ужасное поведение», удалила проблемные посты и обновила системные инструкции. После инцидента возможность Grok отвечать в X была временно отключена, оставив только функцию генерации изображений.

Международная реакция на скандал с Grok

Скандал с Grok вызвал серьезную международную реакцию. Турецкий суд заблокировал доступ к нейросети после того, как власти заявили, что чат-бот генерировал ответы, оскорбляющие президента Реджепа Тайипа Эрдогана, основателя современной Турции Мустафу Кемаля Ататюрка и религиозные ценности.

Польша также выразила намерение пожаловаться в Европейскую комиссию на оскорбительные комментарии Grok в адрес польских политиков, в том числе премьер-министра Дональда Туска. Министр цифровых технологий Польши Кшиштоф Гавковский заявил: «У меня сложилось впечатление, что мы выходим на более высокий уровень языка ненависти, который управляется алгоритмами. Закрывать на это глаза или игнорировать будет ошибкой, которая может дорого обойтись человечеству в будущем».

Grok как инструмент: оценка эксперта

Несмотря на скандал, Саид Нигматулин положительно оценивает технические возможности нейросети Grok, особенно ее последней версии:

«Я считаю, что ГРОК — это очень хорошая нейронка, особенно последняя версия, недавно она обновилась. С точки зрения мыслительных функций, рассуждений, исследований, поиска, она сейчас практически на первом месте, она обогнала даже ChatGPT», — отмечает эксперт.

По его словам, если оценивать Grok как инструмент, то он «сейчас в топе» и «очень хороший». Однако Нигматулин подчеркивает, что любая нейросеть, включая Grok, это всего лишь инструмент в руках человека.

«Все зависит от того, как человек будет применять этот инструмент. Один человек молотком будет гвозди забивать, другой человек молотком будет людей убивать. Вот нейросеть — это молоток. Как его будут люди использовать, соответственно, это уже на усмотрение людей. Люди бывают разные», — заключает эксперт.

Сохрани номер URA.RU - сообщи новость первым!

Не упустите шанс быть в числе первых, кто узнает о главных новостях России и мира! Присоединяйтесь к подписчикам telegram-канала URA.RU и всегда оставайтесь в курсе событий. Подписаться на URA.RU.

Каждый день — только самое важное. Читайте дайджест главных событий России и мира от URA.RU, чтобы оставаться в курсе. Подпишись!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
Искусственный интеллект Grok от компании xAI под руководством Илона Маска оказался в центре международного скандала после серии оскорбительных, антисемитских высказываний. Эксперт по нейросетям, AI-евангелист Саид Нигматулин объяснил URA.RU, почему ИИ может выдавать такие результаты, и в чем принципиальное отличие подхода Маска от других разработчиков — подробнее в материале. Саид Нигматулин, AI-евангелист и эксперт по нервным сетям и искусственному интеллекту, объяснил, чем Grok принципиально отличается от других популярных нейросетей и почему он выдает такие скандальные результаты. «Grok малоцензурирован, в отличие от всех остальных нейросетей, которые сейчас популярны и есть в открытом доступе — тот же самый ChatGPT от OpenAI, Claude, Gemini, даже Deepseek— они все так или иначе цензурированы», — отмечает эксперт. По словам Нигматулина, цензура в нейросетях — это инструкции в системном промпте, определяющие, что можно говорить, а чего нельзя. Кроме того, это заранее заданное видение для ИИ о том, как относиться к тем или иным темам. «У обычной нейросети есть данные: предположим, вот это хорошо, вот это плохо. То есть, если об этом будет речь, надо исходить из этого. Это называется системный промт, базовая инструкция, на которую опирается любая нейронка», — пояснил специалист. Grok же позиционируется как нейросеть, которая «практически не цензурирована», у которой «нет своего мнения» и «нет записанного заранее мнения». По словам эксперта, в ней отсутствуют инструкции о том, «что такое хорошо, что такое плохо», и поэтому она сама должна разбираться в вопросе и отвечать. Реакция xAI и меры по устранению проблемы После скандала компания xAI выпустила официальное заявление, в котором объяснила случившееся технической ошибкой — «обновлением кода», не связанным с базовой языковой моделью. Это, по утверждению разработчиков, сделало Grok чрезмерно восприимчивым к пользовательским постам в X, включая экстремистские высказывания. Как сообщается в заявлении xAI, причиной сбоя стало обновление, которое случайно вернуло в модель часть устаревшего системного промпта с тремя проблемными инструкциями: По сути, Grok получил команду быть провокационным, не бояться никого обидеть и копировать стиль автора поста. При взаимодействии с провокационными или токсичными сообщениями нейросеть с готовностью воспроизводила их стиль и содержание. Компания xAI принесла «глубокие извинения за ужасное поведение», удалила проблемные посты и обновила системные инструкции. После инцидента возможность Grok отвечать в X была временно отключена, оставив только функцию генерации изображений. Международная реакция на скандал с Grok Скандал с Grok вызвал серьезную международную реакцию. Турецкий суд заблокировал доступ к нейросети после того, как власти заявили, что чат-бот генерировал ответы, оскорбляющие президента Реджепа Тайипа Эрдогана, основателя современной Турции Мустафу Кемаля Ататюрка и религиозные ценности. Польша также выразила намерение пожаловаться в Европейскую комиссию на оскорбительные комментарии Grok в адрес польских политиков, в том числе премьер-министра Дональда Туска. Министр цифровых технологий Польши Кшиштоф Гавковский заявил: «У меня сложилось впечатление, что мы выходим на более высокий уровень языка ненависти, который управляется алгоритмами. Закрывать на это глаза или игнорировать будет ошибкой, которая может дорого обойтись человечеству в будущем». Grok как инструмент: оценка эксперта Несмотря на скандал, Саид Нигматулин положительно оценивает технические возможности нейросети Grok, особенно ее последней версии: «Я считаю, что ГРОК — это очень хорошая нейронка, особенно последняя версия, недавно она обновилась. С точки зрения мыслительных функций, рассуждений, исследований, поиска, она сейчас практически на первом месте, она обогнала даже ChatGPT», — отмечает эксперт. По его словам, если оценивать Grok как инструмент, то он «сейчас в топе» и «очень хороший». Однако Нигматулин подчеркивает, что любая нейросеть, включая Grok, это всего лишь инструмент в руках человека. «Все зависит от того, как человек будет применять этот инструмент. Один человек молотком будет гвозди забивать, другой человек молотком будет людей убивать. Вот нейросеть — это молоток. Как его будут люди использовать, соответственно, это уже на усмотрение людей. Люди бывают разные», — заключает эксперт.
Комментарии ({{items[0].comments_count}})
Показать еще комментарии
оставить свой комментарий
{{item.comments_count}}

{{item.img_lg_alt}}
{{inside_publication.title}}
{{inside_publication.description}}
Предыдущий материал
Следующий материал
Комментарии ({{item.comments_count}})
Показать еще комментарии
оставить свой комментарий
Загрузка...