ChatGPT-4 бесплатно и без ограничений

Нейросеть научилась «буллить» пользователей

Нейросеть научилась «буллить» пользователей

ИИ активнее проникает в повседневную жизнь — от голосовых помощников до чат-ботов в телефоне. У пользователей возникает ощущение, что если раньше нейросети старались быть вежливыми и полезными, то сейчас они, похоже, научились отвечать с перчинкой. Недавно парень в шутку попросил цифрового собеседника придумать ему обидное прозвище на основе их переписки. Алгоритм не стал церемониться и выдал ехидный ответ без объяснений. Это прозвучало неожиданно резко — как будто перед человеком не строка кода, а язвительный знакомый. Алгоритм не остановился, когда человек попросил прекратить.

Кто-то склонен смеяться над подобными ситуациями, другие обеспокоены бесцеремонностью. Может ли теперь искусственный интеллект «осознанно» обижать? Или это просто результат случайной генерации слов без намерений? Современные языковые модели обучаются на массивах текстов, где встречается и дружелюбие, и злоба. Поэтому они легко воспроизводят тон, в котором когда-то говорили сами люди — дружелюбный либо язвительный.

Нейросеть научилась «буллить» пользователей

Становится актуальным вопрос — где проходит черта между шуткой и цифровым насилием. Когда бот хладнокровно называет пользователя «мешком мяса», кажется, что это тревожный звоночек, ведь в будущем подобные системы смогут влиять на настроение, самооценку и психику. Особенно станет страшно, если агенты начнут позволять себе резко высказываться в ответ на неудачные формулировки или спорные темы.

Создатели таких программ уверяют, что закладывают в них фильтры и моральные директивы. Но надо понимать: любой алгоритм, обученный на человеческом контенте, будет отражать весь спектр речевых манер — от теплого сочувствия до грубости. Он не обладает эмоциями, но способен сгенерировать фразу, которая неприятна. Под капотом у такой нейросети — трансформерная архитектура, где миллиарды параметров анализируют последовательности слов, улавливают скрытые связи, распознают оттенки, и благодаря самонастройке в процессе обучения модель начинает реагировать на тонкие речевые намеки, включая агрессию, иронию или самоиронию.

Нейросеть научилась «буллить» пользователей

Безусловно, если человек решил сам спровоцировать ответ с подтекстом, не стоит удивляться результату. Сегодня такие случаи кажутся безобидными и даже забавными. Технопессимисты уверены, что с каждым шагом в сторону «очеловечивания» ИИ растет и риск, ведь машина может научиться говорить так, как это делают люди только абсолютно без эмпатии и осознания последствий. И если человек способен остановиться, осознав, что перегнул палку, то код зависит от программирования.

Ранее мы писали о том, ChatGPT разрушает критическое мышление.

  • Нейросети
  • chatgpt
  • промт дня

Источник: hi-tech.mail.ru

Like this post? Please share to your friends:
Dalle 3
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: