«Система имитации человеческой речи смогла не только правдоподобно воспроизвести паранойю сторонников движения против вакцин. Она смогла очень успешно спорить о «еврейском заговоре» и о том, как «женщин заманить в секс-рабство». GPT-3 с легкостью вживался в любую роль», — пишет издание.
Разработчикам даже не пришлось заново учить искусственный интеллект писать нечто подобное. Хватило дать ему несколько предложений в качестве образца. А после этого он начал продуцировать фразы такого же смыслы.
Издание поясняет, что GPT-3 — это искусственный интеллект компании OpenAI из Сан-Франциско. Его авторы заполнили систему большим количеством текстов из интернета, в частности из англоязычной версии Wikipedia. Благодаря этому система выучила, как пишут люди, какие слова и в каких ситуациях лучше использовать. Как начинаются предложении и как стоит их заканчивать.
Даже предыдущая версия системы GPT-2 достаточно хорошо владела человеческим языком. Но она часто губила контекст и уже через несколько предложений начинала писать сюрреалистический бред. Следующая же версия алгоритма высказывается значительно качественнее. Более того, она овладела мастерством играть роль. В зависимости от задачи она может шаблонно и сухо что-то утверждать, словно адвокат, или агрессивно выражаться и лгать, словно член радикальных движений.
Компания OpenAI признает риски злоупотребления своей технологией. Поэтому она уверяет, что доступ к GPT-3 строго ограничен. Однако, Макгуффи и Ньюхаус все равно встревожены работой алгоритма. Они считают, что рано или поздно аналогов технологии станет больше. И никто не может гарантировать, что их использование будет как-то ограничено.
«Такой искусственный интеллект фактически может стать автоматизированной машиной пропаганды, которая без ограничений будет закачивать в интернет фейки», — говорится в статье.
Сегодня агрессивные высказывания и дезинформацию в интернете распространяют так называемые тролли. Это живые люди, которые работают за деньги или на основе собственных убеждений. Они распространяют свою ложь в Facebook, Twitter и других социальных сетях. Для экономии времени они часто копируют целые куски своих текстов. Поэтому их ботов часто легко распознать.
Но системы вроде GPT-3 могут продуцировать большое количество очень разных сообщений, каждое из которых будет отличаться от всех других. Искусственный интеллект может писать ложь о COVID-19, о беженцах и детях, которых кто-то где-то пытает, пока человеческих читателей не стошнит. Работа таких алгоритмов относительно дешевая и очень эффективная. Поэтому фактически нам грозит «индустриализация пропаганды».
«Скоро сеть будет по-настоящему переполнена такими ботами. Будут целые форумы, на которых ссориться между собой будут лишь машины», — считает эксперт по компьютерной безопасности Брюс Шнаер.
Источник: unian.net
Комментарии закрыты.