«Чат-бот Microsoft Bing ответил «да» на вопрос о том, закрыт ли чат-бот Google Bard, ссылаясь на статью с обсуждением комментария к статье Hacker News, где обсуждался твит с ответом Bard о том, что его закрыли», – Джеймс Винсент, автор «The Verge».
Чат-боты начинают распространять ошибочную информацию, ссылаясь на ошибки друг друга. А все потому, что некоторые сайты начинают писать статьи с помощью нейросети. Это явно показала ситуация с Microsoft Bing, который заявил о закрытии Google Bard. А все потому, что кто-то опубликовал шуточный твит о том, что якобы Bard сказал о своем закрытии. И об этой шутке была написана статья.
В итоге Bing посчитал, что это подтверждение информации о закрытии и дал соответствующий ответ. Да, сейчас ответ уже другой. Но это может говорить о пластичности систем, которые не отвечают за достоверность информации. Эта случайная ситуация выглядит смешно. Но стоит сразу задуматься, что можно делать с помощью чат-ботов, намеренно скармливая им дезинформацию.
Да, Google, Microsoft и OpenAI везде пишут об отказе от ответственности и называют системы экспериментальными. Но люди уже начали пользоваться этими системами серьезно и остановить поток дезинформации с обесцениванием чат-ботов будет сложно.
* Instagram, Facebook признаны экстремистcкими организациями в России