«Мир стоит на краю пропасти, где неконтролируемо людьми с экранов телевизоров и компьютеров льется ложь», – Кай-Фу Ли, китайский специалист по искусственному интеллекту.
Искусственный интеллект несет реальную угрозу человечеству из-за качественного создания фейкового контента. Нейросеть способна любое утверждение сопроводить ссылками на работы ученых и аргументировать позицию. Причем делает это быстро и качественно, не углубляясь в достоверность используемых материалов.
Об опасности нейросетей, генерирующих контент, заявил авторитетный специалист по ИИ из Китая Кай-Фу Ли. Он считает, что реализация прогноза о потоках ложного контента от нейросети еще опаснее, чем голод или военных конфликты. С последними на Земле знают, как бороться. А вот потоки ложной информации, неотличимой от правды, активно воспринимаются людьми «за чистую монету».
Дальнейшее внедрение искусственного интеллекта в виде технологии AICG грозит созданием алгоритмической пропаганды. Ведь система учится на множестве данных, не всегда они правдивы. Но отличать правду и ложь алгоритм не умеет. Из-за этого в итоге получается правдоподобный искаженный контент.
При этом люди все еще быстро теряют критическое мышление. Вместе с правдоподобностью дипфейков и фейкового контента от ИИ это создает взрывоопасную смесь. В Китае даже уже принимают законодательство, обязывающее помечать данные, созданные нейросетью.
Кай-Фу Ли подчеркивает, что мир стремительно идет к ситуации, когда отличить правду от лжи будет практически невозможно. А самое страшное, что даже в теории нет ни одного инструмента, позволяющего сделать это.
* Instagram и Facebook признаны экстремистcкими организациями в России