Эксперт по искусственному интеллекту Кай-Фу Ли не может отличить ложь нейросети от правды

Появление большого количества аргументированного фейкового контента несет опасность в ближайшем будущем.
Кай-Фу Ли: сфабрикованная нейросетями информация неотличима от правды

Фото:

«Мир стоит на краю пропасти, где неконтролируемо людьми с экранов телевизоров и компьютеров льется ложь», – Кай-Фу Ли, китайский специалист по искусственному интеллекту.

Искусственный интеллект несет реальную угрозу человечеству из-за качественного создания фейкового контента. Нейросеть способна любое утверждение сопроводить ссылками на работы ученых и аргументировать позицию. Причем делает это быстро и качественно, не углубляясь в достоверность используемых материалов.

Об опасности нейросетей, генерирующих контент, заявил авторитетный специалист по ИИ из Китая Кай-Фу Ли. Он считает, что реализация прогноза о потоках ложного контента от нейросети еще опаснее, чем голод или военных конфликты. С последними на Земле знают, как бороться. А вот потоки ложной информации, неотличимой от правды, активно воспринимаются людьми «за чистую монету».

Дальнейшее внедрение искусственного интеллекта в виде технологии AICG грозит созданием алгоритмической пропаганды. Ведь система учится на множестве данных, не всегда они правдивы. Но отличать правду и ложь алгоритм не умеет. Из-за этого в итоге получается правдоподобный искаженный контент.

При этом люди все еще быстро теряют критическое мышление. Вместе с правдоподобностью дипфейков и фейкового контента от ИИ это создает взрывоопасную смесь. В Китае даже уже принимают законодательство, обязывающее помечать данные, созданные нейросетью.

Кай-Фу Ли подчеркивает, что мир стремительно идет к ситуации, когда отличить правду от лжи будет практически невозможно. А самое страшное, что даже в теории нет ни одного инструмента, позволяющего сделать это.

* Instagram, Facebook признаны экстремистcкими организациями в России

Понравилась статья? Поделиться с друзьями: