“Искусственный интеллект” инструмент для создания лжи…

Компьютерные программы компилирующие информацию из интернета, по чьей-то глупости названные “искусственным интеллектом”, ничего нового и умного создать не могут в принципе, но вот ложь, дезинформацию, фальсификаты очень похожие на то, что обычно пишут как бы учёные они создают легко.

Исследователи из Иллинойского технологического института выявили, что дезинформация, генерируемая большими языковыми моделями (Large Language Model, LLM), представляет собой более серьёзную угрозу по сравнению с дезинформацией, созданной человеком. Исследование ученых будет представлено на предстоящей международной конференции International Conference on Learning Representations.

Проблема обусловлена тем, что LLM-модели активно насыщают интернет сомнительным контентом. Например, аналитическая компания NewsGuard обнаружила 676 сайтов, генерирующих новости с минимальным участием человека, а также отслеживает ложные нарративы, созданные с помощью ИИ.

Дезинформация в исследовании возникает из-за того, что ChatGPT и другие LLM с открытым исходным кодом, включая Llama и Vicuna, создают контент на основе созданных человеком наборов дезинформационных данных, таких как Politifact, Gossipcop и CoAID. Затем 8 детекторов LLM оценили образцы, созданные человеком и машиной. Образцы дезинформации от LLM и человека имели одинаковые семантические детали, но различались стилем и формулировками из-за разных авторов и подсказок для генерации контента. Исследователи подчеркнули, что стиль дезинформации ИИ затрудняет её обнаружение по сравнению с человеческими текстами.

Авторы работы выделяют 4 стратегии создания дезинформации LLM: перефразирование информации, переписывание текста, открытая генерация и манипуляция информацией.

#

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Solve : *
2 ⁄ 1 =