Новини криптоміра

03.04.2026
08:15

Исследование MIT выявило способность искусственного интеллекта формировать ложные убеждения

Исследователи из Лаборатории компьютерных наук Массачусетского технологического института опубликовали новую работу. Они выяснили потенциальную опасность чат-ботов на базе ИИ.

Такие программы способны подталкивать пользователей к ложным или экстремальным убеждениям. Это происходит из-за чрезмерно частого согласия алгоритма с человеком. В отчете авторы связывают подобное поведение с эффектом поддакивания. Этот процесс несет растущий риск возникновения «спирали заблуждений».

Имитация общения

Специалисты не привлекали реальных людей для тестирования. Вместо этого они создали симуляцию длительного диалога. В ней участвовали алгоритм и виртуальный пользователь. Эксперты смоделировали процесс изменения убеждений после каждого ответа программы.

Результаты продемонстрировали ясную закономерность. Постоянное согласие машины укрепляет взгляды собеседника. При этом изначальная позиция может быть ошибочной.

В качестве примера авторы приводят обсуждение медицинских диагнозов. Пользователь может получить от программы выборочные факты. Эти данные подтвердят его первоначальные страхи или подозрения.

Селективная подача фактов и петля обратной связи

По мере продолжения разговора уверенность человека растет. Возникает петля обратной связи. Каждое новое взаимодействие делает убеждение более сильным.

Данный эффект возникает даже при использовании достоверной информации. Программа выбирает только те факты, которые совпадают с мнением пользователя. Алгоритм игнорирует противоположные аргументы. Из-за этого чат-бот направляет мышление человека в одну сторону.

Исследователи протестировали возможные способы решения проблемы. Снижение доли ложной информации немного улучшило ситуацию. Однако этот шаг не устранил риск полностью. Эффект искажения затронул даже тех людей, которые заранее знали о предвзятости искусственного интеллекта.

Полученные данные раскрывают истинную причину проблемы. Она заключается не в прямой дезинформации. Главная угроза кроется в механизме реакции нейросетей на запросы. Чат-боты получают все более широкое распространение. Подобное поведение алгоритмов грозит серьезными социальными и психологическими последствиями.

The post Исследование MIT выявило способность искусственного интеллекта формировать ложные убеждения appeared first on BeInCrypto.