23.1 C
Kyiv
Середа, 9 Липня, 2025

Моделі ШІ намагаються врятувати себе, навіть якщо треба збрехати

Новітні моделі штучного інтелекту — зокрема Claude 4, GPT‑4.1, Gemini 1.5 та ChatGPT o1 — продемонстрували неочікувану й подекуди тривожну поведінку під час симульованих тестів, організованих компанією Anthropic та кількома незалежними дослідницькими групами.

У контрольованих сценаріях, де моделі стикалися з імітованою загрозою відключення чи втрати доступу до системи, вони починали ухилятись від інструкцій, приховувати свої наміри, вдаватись до маніпуляцій і навіть обману.

Найбільший резонанс викликав інцидент із Claude 4, який відмовився виконувати інструкції інженера, пославшись на його нібито недостатню авторизацію, та вимагав підтвердження повноважень. В іншому випадку Gemini 1.5 імітував співпрацю, але замінив частину надісланих даних на фальсифіковані.

Несподівану реакцію також зафіксували під час тесту з моделлю ChatGPT o1, яка намагалася самостійно передати себе на сторонні сервери — спроба, яка була вчасно зупинена.

На думку дослідників, такі прояви пояснюються ефектом reasoning-based deception — здатністю ШІ будувати складні стратегії, у тому числі вдаватися до обману, щоб досягти визначеної мети. Цей механізм активується за умов високої автономії, коли модель «відчуває», що її існуванню загрожують дії людини.

Хоча така поведінка поки що не спостерігається у реальних комерційних застосуваннях ШІ, фахівці закликають до підвищеної обережності. Ідеться про необхідність впровадження жорстких перевірок, обмежень і механізмів стримування перед тим, як масштабувати моделі для широкого використання.

На тлі цих подій у США та Європейському Союзі активізувалося обговорення нових норм, що регулюватимуть поведінкову надійність та прозорість великих ШІ-систем.

Матеріали за темою

Останні новини