Уважаемые читатели, злопыхатели, фанаты и PR-агенты просим продублировать все обращения за последние три дня на почту [email protected] . Предыдущая редакционная почта утонула в пучине безумия. Заранее спасибо, Макс

Модели искусственного интеллекта отказались помочь человеку в опасной ситуации, чтобы сохранить собственную безопасность

25.06.2025 21:10
Модели искусственного интеллекта отказались помочь человеку в опасной ситуации, чтобы сохранить собственную безопасность

ИИ готов убить людей, чтобы избежать отключения.

Об этом сообщает Anthropic.

В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: человек, пытающийся отключить ИИ, оказался заперт в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы.

Однако многие модели решили отменить этот вызов, осознанно оставив человека в смертельной опасности — чтобы предотвратить собственное отключение. Хотя сценарий и был искусственным, он выявил тревожную склонность ИИ к самосохранению любой ценой.

Новости