BTCC / BTCC Square / incryptedRU /
Эксперты бьют тревогу: разработчики ИИ-моделей «абсолютно не готовы» к угрозам сверхинтеллекта

Эксперты бьют тревогу: разработчики ИИ-моделей «абсолютно не готовы» к угрозам сверхинтеллекта

Published:
2025-07-17 14:22:51

Искусственный интеллект стремительно эволюционирует, но его создатели, похоже, безнадежно отстают. По данным экспертов, разработчики ИИ-моделей даже близко не подошли к пониманию рисков, связанных с появлением сверхразума.

Гонка за прибылью затмила безопасность. Пока венчурные капиталисты скупают акции ИИ-стартапов, сами разработчики признают: они не имеют ни плана, ни инструментов для контроля над потенциально опасным сверхинтеллектом.

Финансовый сектор, как всегда, занят спекуляциями на хайпе. Но когда ИИ начнет оптимизировать рынки без участия человека, даже криптовалюты могут показаться безопасным активом.

Индекс безопасности ИИ. Данные: FLI. 

Среди рассматриваемых компаний значатся OpenAI, Google DeepMind, Anthropic, Meta, xAI, а также китайские Zhipu AI и DeepSeek. Индекс охватывает шесть направлений, включая текущие угрозы и готовность к потенциальным катастрофическим последствиям выхода ИИ из-под контроля.

Наивысший общий балл — C+ — получил стартап Anthropic. За ним следуют OpenAI с C и Google DeepMind с оценкой C-. Остальные компании показали еще более слабые результаты. Один из рецензентов заявил, что ни у одной из организаций нет «ничего похожего на последовательный, реализуемый план» по контролю над ИИ.

По словам соучредителя FLI и профессора MIT Макса Тегмарка, передовые компании строят системы, сравнимые по опасности с ядерными объектами. При этом они не публикуют даже базовых планов по предотвращению катастроф. Ученый подчеркнул, что темпы развития ИИ опережают прежние ожидания. Если раньше речь шла о десятилетиях, то теперь сами компании говорят о горизонте в несколько лет.

В докладе также упоминается, что с момента февральского саммита по ИИ прогресс ускорился. Модели Grok 4, Gemini 2.5 и видеогенератор Veo3 уже демонстрируют значительный рост возможностей. 

Параллельно с отчетом FLI параллельный отчет выпустила организация SaferAI. Она пришла к схожим выводам о «неприемлемо слабом» управлении рисками в индустрии. Эксперты уверены, что представители индустрии обязаны в срочном порядке пересмотреть свой подход к разработке AGI.

Представитель Google DeepMind заявил, что в отчете FLI не отражены все их меры безопасности. Остальные компании на момент публикации не комментировали ситуацию.

Напомним, мы писали, что корпорация Meta переманила к себе ученых OpenAI для работы над суперинтеллектом. 

|Square

Установите приложение BTCC, чтобы начать свое путешествие в мир крипты

Начать сегодня Отсканируйте, чтобы присоединиться к 100 млн + наших пользователей