Синтия Ламмис предлагает законопроект об искусственном интеллекте, обязывающий компании раскрывать технические данные
Сенатор Синтия Ламмис (республиканец от Вайоминга) представила законопроект «Об ответственных инновациях и SAFE-экспертизе» (RISE) на 2025 год, направленный на разъяснение вопросов ответственности за использование искусственного интеллекта (ИИ) профессионалами.
Законопроект может повысить прозрачность разработчиков ИИ, не требуя при этом открытого исходного кода моделей.
В пресс-релизе Ламмис заявила, что закон RISE означает, что профессионалы, такие как врачи, юристы, инженеры и финансовые консультанты, остаются юридически ответственными за предоставляемые рекомендации, даже если они основаны на системах ИИ.
Разработчики ИИ смогут избежать гражданской ответственности в случае ошибок только в том случае, если они публикуют так называемые «карты моделей».
Согласно законопроекту, карты моделей — это подробные технические документы, раскрывающие источники обучающих данных, предполагаемые сферы применения, метрики производительности, известные ограничения и возможные сбои системы ИИ. Это поможет профессионалам оценить, подходит ли инструмент для их работы.
«Вайоминг ценит как инновации, так и ответственность; закон RISE создает предсказуемые стандарты, которые способствуют более безопасной разработке ИИ, сохраняя при этом автономию профессионалов», — заявила Ламмис в пресс-релизе.
«Этот закон не предоставляет ИИ полный иммунитет», — подчеркнула Ламмис.
Однако иммунитет, предусмотренный законом, имеет четкие границы. Разработчики не защищены в случаях безрассудства, умышленных нарушений, мошенничества, намеренного введения в заблуждение или выхода за рамки профессионального использования.
Кроме того, разработчики обязаны соблюдать принцип постоянной отчетности. Техническая документация должна обновляться в течение 30 дней после выпуска новых версий или обнаружения серьезных сбоев, что усиливает обязательства по прозрачности.
Без требования открытого исходного кодаВ текущей редакции закон RISE не обязывает разработчиков делать модели ИИ полностью открытыми.
Разработчики могут скрывать коммерческую тайну, но только если скрываемая информация не касается безопасности, а каждое исключение сопровождается письменным обоснованием.
В интервью CoinDesk Саймон Ким, CEO Hashed (один из ведущих венчурных фондов Южной Кореи), высказался об опасности централизованного ИИ с закрытым исходным кодом, который остается «черным ящиком».
«OpenAI не является открытым, и он контролируется очень небольшим числом людей, что довольно опасно. Создание такой [закрытой] базовой модели похоже на создание „бога“, но мы не знаем, как она работает», — заявил Ким.
Перевод: DeFiRaptor