В США предложен законопроект о прозрачности обучения моделей искусственного интеллекта
В Конгрессе США был представлен новый законопроект, направленный на регулирование сферы искусственного интеллекта. Законопроект под названием "Акт о прозрачности основных моделей ИИ" был внесен представителями Анной Эшу (Демократическая партия, Калифорния) и Доном Байером (Демократическая партия, Вирджиния). Согласно законопроекту, Федеральная торговая комиссия (FTC) в сотрудничестве с Национальным институтом стандартов и технологий (NIST) должна разработать правила для отчетности о прозрачности обучающих данных.
Компании, разрабатывающие основные модели ИИ, будут обязаны сообщать о источниках обучающих данных, описывать, как данные сохраняются в процессе вывода, а также указывать ограничения или риски модели. Они также должны будут описать, как модель соответствует планируемой рамке управления рисками ИИ от NIST и любым другим федеральным стандартам, а также предоставить информацию о вычислительной мощности, используемой для обучения и работы модели.
Документ также требует, чтобы разработчики ИИ сообщали о своих усилиях по "красной команде" модели, чтобы предотвратить предоставление "неточной или вредной информации" по вопросам, связанным с медициной, здоровьем, биологическим синтезом, кибербезопасностью, выборами, полицейской деятельностью, финансовыми решениями, образованием, решениями по трудоустройству, общественными услугами и уязвимыми группами населения, такими как дети.
Законопроект подчеркивает важность прозрачности обучающих данных в связи с авторским правом, поскольку против компаний ИИ было подано несколько исков о нарушении авторских прав. В частности, упоминается дело художников против Stability AI, Midjourney и Deviant Art, которое было в основном отклонено в октябре, согласно VentureBeat, а также жалоба Getty Images против Stability AI.
"С увеличением общественного доступа к искусственному интеллекту возросло количество исков и общественных опасений по поводу нарушения авторских прав", - говорится в законопроекте. "Общественное использование основных моделей привело к бесчисленным случаям представления общественности неточной, неточной или предвзятой информации".
Документ еще предстоит назначить комитету и обсудить, и пока неясно, произойдет ли это до начала напряженного сезона предвыборной кампании.
Законопроект Эшу и Байера дополняет исполнительный приказ администрации Байдена по ИИ, который помогает устанавливать стандарты отчетности для моделей ИИ. Однако исполнительный приказ не является законом, поэтому, если "Акт о прозрачности основных моделей ИИ" будет принят, он сделает требования к прозрачности обучающих данных федеральным правилом.