Художники создали инструмент для "отравления" данных ИИ в отместку за кражу искусства

Художники разработали бесплатный инструмент под названием Nightshade, который позволяет вносить невидимые изменения в пиксели изображений перед публикацией онлайн. Это «отравит» данные для обучения ИИ и испортит работу моделей вроде DALL-E, если они без разрешения используют чужие произведения. Это месть художников компаниям вроде OpenAI.
Художники создали инструмент для "отравления" данных ИИ в отместку за кражу искусства

Группа художников и исследователей из университета Чикаго представила новый бесплатный инструмент под названием Nightshade (наперстянка), который позволяет незаметно для человеческого глаза вносить микроскопические изменения в пиксели цифровых изображений перед их публикацией в сети.

Цель создания этой программы - "отравить" данные, которые без разрешения авторов используются технологическими компаниями для обучения нейросетей, способных генерировать изображения и тексты. Речь идет о таких моделях, как DALL-E, Stable Diffusion, GPT-3 и им подобные.

Если эти системы искусственного интеллекта путем скрапинга извлекут из интернета отравленные таким образом картинки и включат их в свои тренировочные наборы данных, их работа начнет давать странные и бессмысленные результаты. Например, собаки будут превращаться в кошек, машины - в коров, замки - в тостеры и так далее.

По замыслу авторов Nightshade, это станет своего рода местью творческих людей технологическим компаниям вроде OpenAI, которые нередко используют чужие произведения искусства без разрешения и компенсации для тренировки коммерческих нейросетевых моделей.

Как отмечают разработчики, такой подход призван вернуть художникам контроль над собственным творчеством и защитить их авторские права. Внесение невидимых глазу искажений в пиксели - это технический ответ на юридическую проблему.

Устранить последствия подобного "отравления" данных для ИИ крайне сложно - это потребует от технологических фирм кропотливого поиска и удаления каждого скомпрометированного изображения вручную. Чем больше "зараженных" картинок попадет в тренировочную выборку модели, тем серьезнее будет ущерб для ее работы.

Помимо Nightshade, та же команда разработала дополнительный инструмент под названием Glaze, который позволяет маскировать уникальный визуальный стиль конкретного художника, чтобы его произведения было сложнее опознать и скопировать нейронной сетью.

В скором времени планируется интегрировать возможности Nightshade непосредственно в Glaze, чтобы дать авторам выбор - использовать "отравление" данных или нет. Авторы уверены, что их разработки помогут вернуть художникам контроль над собственным творчеством и заставят технологические компании более уважительно относиться к авторским правам.

23:00
70
Нет комментариев. Ваш будет первым!
Посещая этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.