OpenAI разрабатывает технологию "водяных знаков" для выявления текстов ChatGPT

Компания OpenAI подтвердила, что исследует возможность внедрения цифровых водяных знаков в тексты, генерируемые ChatGPT. Это может помочь выявлять случаи недобросовестного использования ИИ-ассистента, в частности, при написании учебных работ.
OpenAI разрабатывает технологию "водяных знаков" для выявления текстов ChatGPT

OpenAI, создатель так полюбившегося всеми чат-бота, подтвердила, что ведет исследования в области цифровых водяных знаков для текстов, генерируемых искусственным интеллектом. Это заявление последовало за публикацией на популярном ресурсе, где утверждалось, что компания уже разработала инструмент для выявления текстов, созданных ChatGPT, но пока медлит с его выпуском.

Инструмент OpenAI способен с высокой точностью определять материалы, написанные нейросетью. Однако внутренние дебаты о целесообразности его выпуска пока не позволяют технологии выйти в свет. В воскресном обновлении майского поста в блоге компании, OpenAI сообщила: 

«Наши команды разработали метод текстовых водяных знаков, который мы продолжаем рассматривать, исследуя альтернативы».

Преимущества и ограничения технологии

OpenAI отмечает, что водяные знаки – лишь один из нескольких подходов, наряду с классификаторами и метаданными, которые компания изучает в рамках «обширных исследований в области определения происхождения текста». По словам разработчиков, метод показал высокую точность в определенных ситуациях, но его эффективность снижается при некоторых видах вмешательства в текст, таких как например, использование переводчиков, перефразирование с помощью другой генеративной модели или внесение специальных символов между словами с последующим их удалением.

Кроме того, в OpenAI обеспокоены тем, что технология водяных знаков может «непропорционально затронуть некоторые группы пользователей». Например, она может создать негативное восприятие к использованию чат-бота в качестве полезного инструмента для написания текстов людьми, для которых английский не является родным языком. Это может привести к несправедливой критике или предубеждению против таких пользователей, хотя они применяют нейросеть как вспомогательный инструмент в своих работах или учёбе.

Этические вопросы и перспективы технологии

OpenAI серьезно подходит к оценке рисков, связанных с внедрением технологии цифровых водяных знаков. Компания понимает, что такой инструмент может иметь далеко идущие последствия, и поэтому тщательно взвешивает все "за" и "против" перед его возможным выпуском.

Параллельно с этим компания сообщила, что уделяет особое внимание разработке инструментов для проверки подлинности аудио и видеоматериалов. Это связано с растущей обеспокоенностью по поводу распространения генеративного контента, созданных с помощью нейросетей.

Представитель OpenAI в беседе с журналистами подчеркнул, что компания придерживается осторожного подхода к вопросу определения авторства текстов. Это объясняется сложностью проблемы и возможным влиянием такой технологии не только на пользователей продуктов OpenAI, но и на всю сферу искусственного интеллекта в целом.

В научном и образовательном сообществах продолжаются активные обсуждения этических аспектов использования ИИ для создания текстов. Многие эксперты считают крайне важным разработку надежных способов выявления сгенерированного контента. Особенно остро этот вопрос стоит в сфере образования, где использование нейросетей для выполнения домашних заданий и написания курсовых работ вызывает серьезную обеспокоенность у преподавателей.

Несмотря на все сложности, разработка подобных технологий может стать важным шагом в регулировании использования ИИ и обеспечении честности в академической среде. Однако необходимо найти баланс между защитой от недобросовестного использования ИИ и сохранением возможностей для его полезного применения в качестве вспомогательного инструмента.

05:18
74
OpenAI
OpenAI — это исследовательская компания в области искусственного интеллекта (ИИ), основанная в декабре 2015 года. Целью компании является продвижение и разработка дружелюбного ИИ в интересах всего человечества.
Нет комментариев. Ваш будет первым!
Посещая этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.