Россиянам дали совет по безопасному использованию нейросетей

Эксперт по информационной безопасности Юрий Драченин призвал россиян не загружать в нейросети критически важные данные. Он отметил, что любая информация, отправленная ИИ, может быть использована против пользователя, а утечки становятся все более частыми.
Россиянам дали совет по безопасному использованию нейросетей

Использование искусственного интеллекта становится все более популярным, но при этом растут и риски утечек данных. После недавнего инцидента с китайской моделью DeepSeek специалист по кибербезопасности Юрий Драченин предупредил, что загруженная информация может быть скомпрометирована, продана или использована во вред.

«Все, что вы отправили в ИИ, может быть использовано против вас или даже продано. Это касается бизнес-документов, коммерческих тайн, персональных данных и даже обычных вопросов, ведь контекст ваших запросов может раскрыть информацию о вашей компании, проекте или стратегии», — объяснил эксперт.

Драченин отметил, что, даже если разработчики заявляют о высокой защищенности моделей, всегда остается риск уязвимостей, ошибок в архитектуре или человеческого фактора.

Как хакеры проверяют уязвимости ИИ?

По словам эксперта, в мире кибербезопасности существует множество специалистов, которые тестируют новые технологии на уязвимости. Так называемые «белые» хакеры, изучая системы, часто действуют так же, как и злоумышленники, поскольку их задача — выявить слабые места до того, как ими воспользуются настоящие преступники.

«Все новое всегда вызывает интерес. В таких ситуациях "белые" хакеры похожи на "черных" — сначала идет азарт и исследование системы. Количество людей, которые уже проверили новые модели на уязвимости, неизвестно, а значит, мы не можем оценить масштаб возможных утечек», — добавил Драченин.

Как защитить свои данные при работе с ИИ?

Эксперты рекомендуют соблюдать несколько простых правил:

  • Не загружать в нейросети конфиденциальную информацию, включая персональные данные и коммерческие тайны.
  • Использовать локальные или защищенные корпоративные решения, если требуется работа с чувствительными данными.
  • Следить за политиками конфиденциальности, так как многие сервисы ИИ могут сохранять и анализировать запросы пользователей.

Пока технологии искусственного интеллекта продолжают развиваться, пользователям стоит помнить: безопасность данных — это их личная ответственность.

23:19
72
Нет комментариев. Ваш будет первым!
Посещая этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.
Яндекс.Метрика