Инженер Google из команды ИИ-безопасности, Харш Варшни, поделился тремя правилами для защиты конфиденциальности при использовании чат-ботов. Эти простые, но эффективные советы помогут вам безопасно работать с искусственным интеллектом, не подвергая риску свои личные данные.
Правило 1: Относитесь к чату с ИИ как к «открытке»
Воспринимайте любой диалог с публичным чат-ботом как сообщение, которое может прочитать кто угодно. Никогда не вводите в чат конфиденциальную информацию: данные банковских карт, номера документов, домашний адрес, медицинские сведения или любые другие персональные идентификаторы. Существует риск не только утечек из-за взломов, но и «утечки через обучение», когда модель запоминает и может воспроизвести ваши чувствительные данные.
Правило 2: Понимайте, в каком «месте» вы общаетесь
Важно различать публичные чат-боты (как разговор в кофейне) и корпоративные (enterprise) версии (как закрытая встреча в офисе). Рабочие проекты, особенно содержащие коммерческую тайну или патенты, следует обсуждать исключительно в корпоративных версиях чат-ботов, где диалоги не используются для общего обучения моделей. Но даже в них старайтесь минимизировать передачу личных данных.
Правило 3: Регулярно удаляйте историю чатов
Удаление истории переписок — важное правило как для публичных, так и для корпоративных сервисов. ИИ-модели обладают долгосрочной памятью и могут запоминать информацию из старых диалогов. В качестве примера, корпоративный Gemini смог вспомнить точный адрес инженера из старого письма. Для особо чувствительных запросов используйте режим временного чата, который является аналогом режима «инкогнито» в браузерах.