Сотрудник Google объяснил, какие правила помогают защитить личные данные при использовании чатботов и других ИИ-инструментов.
ИИ быстро стал частью повседневной жизни. Люди используют его для поиска информации, заметок, кодирования и исследований. Но специалисты Google предупреждают: публичные чатботы могут представлять угрозу для конфиденциальности.
Инженер Google Харш Варшни советует не делиться с ИИ личными данными: номерами карт, адресом, медицинской информацией или деталями работы. Публичные модели могут использовать информацию для обучения, и ваши данные могут попасть в чужие ответы.
Важно выбирать подходящую модель. Для рабочих проектов или корпоративных задач лучше использовать закрытые версии ИИ. Они не используют ваши разговоры для обучения и снижают риск утечки данных.
Варшни также рекомендует регулярно удалять историю чатов. Даже корпоративные модели могут запоминать информацию из прошлых разговоров. Для разовых запросов можно включать временный режим, когда данные не сохраняются и не используются для обучения.
При выборе ИИ лучше пользоваться известными продуктами с понятными правилами конфиденциальности. Варшни отмечает Google-продукты, ChatGPT от OpenAI и Claude от Anthropic. В настройках приватности стоит отключать опции, которые позволяют использовать ваши данные для обучения моделей.
ИИ может сильно помочь в работе и повседневных задачах, но нужно быть внимательным и защищать свои данные.
Читать далее:
Вселенная внутри черной дыры: наблюдения «Уэбба» подтверждают странную гипотезу
Испытания ракеты Starship Илона Маска вновь закончились взрывом в небе
Сразу четыре похожих на Землю планеты нашли у ближайшей одиночной звезды
Обложка: freepik