Говорить с нейросетью о личных или конфиденциальных вещах может быть небезопасно, предупреждают специалисты. Как пишут «Известия», раскрывать ИИ государственные, врачебные или коммерческие тайны, персональные данные, пароли и интимные подробности не стоит. Такие сообщения не защищены законом и могут быть использованы против пользователя. Кроме того, существует риск утечки — из-за сбоев, хакерских атак или действий сотрудников. Эксперты советуют использовать ИИ только для нейтральных тем.
Эксперт предупредил об опасности раскрытия личных данных нейросетям
Понравилась статья? Подпишитесь на канал, чтобы быть в курсе самых интересных материалов
Подписаться
Свежие комментарии