Компания Microsoft подтвердила наличие ошибки в Microsoft 365, из-за которой ее ИИ-ассистент Copilot на протяжении нескольких недель мог обрабатывать конфиденциальные электронные письма пользователей без разрешения. Об этом сообщили в TechCrunch.
Речь идет об ошибке, которая позволяла чат-боту на базе искусственного интеллекта (ИИ) Copilot читать и обобщать содержимое электронной почты еще с января 2026 года — даже в случаях, когда действовали политики предотвращения утечки данных (DLP).
Это означает, что чувствительная информация могла попадать в обработку большой языковой модели вопреки настройкам безопасности.
В компании уточнили, что проблема, отслеживаемая как CW1226324, заключалась в том, что «черновики и отправленные электронные письма с конфиденциальной меткой обрабатываются некорректно в чат-боте Microsoft 365 Copilot».
Исправление начали развертывать в начале февраля, однако Microsoft не раскрыла, сколько именно пользователей могли пострадать.
Чат-бот Copilot доступен для платных клиентов Microsoft 365 и интегрирован в такие продукты, как Word, Excel и PowerPoint.
Напомним, что недавно ИТ-департамент Европейского парламента временно заблокировал встроенные ИИ-функции на рабочих устройствах, опасаясь, что инструменты могут передавать конфиденциальную переписку в облако.
Параллельно с этим растут опасения относительно надежности ИИ-систем. Журналист BBC Томас Жермен продемонстрировал, что современные модели можно относительно легко ввести в заблуждение. Подробнее в материале:
Сообщение Сбой в Microsoft 365 позволил ИИ анализировать защищенные электронные письма появились сначала на INCRYPTED.


