Microsoft 365 Copilot из-за багу «нишпорив» у конфіденційній пошті

Microsoft 365 Copilot из-за багу «нишпорив» у конфіденційній пошті

Компанія Microsoft повідомила, що в інструменті Copilot був виявлений баг, через який ШІ-асистент почав підсумовувати конфіденційні електронні листи, всупереч налаштованим політикам захисту від втрати даних (DLP).

Проблема, позначена як CW1226324, впливає на функцію Copilot Chat у вкладці «Work», яка помилково читає та узагальнює повідомлення з папок «Відправлені» та «Чернетки», навіть якщо вони мають чутливі мітки конфіденційності. Останні  повинні забороняти доступ автоматизованим інструментам.

Microsoft підтвердила, що помилка викликана некоректним фрагментом коду, через який Copilot обробляє такі листи, і випустила виправлення на початку лютого. Компанія продовжує моніторинг і перевіряє ефективність апдейту для окремих користувачів, але не вказала точних термінів повного усунення проблеми та масштабів впливу.

Це вже не перший випадок, коли нерегульоване застосування ШІ спричиняє витік корпоративних секретів. Дослідження показують, що використання працівниками інструментів штучного інтелекту (наприклад, ChatGPT, Copilot, Claude) часто призводять до неусвідомленого витоку корпоративної або конфіденційної інформації, коли дані копіюються у чат і надсилаються на сервери ШІ без контролю IT-відділу. Інцидент з Copilot підкреслює важливість належної перевірки ШI-функцій та контролю доступу до конфіденційних даних, особливо при їх автоматичній обробці.

А нещодавно ми писали, як запобігти галюцинаціям ШІ під час генерації відповідей. Для того є 5 ефективних стратегій.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *