Copilot przegląda prywatne wiadomości użytkowników, omijając ochronę — Microsoft uznała to za błąd.
Microsoft wykryła błąd w Copilot, który podsumowywał poufne wiadomości
Zgodnie z wewnętrznym komunikatem firmy, błąd w Microsoft 365 Copilot występujący od końca stycznia powodował, że asystent AI automatycznie podsumowywał treść e‑maili użytkowników. Polityki zapobiegające utracie danych (DLP), które organizacje wykorzystują do ochrony wrażliwych informacji, były pomijane.
Co dokładnie poszło nie tak
* Błąd numer CW1226326 został zarejestrowany 21 stycznia i dotyczy funkcji czatu na karcie roboczej Copilot.
* W wyniku tego algorytm błędnie odczytywał wiadomości znajdujące się w folderach „Wysłane” i „Szkice”, w tym te oznaczone jako poufne (które specjalnie ograniczają dostęp zautomatyzowanych narzędzi).
* W komunikacie Microsoft podano: *„Wiadomości e‑mail użytkowników oznaczonych jako „poufne” są niepoprawnie przetwarzane przez Microsoft 365 Copilot Chat”.* Podkreślono również, że AI podsumowuje wiadomości nawet przy obecności etykiety poufności lub polityki DLP.
Jak reaguje Microsoft
* Później firma potwierdziła, że przyczyną jest błąd w kodzie i rozpoczęła pracę nad poprawką na początku lutego.
* Na koniec bieżącego tygodnia Microsoft poinformował, że nadal monitoruje wdrażanie naprawy i kontaktuje się z użytkownikami dotkniętymi problemem, aby ocenić jakość aktualizacji.
Co jeszcze nie wiadomo
Microsoft do tej pory nie określił terminów pełnego usunięcia błędu ani nie ujawnił liczby użytkowników lub organizacji, które ucierpiały. W raporcie zaznaczono, że w miarę prowadzenia śledztwa zakres problemu może się zmienić.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować