Microsoft, 365 Copilot Chat aracını iş yerleri için güvenli bir yapay zeka çözümü olarak sunsa da yaşanan son sorun bu iddiaları tartışmaya açtı. Şirket tarafından yapılan açıklamada, hatanın taslak ve gönderilmiş iletiler klasöründeki mesajların içeriğinin kullanıcıya sunulmasına yol açtığı belirtildi. Söz konusu iletiler arasında “gizli” olarak işaretlenen mesajlar da yer aldı.
Microsoft, sorunu gidermek için dünya genelinde bir güncelleme yayınladığını duyurdu. Şirket sözcüsü, erişim yetkilerinin ihlal edilmediğini ve hatanın Copilot’un korumalı içerikleri hariç tutma tasarımıyla çeliştiğini belirtti. Ancak teknik olarak kimseye yetkisi olmayan bir veriye erişim imkanı tanınmadığını savundu.
İlk olarak ocak ayında fark edilen sorunun, İngiltere’deki Ulusal Sağlık Sistemi (NHS) çalışanlarına yönelik bir destek panelinde de paylaşıldığı öğrenildi. NHS, hasta bilgilerinin sızmadığını ve işlemlerin sadece eposta sahiplerinin kendi ekranlarında gerçekleştiğini teyit etti.
Yapay zeka araçlarının hızla piyasaya sürülmesi, uzmanlar tarafından güvenlik risklerini de beraberinde getiren bir faktör olarak görülüyor. Analiz şirketi Gartner‘dan Nader Henein, bu tür hataların “kaçınılmaz” olduğunu belirterek, şirketlerin üzerindeki yapay zeka baskısı nedeniyle yeterli yönetişim sağlanmadan bu araçların kullanılmaya başlandığını ifade etti.
Siber güvenlik uzmanı Prof. Alan Woodward, bu tür araçların varsayılan olarak kapalı gelmesi ve sadece onay veren kullanıcılar için aktif edilmesi gerektiğini vurguladı. Woodward, yazılım hatalarının veri sızıntılarına kapı aralayabileceğini belirtti.
Reklam & İşbirliği: [email protected]