Фото: Shutterstock.com

Microsoft потврди постоење на софтверска грешка кај својот асистент со вештачка интелигенција, Copilot, која овозможувала пристап и сумирање на електронски пораки означени како доверливи. Проблемот бил директно поврзан со дел од Copilot чет алатката, која наместо да ги почитува поставените заштитни механизми, процесирала содржини кои според правилата на компаниите требало да останат недостапни за вештачката интелигенција.

Грешката во кодот влијаела на пораките сместени во папките за испратени пораки и во нацрт пораките (Sent Items и Drafts). Иако организациите користат DLP (Data Loss Prevention) политики и специјални ознаки за чувствителност на податоците за да спречат протекување на информации, оваа грешка овозможила тие бариери да бидат заобиколени. 

Тоа практично значело дека корисникот можел да побара од Copilot да направи преглед или сумација на пораки кои содржат деловни тајни или приватно означени информации, доколку тие се наоѓале во споменатите папки.

Според информациите од Microsoft, пропустот бил првпат детектиран кон крајот на јануари оваа година. Компанијата веќе започна со дистрибуција на исправка која треба да го реши овој проблем и да ја врати целосната функционалност на заштитните ознаки. 

Овој инцидент уште еднаш ја отвора дебатата за безбедноста при имплементацијата на вештачката интелигенција во секојдневното работење. Иако алатките како Copilot ветуваат огромна продуктивност, нивната длабока интеграција во системите за комуникација бара исклучително прецизни безбедносни протоколи кои не смеат да потфрлат пред софтверски грешки.