Во порака испратена до вработените, Samsung бара од нив да не ги користат алатките како ChatGPT на службените уреди, а исто така да не внесуваат информации за компанијата на ваквите алатки од нивните приватни уреди.
До меморандумот имаат дојдено од Bloomberg, а од Samsung го имаат потврдено неговото испраќање.
Главна причина за оваа одлука е можното нарушување на приватноста на компанијата, поточно можниот безбедносен ризик од впишувањето и прикачувањето на важните информации и документи на овие алатки.
Алатките како ChatGPT, се алатки од други компании, што значи разговорите и сите информации, пристап до нив имаат овие компании, нешто што не е баш добро за важни и тајни информации. Внесените информации се достапни на OpenAI, на пример, а тие ги користат и за тренирање на вештачката интелигенција.
Се верува дека одлуката во Samsung била мотивирана од прикачување на код од страна на вработен на ChatGPT, а познато е дека оваа алатка може да помогне во средување на кодот или целосно негово пишување од почеток.
„Од дирекцијата ги разгледуваме безбедносните мерки со кои би создале безбедна околина за користење на генеративната вештачка интелигенција со цел подобрување на продуктивноста и ефикасноста на вработените. Како и да е, додека овие мерки се подготвени, привремено ја забрануваме употребата на генеративната ВИ.“ – истакнуваат од Samsung во меморандумот до вработените.
Тие дополнително имаат истакнато дека доколку вработените сепак ги користат ваквите алатки, може да дојде до штета за компанијата, како и до дисциплински мерки, па и отпуштање на вработените.