Zvaničnica SAD: Prijetnja koju predstavlja vještačka inteligencija zahtijeva nov pristup bezbjednosti

“Mi smo normalizovali svijet u kojem tehnološki proizvodi izlaze sa (proizvodne) linije puni ranjivosti i onda se od potrošača očekuje da zakrpe te ranjivosti. Ne možemo da živimo u takvom svijetu sa vještačkom inteligencijom”, rekla je Džen Isterli, direktorka američke Agencije sa sajber bezbjednost i bezbjednost infrastrukture. “Previše je moćna, prebrzo se kreće”, rekla je ona u telefonskom intervjuu posle razgovora u Otavi sa Samijem Kurijem, šefom kanadskog Centra za sajber bezbjednost

Potencijalna prijetnja koju predstavlja brzi razvoj vještačke inteligencije (AI) znači da zaštitne mere moraju da budu ugrađene u sisteme od samog početka, a ne kasnije, rekla je u ponedjeljak visoka američka zvaničnica.

“Mi smo normalizovali svijet u kojem tehnološki proizvodi izlaze sa (proizvodne) linije puni ranjivosti i onda se od potrošača očekuje da zakrpe te ranjivosti. Ne možemo da živimo u takvom svijetu sa vještačkom inteligencijom”, rekla je Džen Isterli, direktorka američke Agencije sa sajber bezbjednost i bezbjednost infrastrukture.

“Previše je moćna, prebrzo se kreće”, rekla je ona u telefonskom intervjuu posle razgovora u Otavi sa Samijem Kurijem, šefom kanadskog Centra za sajber bezbjednost.

Isterli je govorila istog dana kada su agencije iz 18 zemalja, uključujući Sjedinjene Države, odobrile nove smjernice o sajber bezbjednosti vještačke inteligencije koje se fokusiraju na siguran dizajn, razvoj, primjenu i održavanje, a koje su razvili Britanci.

“Moramo da posmatramo bezbjednost tokom celog životnog ciklusa tih AI kapaciteta”, rekao je Kuri.

Ranije ovog mjeseca, vodeći programeri vještačke inteligencije složili su se da rade sa vladama na testiranju novih graničnih modela prije nego što budu pušteni u prodaju kako bi pomogli u upravljanju rizicima tehnologije koja se brzo razvija, piše “Glas Amerike”.

“Mislim da smo uradili onoliko koliko smo mogli u ovom trenutku da pomognemo da se okupimo sa nacijama širom svijeta, sa tehnološkim kompanijama, kako bismo iz tehničke perspektive sagledali kako da izgradimo ove kapacitete što je bezbjednije moguće”, rekla je Isterli.

Foto: Ilustracija (Printscreen/Logo Samita za bezbjednost vještačke inteligencije u blizini Londona)

Idi na VRH
error: Content is protected !!