Koji su rizici sa Sajber Bezbjendost korištenjem vještačke inteligencije?
Vještačka inteligencija je bez ikakve sumnje impresivna obzirom na sposobnost davanja odgovora i informacija širokog spektra, odnosno da daje odgovor na gotovo svako pitanje.
Britanska Nacionalna Agencija za Sajber Bezbjednost navodi da je sadržaj koji vještačka inteligencija plasira je dobar onoliko koliko su dobri podaci koji su u nju implementirani, a tehnologija sadrži neke nedostatke, uključujući:
- netačne izjave predstavlja kao tačne (AI halucinacija)
- pristrasnost i lakovjernost prilikom davanja odgovora na sugestivna pitanja
- može ju se navesti na kreiranje nepoželjnog sadržaja, kao i na sajber napade koji se u IT bezbjednosti nazivaju “prompt injection attacks”
- može ju se manipulisati podacima koji su korišteni u njenom kreiranju “data poisoning”
Sajber napadi pod nazivom prompt injection attacks su jedni od najčešće prijavljivanih slabosti LLM-a (jedan od modela vještačke inteligencije). Ovaj napad se ogleda u kreiranju ulaza dizajniranog tako da natjera model da se ponaša na željeni način. Izvođenjem ovog napada, napadač je u mogućnosti da dođe do povjerljivih podataka, da koristi softver za kreiranje uvredljivog sadržaja ili pokretanje nekih drugih neželjenih posljedica u sistemu.
Trovanje podataka “data poisoning” se ogleda u tome da napadač manipučiše podacima na kojima je model vještačke inteligencije obučen kako bi proizveo štetne posljedice.
Rizici od ovih napada će u budućnosti samo rasti, a kako upozorava Britanska Nacionalna Agencija za Sajber Bezbjednost (NCSC), “Razmišljajte o sigurnosti AI sistema”.