AI naočale izazivaju uzbunu u Nizozemskoj: Stiže li novo doba bez privatnosti?

AI naočale izazivaju uzbunu u Nizozemskoj: Stiže li novo doba bez privatnosti?
Meta Ray Ban AI naočale, Izvor: YouTube

UZBUNA U NIZOZEMSKOJ ZBOG AI NAOČALA: Facebook i Meta ponovno ulažu u svoje nekada komercijalno neuspješne AI naočale koje mogu prepoznati bilo koga, bilo gdje. No, nizozemcima se to, najblaže rečeno, baš i ne sviđa.. Evo priče…

Nedavna viralna demonstracija AI naočala nizozemskog tehnološkog novinara Alexandera Klöppinga poslala je udarne valove diljem Nizozemske i pokrenula žestoku raspravu o budućnosti privatnosti.

Klöpping je nosio pametne naočale s umjetnom inteligencijom u popularnoj televizijskoj emisiji, pokazujući njihovu jezivu sposobnost trenutnog identificiranja stranaca na ulici i pronalaženja njihovih imena, zanimanja, pa čak i LinkedIn profila – sve bez pomoći vladinih baza podataka ili policijskih sustava.

Eksperiment je mnoge naveo da se pitaju: u svijetu u kojem svako lice može postati skup podataka, što ostaje od anonimnosti?

Dvosjekli mač: Prednosti i nedostaci

Implikacije takve tehnologije su duboke, prisiljavajući društvo na suočavanje s ravnotežom između inovacija i temeljnih prava. „Za mene ovo označava prekretnicu“, primijetio je Pascal Bornet, istaknuti stručnjak za privatnost u području umjetne inteligencije, na X-u. „Službeno smo zamaglili granicu između viđenja ljudi i poznavanja istih. Između boravka u javnosti i izloženosti.

Iako je neposredna reakcija bila alarm, naočale s umjetnom inteligencijom predstavljaju složenu dilemu, nudeći i nevjerojatan potencijal i ozbiljne prijetnje.

Potencijalne koristi od umjetne inteligencije
  • Pristupačnost i pomoć: Osobama s oštećenjem vida, umjetna inteligencija naočale poput onih koje je razvio nizozemski startup Envision nude neovisnost koja mijenja život, opisujući okolinu, čitajući tekst, pa čak i identificirajući voljene osobe. U zdravstvu bi mogle pomoći kirurzima s preklapanjem podataka u stvarnom vremenu ili osnažiti terenske tehničare ključnim informacijama.
  • Poboljšana navigacija i informacije: Zamislite turističke naočale koje identificiraju znamenitosti i pružaju povijesni kontekst ili profesionalne naočale koje nude podatke u stvarnom vremenu tijekom složenih zadataka, od proizvodnje do logistike.
  • Sigurnost i zaštita (diskutabilno): Zagovornici tvrde da bi tehnologija mogla poboljšati javnu sigurnost pomažući u identificiranju nestalih osoba ili potencijalnih prijetnji, iako to uvelike zadire u etiku nadzora.
  • Osobna produktivnost: Pristup informacijama, prevoditeljskim uslugama i komunikaciji bez upotrebe ruku mogao bi pojednostaviti svakodnevne zadatke, od kupovine do učenja jezika.
Ozbiljne zabrinutosti oko AI naočala
  • Iskorijenjena anonimnost: Najneposrednija prijetnja koju je istaknuo Klöppingov eksperiment. Mogućnost identifikacije bilo koga, bilo gdje, temeljno demontira koncept javne anonimnosti, temelj liberalnih društava.
  • Sveprisutni nadzor: Ove naočale pretvaraju svakog korisnika u potencijalnog tajnog agenta za nadzor. Ljudi se mogu snimiti i identificirati bez njihovog znanja ili pristanka, što dovodi do zastrašujućeg učinka na slobodu izražavanja i okupljanja.
  • Kršenja privatnosti: Prikupljanje i obrada biometrijskih podataka (skeniranje lica) i drugih osobnih podataka (imena, pripadnosti) bez izričitog pristanka izravno je kršenje temeljnih prava na privatnost, posebno prema strogim propisima poput GDPR-a u Europi.
  • Rizici sigurnosti podataka: Velike količine vrlo osobnih podataka koje prikupljaju ovi uređaji moraju se pohraniti i obraditi. Centralizacija takvih osjetljivih informacija stvara ogromne mete za kibernetičke napade i povrede podataka, s potencijalno katastrofalnim posljedicama za pojedince čiji su podaci ugroženi.
  • Etičko crno tržište: Kao što Bornet spominje, „Možete ga zabraniti, regulirati, dodati trepćuća crvena svjetla… ali kada ovakva tehnologija postoji, netko će uvijek pronaći način da je iskoristi.“ To podiže strah od nezakonite upotrebe od strane progonitelja, uznemirivača ili čak autoritarnih režima koji žele pratiti disidente.
  • Algoritamska pristranost i diskriminacija: Tehnologija prepoznavanja lica poznata je po predrasudama, posebno prema određenim rasnim skupinama, što dovodi do pogrešne identifikacije, lažnih optužbi i pogoršavanja postojećih društvenih nejednakosti.

Bornetovo oštro završno pitanje pogađa izazov koji je pred nama: „Kada svako lice postane skup podataka, kako možemo zaštititi značenje ljudskog bića?

Snažan poziv na buđenje

Nizozemski eksperiment služi kao snažan poziv na buđenje, potičući zakonodavce, tehnologe i građane da se suoče s dubokim etičkim, pravnim i društvenim implikacijama prije nego što granica između promatranja i znanja bude nepovratno zamagljena. Rasprava o tome kako regulirati ili čak ograničiti tako moćnu tehnologiju tek počinje.

Čak i ako se ne koristi svjesno u zlonamjerne svrhe, mogu li ovu tehnologiju treće strane koristiti za praćenje stalnog boravka pojedinaca? Problem je u tome što politici i zakonodavstvu treba više vremena da ih sustignu nego tehnologiji.