Premošćivanje jaza u povjerenju u umjetnu inteligenciju u gradovima
Generiranje proširenog dohvaćanja pojavljuje se kao način da se gradskim vijećnicama pomogne da se približe pouzdanijoj generativnoj upotrebi umjetne inteligencije u stvarnom vremenu, izvještava Clay Garner.
Nedavno istraživanje pokazalo je da 96 posto gradonačelnika pokazuje barem određenu razinu interesa za korištenje umjetne inteligencije (AI). Ipak, u svojoj potrazi za nadogradnjom državnih usluga ovom tehnologijom, gradski čelnici nalaze se na raskrižju transformativnog potencijala i ozbiljnih izazova.
Najvažnije među njima je pitanje integriteta podataka i rizik da umjetna inteligencija generira pogrešne ili potpuno izmišljene informacije – fenomen koji će gradski čelnici i stanovnici smatrati neprihvatljivim. U tom kontekstu, generiranje proširenog dohvaćanja (Retrieval-Augmented Generation – RAG) pojavilo se kao tehnička metoda koja bi mogla pomoći da se gradske vijećnice približe pouzdanijoj generativnoj upotrebi umjetne inteligencije u stvarnom vremenu.
Zašto je RAG važan?
Trenutačni generativni sustavi umjetne inteligencije, posebice veliki jezični modeli (LLM), kritizirani su zbog svoje sklonosti stvaranju rezultata koji, unatoč tome što se čine uvjerljivima, možda nisu činjenično točni. Štoviše, ponašanje LLM-a poput OpenAI-jevog GPT-4 – zašto rade tako kako rade – još uvijek nije do kraja shvaćeno, što znači da je teško standardizirati njihove rezultate.
Ova nedosljednost predstavlja rizike u upravljanju gradom gdje bi oslanjanje na netočne informacije generirane umjetnom inteligencijom moglo pogrešno voditi javne politike, pogrešno raspodijeliti resurse, narušiti privatnost ili čak izazvati katastrofu, narušavajući povjerenje javnosti i uzrokujući potencijalnu štetu.
Kako bi se spriječile netočnosti koje mogu biti uobičajene u rezultatima LLM-a, RAG se sve više promatra kao dio rješenja zajedno s finim podešavanjem i brzim inženjeringom. Ovom se metodom može poboljšati preciznost i primjenjivost sadržaja generiranog umjetnom inteligencijom tako što se prvo pristupi i integrira određene pojedinosti iz pouzdanog, unaprijed uspostavljenog izvora podataka, kao što je interna wiki ili SQL baza podataka, prije nego što se proizvedu odgovori.
Utemeljivanjem AI odgovora u provjerenom sadržaju, RAG može smanjiti pojavu “halucinacija” ili slučajeva u kojima AI izmišlja odgovore na temelju obrazaca naučenih tijekom obuke, a ne konkretnih podataka.
Implikacije RAG-a za pametne gradove
Dok gradski čelnici istražuju usvajanje generativne umjetne inteligencije, trebali bi razmotriti kako bi ih RAG mogao pomaknuti prema razini točnosti podataka potrebnoj za implementaciju.
S botovima za usluge AI koji se suočavaju sa stanovnicima, ključna briga je širenje netočnih informacija (kao što smo nedavno vidjeli s gafom chatbota Air Canada), što bi moglo narušiti povjerenje javnosti i stvoriti zabunu među stanovnicima. RAG može riješiti ovaj problem unakrsnim referenciranjem odgovora umjetne inteligencije s provjerenim informacijama u gotovo stvarnom vremenu, povećavajući pouzdanost i relevantnost.
Na primjer, kada se stanovnici raspituju o rasporedima odvoza otpada, RAG bi mogao pomoći da odgovor bota odražava najnovije gradske rasporede i propise, čime se održava integritet pružanja usluga i jača povjerenje javnosti u digitalne gradske platforme.
Ova preciznost u pronalaženju i provjeri informacija također je kritična u razvoju politike
Izazov ovdje leži u zasnivanju preporuka umjetne inteligencije na najnovijim i najrelevantnijim podacima. Provjerom izvornih podataka u odnosu na robustan repozitorij pravnih dokumenata, povijesnih podataka o politikama i nedavnih studija, RAG osigurava da kreatori politika budu opremljeni dobro utemeljenim prijedlozima.
Na primjer, pri izradi prijedloga o urbanoj mobilnosti, sustav bi unakrsno provjeravao podatke umjetne inteligencije u odnosu na najnovije prometne studije i zakonske okvire, što bi dovelo do informiranijih, relevantnih politika koje se istinski bave potrebama zajednice.
Prijelaz na urbano planiranje naglašava ulogu RAG-a u obradi složenih skupova podataka, kao što su demografski trendovi i studije utjecaja na okoliš, u svrhu podrške donošenju odluka. Inherentni izazov je osigurati sveobuhvatne analize koje točno odražavaju najnovije uvjete i propise.
RAG to rješava provjerom podataka korištenih u AI analizi, osiguravajući da se odluke temelje na točnim, aktualnim informacijama. Ova metodološka provjera osigurava da su predloženi razvoji izvedivi i usklađeni s očekivanjima zajednice i ciljevima održivosti, poboljšavajući strateški razvoj urbanih sredina.
RAG povećava pouzdanost filtriranjem sintetiziranih informacija iz različitih izvora kroz proces provjere valjanosti
Konačno, u koordinaciji hitnog odgovora, imperativ brzog i točnog širenja informacija predstavlja jedinstven izazov. RAG povećava pouzdanost generativne umjetne inteligencije u ovom kontekstu filtriranjem sintetiziranih informacija iz različitih izvora kroz proces provjere valjanosti. To osigurava da su savjeti i ažuriranja u skladu sa službenim izvješćima i podacima u stvarnom vremenu iz vjerodostojnih izvora.
Na primjer, u prirodnim katastrofama, RAG-ov postupak verifikacije osigurava da su rute za evakuaciju ili lokacije skloništa koje pružaju AI sustavi u skladu s najnovijim uputama hitnih službi i prometnim uvjetima, čime se štiti javna sigurnost i povećava učinkovitost upravljanja u hitnim slučajevima.
Implementacija umjetne inteligencije u budućnosti
Budući da gradovi razmatraju prednosti RAG-a u svojoj strategiji implementacije umjetne inteligencije, pilot programi usmjereni na specifične aplikacije, kao što su objave o javnoj sigurnosti ili savjetovanja o urbanom planiranju, mogu ponuditi dragocjene uvide u učinkovitost metode i područja za poboljšanje.
Zajedno s drugim tehnikama za poboljšanje točnosti LLM-a kao što je brzi inženjering i fino ugađanje modela, RAG sam po sebi vjerojatno ne bi trebao biti lijek za problem halucinacija umjetne inteligencije.