Kaj je generacija z razširjenim iskanjem (RAG)? (McKinsey Featured Insights – 30. oktober 2024)

Spletni prispevek portala McKinsey & Company Featured Insights o tem, kaj je to generacija z razširjenim iskanjem (angl. Retrieval-augmented generation – RAG), ki se kot tehnika iskanja informacij uporablja za modele generativne umetne inteligence (angl. Generative artificial intelligence – GAI) – v nadaljevanju so prikazane glavne teme in najpomembnejše ideje iz prispevka.

Uvod

Veliki jezikovni modeli (angl. Large language model – LLM) so v zadnjih letih dosegli izjemen napredek pri ustvarjanju vsebine. Vendar pa so nekateri vodje, ki so upali, da bodo ti modeli povečali poslovno učinkovitost in produktivnost, razočarani. Orodja za generativno umetno inteligenco (angl. Generative artificial intelligence – GAI) še niso izpolnila velikih pričakovanj. Eden od razlogov je, da so veliki jezikovni modeli (LLM) usposobljeni samo za informacije, ki so na voljo ponudnikom, ki jih gradijo. To lahko omeji njihovo uporabnost v okoljih, kjer je potrebno širše in bolj specifično znanje o podjetju.

Kaj je RAG?

Generacija z razširjenim iskanjem (angl. Retrieval-augmented generation – RAG) je postopek, ki se uporablja pri velikih jezikovnih modelih (LLM), da bi bili njihovi izhodi bolj relevantni v določenih kontekstih. RAG omogoča velikim jezikovnim modelom, da pred generiranjem odgovora dostopajo in se sklicujejo na informacije zunaj lastnih podatkov o svojem usposabljanju, kot je na primer specifična baza znanja organizacije, in to s citati. Ta zmogljivost jim omogoča, da ustvarijo zelo specifične odgovore brez obsežnega natančnega priagajanja ali usposabljanja, kar zagotavlja nekatere prednosti prilagojenega velikega jezikovnega modela po precej nižjih stroških.

Kako deluje RAG?

RAG vključuje dve fazi: zaužitje in priklic. Za lažje razumevanje teh konceptov si predstavljajte veliko knjižnico z milijoni knjig.

Faza zaužitja: Podobna je polnjenju polic in ustvarjanju kazala vsebine, kar omogoča knjižničarju, da hitro najde katero koli knjigo v zbirki knjižnice. V okviru tega procesa se za vsako knjigo, poglavje ali celo izbrane odstavke ustvari niz gostih vektorskih predstavitev – numeričnih predstavitev podatkov, znanih tudi kot “vdelave”.

Faza priklica: Ko uporabnik postavi vprašanje o določeni temi, knjižničar uporabi kazalo za iskanje najbolj relevantnih knjig. Izbrane knjige se nato pregledajo glede relevantne vsebine, ki se skrbno izvleče in sintetizira v jedrnat izhod. Prvotno vprašanje usmerja začetni postopek raziskovanja in izbora ter vodi knjižničarja, da v odgovoru predstavi le najpomembnejše in najbolj natančne informacije. Ta postopek lahko vključuje povzemanje ključnih točk iz več virov, citiranje avtoritativnih besedil ali celo ustvarjanje nove vsebine na podlagi vpogledov, ki jih je mogoče pridobiti iz virov knjižnice.

Prednosti RAG

RAG ima številne prednosti v primerjavi s tradicionalnimi LLM:

  • Natančnejši in relevantnejši izhodi: RAG sistemi imajo dostop do velike količine informacij, ki so bolj posodobljene in specifične za podjetje, zato lahko zagotovijo veliko bolj natančne, relevantne in koherentne izhode. To je še posebej koristno pri aplikacijah in primerih uporabe, ki zahtevajo zelo natančne izhode, kot so upravljanje znanja v podjetju in kopiloti, ki so specifični za določeno domeno (na primer delovni tok ali proces, pot ali funkcija znotraj podjetja).
  • Manjša potreba po natančnem prilagajanju: RAG zmanjšuje potrebo po obsežnem natančnem prilagajanju ali usposabljanju, kar lahko znatno prihrani čas in vire.
  • Prilagodljivost: RAG je mogoče uporabiti v različnih domenah in primerih uporabe, zaradi česar je vsestransko orodje za izboljšanje zmogljivosti velikih jezikovnih modelov.

Izzivi RAG

Kljub prednostim ima RAG tudi nekaj izzivov:

  • Kakovost podatkov: Če znanje, ki ga pridobiva generacija z razširjenim iskanjem (RAG), ni natančno ali posodobljeno, je lahko nastali odgovor napačen.
  • Multimodalni podatki: RAG morda ne bo mogel brati določenih grafov, slik ali kompleksnih diapozitivov, kar lahko povzroči težave v ustvarjenem odgovoru. Novi multimodalni veliki jezikovni modeli (LLM), ki lahko analizirajo kompleksne formate podatkov, lahko pomagajo ublažiti to.
  • Pristranskost: Če osnovni podatki vsebujejo pristranskosti, bo verjetno pristranski tudi ustvarjeni odgovor.
  • Dostop do podatkov in licenciranje: V celotnem procesu oblikovanja sistema RAG je treba upoštevati vprašanja intelektualne lastnine, licenciranja ter zasebnosti in varnosti, povezana z dostopom do podatkov.

Prihodnost RAG

Pričakuje se, da bo RAG še naprej napredoval in se bodo pojavili novi trendi:

  • Standardizacija: Naraščajoča standardizacija osnovnih vzorcev programske opreme pomeni, da bo na voljo več gotovih rešitev in knjižnic za implementacije RAG, zaradi česar jih bo postopoma lažje graditi in uporabljati.
  • RAG na osnovi agentov: Agenti so sistemi, ki lahko razmišljajo in medsebojno delujejo ter zahtevajo manj človeškega posredovanja kot prejšnji sistemi umetne inteligence. Ta orodja lahko sistemom RAG omogočijo, da se fleksibilno in učinkovito prilagodijo spreminjajočim se kontekstom in potrebam uporabnikov, tako da se lahko bolje odzivajo na bolj kompleksne in bolj niansirane pozive.
  • LLM, optimizirani za RAG: Nekateri LLM so zdaj usposobljeni posebej za uporabo z RAG. Ti modeli so prilagojeni za izpolnjevanje edinstvenih potreb nalog RAG, kot je hitro pridobivanje podatkov iz velikega nabora informacij, namesto da se zanašajo izključno na lastno parametrično znanje LLM.

Zaključek

Veliki jezikovni modeli (LLM), izboljšani z generacijo z razširjenim iskanjem (RAG), lahko izkoristijo prednosti tako ljudi kot strojev, kar uporabnikom omogoča, da izkoristijo ogromne vire znanja in ustvarijo bolj natančne in relevantne odgovore. Ker se ta tehnologija nenehno razvija, pričakujemo znatne izboljšave v njeni skalabilnosti, prilagodljivosti in vplivu na poslovne aplikacije, s potencialom za spodbujanje inovacij in ustvarjanje vrednosti.

Pomemben citat:

“Generacija z razširjenim iskanjem (RAG) omogoča velikim jezikovnim modelom (LLM), da pred generiranjem odgovora dostopajo in se sklicujejo na informacije zunaj lastnih podatkov o svojem usposabljanju, kot je na primer specifična baza znanja organizacije, in to s citati.”

URL: https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-is-retrieval-augmented-generation-rag?