Leslie M (2025) Open-Source Artificial Intelligence — How Open? How Safe? Engineering 47.


Leslie M (2025) Open-Source Artificial Intelligence — How Open? How Safe? Engineering 47, 8-10 – https://doi.org/10.1016/j.eng.2025.03.002 – open access article pdf – CC BY-NC-ND 4.0

Spodaj podajamo kratek povzetek članka z naslovom “Odprtokodna umetna inteligenca — kako odprta? Kako varna?”, ki obravnava naraščajoča nesoglasja glede transparentnosti in regulacije umetne inteligence (UI). Članek raziskuje kritično vprašanje, kaj sploh definira “odprtokodno” umetno inteligenco in kje so meje med spodbujanjem inovacij ter zagotavljanjem varnosti.

1. Problem definicije in “openwashing”

Tradicionalna definicija odprte kode, ki se uporablja za programsko opremo (kot sta Linux ali Firefox), pri umetni inteligenci ni povsem ustrezna, saj modeli niso le koda.

  • Kaj sestavlja model? Izhod modela je odvisen od kode, podatkov za usposabljanje in uteži modela (vrednosti, ki določajo, kaj se sistem nauči).
  • Osnutek OSI: Organizacija Open Source Initiative (OSI) je leta 2024 predlagala definicijo, po kateri mora biti model prosto dostopen, spremenljiv in deljiv, z dostopom do kode in uteži.
  • Openwashing: Številna podjetja (npr. Meta z modelom Llama 3) svoje sisteme promovirajo kot odprte, čeprav ne razkrijejo vseh podatkov ali omejujejo komercialno uporabo, kar kritiki imenujejo “openwashing”.

2. Primer AlphaFold3

Google DeepMind je ob izidu modela AlphaFold3 (AF3) za napovedovanje zvijanja proteinov naletel na ostre kritike, ker sprva ni objavil računalniške kode. Čeprav so kodo pozneje objavili, uteži ostajajo dostopne le akademskim uporabnikom, komercialna uporaba pa je omejena.

3. Argumenti za in proti odprtosti

V strokovni javnosti obstaja globok razkorak glede prednosti odprtokodne UI:

  • Zagovorniki inovacij: Trdijo, da odprtost preprečuje koncentracijo moči v rokah nekaj podjetij, spodbuja znanstvene raziskave in omogoča hitrejši razvoj novih aplikacij.
  • Varnostni pomisleki: Kritiki opozarjajo, da bi lahko zlonamerni akterji odprte modele zlorabili za ustvarjanje biološkega orožja, otroške pornografije ali globokih ponaredkov (deepfakes). Nekateri primerjajo tveganja UI z jedrsko tehnologijo.

4. Regulacija in dostopnost

  • EU AI Act: Evropska unija je sprejela prve celovite predpise, ki so blažji do odprtih sistemov, da bi spodbudili inovacije, vendar zahtevajo transparentnost pri usposabljanju splošnih modelov.
  • Vprašanje moči: Nekateri strokovnjaki opozarjajo, da odprta koda ne pomeni nujno demokratizacije, saj uporaba velikih modelov še vedno zahteva ogromno in drago računalniško moč. Rešitev bi lahko bili manjši modeli, ki jih razvijata tudi Apple in Microsoft.

Povzetek članka kot predstavitev z zdrski.

URL: https://www.sciencedirect.com/science/article/pii/S2095809925001183