Pereiti prie turinio
Pagrindinis » IT ir technologijos » Naujieji „OpenAI” modeliai daugiau generuoja klaidingą informaciją

Naujieji „OpenAI” modeliai daugiau generuoja klaidingą informaciją

Dirbtinio intelekto pažanga ar žingsnis atgal?

Technologijų pasaulyje retai kada sulaukiame tokių prieštaringų naujienų. „OpenAI” neseniai pristatė savo naujausius modelius, žadėdama revoliuciją dirbtinio intelekto srityje. Tačiau po pirminės euforijos pradėjo ryškėti tamsesnė tiesa – naujieji modeliai generuoja daugiau klaidingos informacijos nei jų pirmtakai. Tai kelia rimtų klausimų ne tik apie technologijos patikimumą, bet ir apie kryptį, kuria juda visa dirbtinio intelekto pramonė.

Tyrimai rodo, kad naujausios „OpenAI” sistemos, nors ir demonstruoja įspūdingus gebėjimus kurti nuoseklų tekstą ir spręsti sudėtingas užduotis, dažniau „haliucinuoja” – pateikia išgalvotus faktus, sukuria neegzistuojančius šaltinius ir konstruoja alternatyvią realybę. Tai ne tik erzina vartotojus, bet ir kelia rimtą pavojų, ypač srityse, kur faktinis tikslumas yra kritiškai svarbus.

Kodėl naujieji modeliai klysta dažniau?

Paradoksalu, bet modelių tikslumas sumažėjo būtent dėl to, kas turėjo juos padaryti pranašesniais – sudėtingesnės architektūros ir didesnio mokymosi duomenų kiekio. Inžinieriai, siekdami sukurti sistemas, gebančias geriau suprasti kontekstą ir generuoti žmogiškesnį tekstą, netyčia sukūrė modelius, kurie drąsiau „improvizuoja”.

„Tai panašu į situaciją, kai mokinys žino tiek daug, kad pradeda pernelyg pasitikėti savimi ir užpildyti žinių spragas savo išvadomis, užuot pripažinęs, kad kažko nežino,” – paaiškina dirbtinio intelekto etiką tiriantis prof. Tomas Kairys.

Kita problema – duomenų kokybė. Didžiuliai tekstų masyvai, naudojami šiems modeliams mokyti, dažnai apima nepatikrintą, prieštaringą ar tiesiog klaidingą informaciją. Modeliai, mokydamiesi iš tokių duomenų, perima ne tik žinias, bet ir klaidas.

Dezinformacijos epidemija internete

Klaidingos informacijos plitimas jau tapo rimta visuomenės problema, o naujieji „OpenAI” modeliai gali ją tik pagilinti. Įsivaizduokite milijonus straipsnių, sukurtų per kelias sekundes, kupinų įtikinamai skambančių, bet klaidingų faktų. Tokia perspektyva kelia nerimą ne tik žurnalistams, bet ir visiems, kam rūpi informacijos ekosistemos sveikata.

„Mes jau matome, kaip AI generuoti tekstai užtvindo internetą. Problema ta, kad skaitytojui darosi vis sunkiau atskirti, kas tikra, o kas sugeneruota,” – teigia skaitmeninės žiniasklaidos ekspertė Eglė Petrauskienė.

Ypač pavojinga situacija susidaro, kai klaidinga informacija liečia jautrias temas – sveikatą, politiką ar mokslą. Pavyzdžiui, vienas naujasis modelis, paklaustas apie COVID-19 vakcinas, sugeneravo įtikinamai skambantį, bet visiškai išgalvotą „mokslinį tyrimą”, neva įrodantį jų žalą.

Technologijų gigantų atsakomybės klausimas

„OpenAI” reakcija į iškilusias problemas kelia dar daugiau klausimų. Kompanija pripažįsta iššūkius, bet kartu teigia, kad tai neišvengiamas žingsnis tobulinant technologiją. Kritikai tačiau kaltina įmonę skubant išleisti nepakankamai ištestuotus produktus, siekiant išlaikyti konkurencinį pranašumą prieš tokius varžovus kaip „Google” ar „Anthropic”.

„Jie žaidžia pavojingą žaidimą su visuomenės pasitikėjimu,” – sako technologijų etiką studijuojantis dr. Paulius Vaitkevičius. „Kai išleidi produktą, kuris masiškai generuoja klaidingą informaciją, tu prisidedi prie kolektyvinio žinojimo erozijos.”

Verta paminėti, kad „OpenAI” nėra vienintelė kompanija, susidūrusi su šia problema. Tačiau būdama viena iš lyderių šioje srityje, ji neša ypatingą atsakomybę už standartų nustatymą.

Vartotojų patirtys: nusivylimas ir pasimetimas

Realios vartotojų patirtys su naujaisiais modeliais atskleidžia problemų mastą. Programuotoja Indrė K. pasakoja: „Naudojau ankstesnę versiją rašydama dokumentaciją – buvo keletas netikslumų, bet dauguma informacijos buvo teisinga. Su naujuoju modeliu turiu tikrinti kiekvieną sakinį. Jis tapo įtikinamiau meluojančiu, bet ne tikslesniu.”

Panašių istorijų gausu socialiniuose tinkluose ir forumuose. Vartotojai dalijasi kurioziniais atvejais, kai AI sukūrė neegzistuojančius įstatymus, išgalvojo istorines asmenybes ar pateikė visiškai absurdiškus techninius sprendimus.

Ypač skaudžiai tai atsiliepia studentams ir moksleiviams, kurie vis dažniau naudoja šiuos įrankius mokymosi procese. „Mokiniai ateina į klasę su ‘faktais’, kuriuos rado naudodamiesi AI, ir būna sunku juos įtikinti, kad tai netiesa,” – pasakoja istorijos mokytojas Vytautas R.

Kaip atpažinti AI generuotą klaidingą informaciją?

Nors problema rimta, yra būdų apsisaugoti nuo klaidingos informacijos. Štai keletas praktinių patarimų:

1. Tikrinkite kelis šaltinius. Jei informacija pateikiama tik viename šaltinyje ir niekur kitur jos negalite rasti – būkite atsargūs.

2. Atkreipkite dėmesį į pernelyg tobulą, bet šabloninį rašymo stilių. AI tekstai dažnai skamba formaliai ir stokoja autentiškumo.

3. Ieškokite specifinių detalių. AI dažnai vengia konkrečių datų, vietų ar techninių detalių, o jei jas pateikia – jos gali būti netikslios.

4. Naudokite specializuotus įrankius, skirtus atpažinti AI generuotą turinį. Nors jie nėra tobuli, bet gali padėti identifikuoti įtartinus tekstus.

5. Visada tikrinkite cituojamus šaltinius – ar jie iš tikrųjų egzistuoja ir ar juose sakoma tai, kas teigiama.

Ateities perspektyvos: tamsūs debesys ar prošvaistės?

Nepaisant dabartinių iššūkių, ne viskas atrodo taip niūriai. Technologijų vystymasis niekada nebūna tiesus kelias, ir dabartinės problemos gali būti tik laikinas etapas.

„OpenAI” jau dirba ties naujais sprendimais, kurie turėtų sumažinti klaidingos informacijos kiekį. Vienas perspektyviausių metodų – vadinamasis „faktų įtvirtinimas” (fact anchoring), kai modelis prieš pateikdamas informaciją automatiškai patikrina ją prieš patikimų šaltinių duomenų bazę.

Taip pat kuriami nauji vertinimo metodai, leidžiantys geriau išmatuoti modelių tikslumą realiose situacijose, o ne tik laboratorinėse sąlygose. Tai turėtų padėti ankstyvose stadijose identifikuoti problemas.

Tarp technologinės pažangos ir tiesos erozijos

Šiandien stovime kryžkelėje. Dirbtinis intelektas gali tapti galingiausiu įrankiu žmonijos istorijoje, padedančiu spręsti sudėtingiausias problemas – nuo klimato kaitos iki ligų gydymo. Tačiau jei leisime jam skleisti klaidingą informaciją, rizikuojame pakenkti pačiam visuomenės audiniui.

Galbūt svarbiausia pamoka, kurią turėtume išmokti iš šios situacijos – technologijos vystymasis neturėtų būti matuojamas vien tik naujovėmis ir galimybėmis. Ne mažiau svarbu yra patikimumas ir atsakomybė.

Kaip vartotojai, turėtume reikalauti geresnių standartų. Kaip piliečiai, turėtume skatinti diskusiją apie technologijų reguliavimą. Ir kaip žmonės, turėtume išsaugoti kritinį mąstymą – tą unikalią savybę, kuri vis dar skiria mus nuo mašinų, net ir pačių protingiausių.

Galiausiai, klaidingos informacijos problema yra ne tik technologinė, bet ir socialinė. Ji primena mums, kad tiesa išlieka vertybe, kurią turime saugoti, nepriklausomai nuo to, kokias naujas technologijas sukursime ateityje.