Sidebar

Dirbtinių technologijų pagrindu veikiantis pokalbių robotas „ChatGPT“ gali aiškiai atsakyti į sudėtingus klausimus, rašyti kodus, eilėraščius ar rašinius, netgi išlaikyti sudėtingus egzaminus už studentus. Italija pirmoji susirūpino galimais duomenų apsaugos pažeidimais bei kitais pavojais ir laikinai uždraudė naudoti pokalbių robotą. Jos pavyzdžiu pasekė ir Ispanija.

Kokių baimių kelia naujoji technologija, kaip ji gali mums pagelbėti ir kokios yra jos galimybių ribos? Kaip „ChatGPT“ keičia švietimo sektorių? Kokių ambicijų turi dirbtinio intelekto kūrėjai? Apie visa tai tinklalaidėje „Mokslas be pamokslų“ pasakoja Vilniaus universiteto (VU) Matematikos ir informatikos fakulteto docentas, dirbtinio intelekto ekspertas Linas Petkevičius.

„ChatGPT“ – milžiniška matematinė formulė

Paprašytas paprastai paaiškinti, kas yra „ChatGPT“, mokslininkas sako, kad galvodami apie bet kokį dirbtinį intelektą mes turime suprasti, kad kalbama ne apie kažkokius neaiškius dalykus, bet apie matematines formules. „Pavyzdžiui, tas pats kalbos modelis „ChatGPT“, kuris uždavus klausimą sugeneruoja realistinį atsakymą netgi ir lietuvių kalba, yra ne kas kita kaip viena milžiniška matematinė formulė, kuri buvo sukurta atsižvelgiant į surinktus tekstynus. Norėdami ją atspausdinti ant popieriaus, turėtume nukirsti ne vieną medį. Bet čia nėra nieko mistiško, nes būtent tie matematiniai modeliai parenka, kokį atsakymą sugeneruoti toliau.“

2023 04 24 kodas

Asociatyvi nuotr. / Freepik nuotr.

Mašininio mokymosi modelis veikia gana paprastai. Jam pateikus tekstą (klausimą ar dokumentą), jis iš formulėmis jam priskirtų viešų didžiulių tekstynų pradeda prognozuoti, koks būtų kitas, dar kitas ir dar kitas labiausiai tikėtinas statistinis žodis, susijęs su mūsų užrašytu tekstu. Ir taip generuodamas žodį po žodžio jis performuluoja ir sugeneruoja visai realistinį atsakymą.

Todėl, pasak pašnekovo, šiuo metu pastebimos tam tikros varžybos tarp didžiųjų įmonių, kuri susirinks kuo daugiau tos viešos informacijos (naujienų, enciklopedijų, tinklaraščių ir t. t.) ir sukurs didesnį ir geresnį kalbos modelį. Čia ypač problemiškos ir jautrios tampa ginklų, teisės ar medicininių rekomendacijų temos, apie kurias „ChatGPT“ modelis iš kažkur turi tokių žinių, kurių „Google“ paieškoje nerasime, nes ta informacija gali būti nelegali, bet kažkuriuo metu buvo prieinama viešoje erdvėje.

Kaip klausti, norint gauti prasmingus atsakymus?

Tačiau pastebėta, kad kalbos robotas, norėdamas pateikti gražesnį ir įtaigesnį tekstą, kartais pameluoja – sukuria dalykus, kurie neegzistuoja, pavyzdžiui, miestų pavadinimus ar žmonių vardus, kurių niekada realybėje nebuvo. Amerikoje jau atsiranda tokios „specialybės“ kaip dirbtinio intelekto modelio užkalbėtojas.

Doc. L. Petkevičiaus teigimu, viena problemų, kurios iškyla naudojantis tokio tipo modeliais, yra ta, kad mes dar nelabai žinome, kaip jais naudotis, kaip parašyti tokias užklausas, kurios generuotų prasmingus atsakymus. Mokslininko teigimu, jeigu mes tuos kalbos modelius pradėtume naudoti duodami jiems kuo daugiau konteksto, papildomos informacijos, jie veiktų geriau.

„Jei šiuo metu „ChatGPT“ modelio paklaustume, koks yra neseniai priimto lietuviško įstatymo straipsnio X punktas Y, jis pabandytų sugeneruoti visiškai atsitiktinį tekstą, melagieną, nes programos matematinė formulė buvo sukurta iki 2021 m. ir tokios informacijos joje nėra. Bet jeigu nukopijuosime buvusį įstatymą ir jo pakeitimą ir paklausime, kokie buvo pagrindiniai pokyčiai, kokią įtaką jie daro kiekvienam iš mūsų, sugeneruotas atsakymas bus visiškai prasmingas“, – tikina dirbtinio intelekto ekspertas.

Pasak jo, pagrindinis skirtumas tarp „OpenAI“ anksčiau sukurtų ir plačiausiai žinomų modelių ir „ChatGPT“ ketvirtosios versijos yra tas, kad naujo modelio kūrimo procese buvo įdiegta žmonių grįžtamojo ryšio programa. Modelis buvo patobulintas, kad gebėtų ne tik prognozuoti labiausiai tikėtinus tekstus, bet ir kad tekstas būtų gražus ir priimtinas mums kaip skaitytojams.

Pirminė „ChatGPT“ paskirtis – teksto supratimas

Tačiau, kaip pasakoja mokslininkas, pirminė „ChatGPT“ sukūrimo paskirtis buvo visai ne tokia, kokią mes matome šiandien. Kūrėjai nesitikėjo sukurti pokalbių robotų ar dirbtinio intelekto technologijų, kurios padėtų kiekvienam, bet norėjo geriau suprasti, kas užrašyta tekste.

„Prieš septynerius metus natūralios kalbos technologijos jau buvo pradėjusios visai neblogai veikti, bet buvo labai didelė neišspręsta problema su duomenų anotavimu ir paieška. Pažiūrėję į „Google“ paiešką matome, kad paieška kokius 15 metų veikdavo pagal raktažodžius. Problema buvo ta, kad dažniausiai, kai rašome ar kalbame, mes suprantame semantinę informaciją – ta pati mintis gali būti performuluota šimtais skirtingų būdų, kitokiais sakiniais, bet pasakanti tą patį. Tuomet buvo pradėta galvoti, kaip ištraukti semantinę informaciją iš teksto. Tai vedė prie tokių modelių, kurie gebėdavo labai nesunkiai užkoduoti tekstą ir atskirti du skirtingus sakinius, kurių semantinė prasmė yra ta pati. Vėliau paaiškėjo, kad, pratęsus tą generavimo procesą toliau, galima kurti labai įdomius generatyvinius modelius, kurie gali spręsti daugybę gyvenimiškų problemų“, – pasakoja dirbtinio intelekto tyrėjas.

2023 04 24 Linas Petkevicius Jurijaus Azanovo URM

Linas Petkevičius. Jurijaus Azanovo / URM nuotr.

Nors pirmieji modeliai buvo skirti IT specialistams padėti greičiau parašyti programavimo kodą, greitai įvairiose didžiosiose įmonėse atsirado pagalbiniai įrankiai („ChatGPT“ analogai), kurie palengvino darbą su tekstais ir taupė darbuotojų laiką pasiūlydami pradėto rašyti sakinio ar laiško pabaigą, parašydami teksto ar įrašinėjamo nuotolinio susirinkimo santrauką ir t. t.

Ar reikėtų drausti?

Paklaustas, kaip vertina tai, kad kai kurios šalys jau yra uždraudusios naudoti naują kalbos modelį, pašnekovas sako, kad tokio tipo modeliai sparčiai tobulėja, jų atsiranda vis naujų ir ši sritis labai žaibiškai plečiasi, keičiasi. Uždrausdami juos naudoti mes stovėsime vietoje ir taip problemos neišspręsime – jie šiaip ar taip bus mūsų gyvenime.

„Geriau reikėtų pagalvoti, kaip juos panaudoti, kad iš to būtų nauda, ir įdiegti į mūsų tipines veiklas. Pavyzdžiui, edukacijoje panaudojus kalbos modelį rutininiams uždaviniams spręsti sutaupytą laiką galima skirti naujų dalykų mokymuisi, būti efektyvesniems. Nors mes turime didelių pagundų ir rizikų, kad tas patogumas, kurį suteikia technologijos, de facto neprives prie tobulėjimo, žinių kaupimo, bet tai gali tapti pagalbiniu įrankiu, kuris leidžia tris kartus greičiau padaryti tam tikrą darbą, pavyzdžiui, paruošti dokumentą“, – sako Matematikos ir informatikos fakulteto docentas.

Tačiau tokia funkcija naudinga tik ekspertui, patyrusiam darbuotojui, nes jaunam žmogui arba tokiam, kuris tik įeina į tam tikrą naują sritį, patikrinti, kaip tas modelis sugeneravo informaciją, ar ten viskas gerai, ar nepraleistos svarbios detalės, bus labai sudėtinga.

„ChatGPT“ kol kas geresnis nei jo kontrolės priemonės

Doc. L. Petkevičius pateikė pavyzdį, kaip būtų galima reglamentuoti „ChatGPT“ modelių naudojimą net ir įmonėse su labai jautriais duomenimis, bet kartu ir gauti naudos.

„Prieš kelias savaites vieno didžiausių Amerikos bankų „JPMorgan“ vadovas davė interviu apie pokalbių robotus ir sakė, kad reikia palaikyti įvairias bankines sistemas, kadangi tai yra IT produktai. Iš tiesų matome, kad mūsų programuotojai naudoja pokalbių robotus joms kurti ir taip didina savo darbo produktyvumą, bet mes kaip bankas turime apsisaugoti, kad jautri informacija neišeitų už banko ribų. Todėl prieiga prie GPT yra leidžiama, bet informacija yra filtruojama“, – pasakoja dirbtinio intelekto tyrėjas.

Tad informacijos filtravimas iš tiesų yra vienas iš „ChatGPT“ reglamentavimo sprendimų, kuris yra dabar taikomas ir potencialiai galėtų būti naudojamas švietimo ir verslo įmonėse. Pavyzdžiui, kad nebūtų įmanoma užduoti tiesioginių klausimų, kaip išspręsti uždavinį, bet klausimai, užvedantys ant kelio, galėtų būti prasmingi.

Mokslininkai taip pat bando kurti modelius, kurie identifikuotų sugeneruotus tekstus. Tokie modeliai tikrina sakinių struktūrą, jų ilgį ir pan. Sausio mėnesį sukurti pirmieji netikro teksto identifikavimo modeliai veikė neblogai, bet ir neilgai, nes žmonės, intensyviai naudojantys pokalbių robotus, sugalvojo, kaip juos galima apeiti. Jie išmoko pateikti tokias užklausas, kurios leistų sukurti kuo natūralesnį ir tikram tekstui artimesnį atsakymą.

Todėl naujausia, ketvirtoji modelio versija buvo patobulinta dar tikroviškesnio teksto generavimo funkcija, o mokslininkai ir įmonės, bandydami atrasti tobulesnes netikro teksto identifikavimo sistemas ir taip konkuruodami su dirbtinio intelekto kūrėjais, sparčiai gerina dabar egzistuojančius kalbos modelius.

Kol kas nauja kalbos technologija yra geresnė nei kontrolės priemonės, kuriomis siekiama ją suvaldyti ir sužiūrėti.

Laukia naujo tipo kibernetinės atakos

Tokio tipo modeliai kaip pokalbių robotai yra labai universalūs, todėl aktualus yra ir saugumo užtikrinimas. Pašnekovas įsitikinęs, kad tik laiko klausimas, kada atsiras incidentų, susijusių su kalbos robotų panaudojimu kibernetinio saugumo srityje. Anksčiau norint įsilaužti į informacines sistemas reikėjo turėti labai gerų techninių žinių, o kalbos modelių galimybės šį procesą gerokai palengvins.

Tačiau, nepaisant šių saugumo iššūkių, programos draudimas ir jos plėtros stabdymas nebūtų tinkama išeitis, nes stotų ir didžiųjų įmonių, tokių kaip „Meta“, „Google“, kai kurių pasaulio didžiųjų universitetų, intensyviai plėtojančių dirbtinį intelektą, veikla, o katu ir mokslo pažanga. Visi jie nori lenktyniaudami sukurti kuo didesnės apimties kalbos modelius, juos komercializuoti kuo greičiau, todėl bet koks stabdymas jiems yra komerciškai nenaudingas.

„Kasdien atsiranda dešimtys dirbtinio intelekto produktų. Technologinis bumas jau ateina, mes dar nejaučiame jo visa apimtimi, bet tai palies mus visus. Naujos technologijos padės mums daug ką daryti efektyviau, greičiau, kurti naujus dalykus. Manau, kad prie šios, kaip ir prie kiekvienos prieš tai buvusios, technologijos adaptuosimės“, – sako doc. L. Petkevičius.

Pokalbį su dirbtinio intelekto ekspertu, VU MIF doc. L. Petkevičiumi galite žiūrėti čia.

2023-04-24