VolkD je napisal/-a:ChatGPT v svojih odgovorih tako laže, da je dober samo za pisanje političnih govorov.
Nič ne laže, le učna množica je premajhna. Tipična zabloda uporabnika jezikovnega AI modela, ki se ne zaveda, da gre zgolj za algoritem.
Tukaj so ključne posledice:
1. Slaba generalizacija
Model se težje nauči splošnih vzorcev in pravil jezika, kar pomeni, da ne bo zmožen učinkovito reševati nalog zunaj omejenega obsega učne množice.
Odgovori so lahko preveč specifični za podatke v učni množici in neprimerni za širši kontekst.
2. Prekomerno prileganje (overfitting)
Model se preveč prilagodi omejenim podatkom, kar vodi v to, da reproducira točne primere iz učne množice, namesto da bi ustvaril splošne odgovore.
To se kaže v slabši uspešnosti na testnih podatkih ali pri novih primerih.
3. Manjša natančnost in smiselnost
Odgovori so pogosto manj smiselni, manj relevantni ali slovnično nepravilni, saj model nima dovolj podatkov za učenje pravil jezika.
Lahko pride do ponavljanja fraz, nesmiselnih zaključkov ali napačnega razumevanja konteksta.
4. Slaba pokritost tematik
Če učna množica ne pokriva dovolj širokega nabora tem, se bo model slabo odzival na vprašanja izven teh tem.
Manjka raznolikosti, kar pomeni, da model ne bo zmožen ustvariti kreativnih ali inovativnih rešitev.
5. Nezanesljivost
Model lahko generira odgovore, ki niso skladni ali vsebujejo napačne informacije, saj nima dovolj konteksta za preverjanje svoje napovedi.
Kako to rešiti?
Povečanje učne množice: Zagotoviti večje število podatkov z raznolikostjo in ustrezno kvaliteto.
Uporaba prenosnega učenja: Uporabiti večji predhodno naučeni model in nato prilagoditi na manjšo specifično množico podatkov (fine-tuning).
Podatkovna augmentacija: Uporabiti tehnike za umetno povečanje raznolikosti podatkov.
Ko greš peš mimo avto šole se nisi voznik avtobusa.
Če se sprehodiš skozi knjižnico še ne znaš vseh knjig na pamet.
Itd…