Zinātnieki no Džona Hopkinsa universitātes ir ierosinājuši jaunu pieeju daudzvalodu valodu modeļu (MLM) optimizēšanai, ļaujot tos ievērojami samazināt, nezaudējot veiktspēju.
Kas ir zināms
MLM ļauj ģenerēt un analizēt tekstus dažādās valodās. Tomēr, jo vairāk valodu tie aptver, jo sliktāk tie darbojas “valodas traucējumu” dēļ.
Atšķirībā no tradicionālajām metodēm, kad katrai valodai tiek izstrādāts atsevišķs neironu tīkls, pētnieki nolēma izmantot zema ranga matricas. Tie ļauj saspiest datus un samazināt nepieciešamo parametru skaitu, lai modelim pievienotu jaunas valodas.
Saskaņā ar viena no autoriem Haoran Xu teikto, šī māksliniekam darbojas kā ierobežota krāsu palete. Katram klases bērnam nav jāiedod savs krāsu komplekts, pietiek ar kopēju trīs krāsu paleti. Tas ievērojami samazina vajadzību pēc parametriem, veicot modeļa mērogošanu.
Autori pārbaudīja savu metodi 95 valodās. Modelis uzrādīja izcilus rezultātus, izmantojot daudz mazāk parametru. Tas paver ceļu kompaktu un efektīvu MLM izveidei, saka pētnieki.
Pēc zinātnieku domām, laika gaitā radīsies mobilās AI lietojumprogrammas, kas vienlīdz labi var darboties simtiem valodu. Viņu galvenais mērķis ir izmantot jaunu metodi lielu MLM saspiešanai, nekaitējot to veiktspējai.
Avots: TechXplore