Lasīšanas Laiks:51 Sekunde(-s)

Zinātnieki no Džona Hopkinsa universitātes ir ierosinājuši jaunu pieeju daudzvalodu valodu modeļu (MLM) optimizēšanai, ļaujot tos ievērojami samazināt, nezaudējot veiktspēju.

Kas ir zināms

MLM ļauj ģenerēt un analizēt tekstus dažādās valodās. Tomēr, jo vairāk valodu tie aptver, jo sliktāk tie darbojas “valodas traucējumu” dēļ. 

Atšķirībā no tradicionālajām metodēm, kad katrai valodai tiek izstrādāts atsevišķs neironu tīkls, pētnieki nolēma izmantot zema ranga matricas. Tie ļauj saspiest datus un samazināt nepieciešamo parametru skaitu, lai modelim pievienotu jaunas valodas.

Saskaņā ar viena no autoriem Haoran Xu teikto, šī māksliniekam darbojas kā ierobežota krāsu palete. Katram klases bērnam nav jāiedod savs krāsu komplekts, pietiek ar kopēju trīs krāsu paleti. Tas ievērojami samazina vajadzību pēc parametriem, veicot modeļa mērogošanu.

Autori pārbaudīja savu metodi 95 valodās. Modelis uzrādīja izcilus rezultātus, izmantojot daudz mazāk parametru. Tas paver ceļu kompaktu un efektīvu MLM izveidei, saka pētnieki.

Pēc zinātnieku domām, laika gaitā radīsies mobilās AI lietojumprogrammas, kas vienlīdz labi var darboties simtiem valodu. Viņu galvenais mērķis ir izmantot jaunu metodi lielu MLM saspiešanai, nekaitējot to veiktspējai.

Avots: TechXplore

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *

Previous post Xiaomi ir izlaidusi īpašu Band 8 Pro aproces versiju Genshin Impact faniem
Next post Segai iestājas “jauns laikmets”: Japānas uzņēmums paziņoja par Shinobi, Golden Axes un citu savu ikonisko franšīžu atgriešanos