Zinātnieki piedāvā jaunu metodi daudzvalodu AI modeļu saspiešanai

Zinātnieki no Džona Hopkinsa universitātes ir ierosinājuši jaunu pieeju daudzvalodu valodu modeļu (MLM) optimizēšanai, ļaujot tos ievērojami samazināt, nezaudējot veiktspēju.

Kas ir zināms

MLM ļauj ģenerēt un analizēt tekstus dažādās valodās. Tomēr, jo vairāk valodu tie aptver, jo sliktāk tie darbojas “valodas traucējumu” dēļ. 

Atšķirībā no tradicionālajām metodēm, kad katrai valodai tiek izstrādāts atsevišķs neironu tīkls, pētnieki nolēma izmantot zema ranga matricas. Tie ļauj saspiest datus un samazināt nepieciešamo parametru skaitu, lai modelim pievienotu jaunas valodas.

Saskaņā ar viena no autoriem Haoran Xu teikto, šī māksliniekam darbojas kā ierobežota krāsu palete. Katram klases bērnam nav jāiedod savs krāsu komplekts, pietiek ar kopēju trīs krāsu paleti. Tas ievērojami samazina vajadzību pēc parametriem, veicot modeļa mērogošanu.

Autori pārbaudīja savu metodi 95 valodās. Modelis uzrādīja izcilus rezultātus, izmantojot daudz mazāk parametru. Tas paver ceļu kompaktu un efektīvu MLM izveidei, saka pētnieki.

Pēc zinātnieku domām, laika gaitā radīsies mobilās AI lietojumprogrammas, kas vienlīdz labi var darboties simtiem valodu. Viņu galvenais mērķis ir izmantot jaunu metodi lielu MLM saspiešanai, nekaitējot to veiktspējai.

Avots: TechXplore

Ja esat atklājis pareizrakstības kļūdu, lūdzu, paziņojiet mums, izvēloties šo tekstu un nospiežot Ctrl+Enter.

Related posts

Messenger iegūst HD video zvanus, ar mākslīgo intelektu darbināmu balss izolāciju, ar mākslīgo intelektu darbināmus tālruņus un Siri integrāciju

Amazon ir laidis klajā Echo Show 21 ar 21 collu ekrānu un jaunām viedās mājas funkcijām

Noticis masīvs krāpnieku uzbrukums vietnē “WhatsApp”

Šī vietne izmanto sīkfailus, lai uzlabotu jūsu pieredzi. Mēs pieņemam, ka jūs ar to piekrītat, bet jūs varat atteikties, ja vēlaties. Lasīt vairāk