Jack Ma fintech erőműve a hazai chipeket használta fel az Alibaba és a Huawei által gyártott AI modellek képzése érdekében, amelyek a jelek szerint az Nvidia H800 GPU-ival vetekednek.
Az Ant Group az ügyet ismerő személyek szerint rájött, hogyan lehet az AI-modelleket kínai gyártású félvezetőkön betanítani, ami a hagyományos módszerekhez képest mintegy 20 százalékkal csökkenti a költségeket.
Bennfentesek szerint az Ant eredményei kedvezően állnak az Nvidia Corp. H800-as lapkáival szemben, amelyek jelenleg nem állnak a kínai vállalatok rendelkezésére, mivel Amerikai exportellenőrzés miatt. Bár az Ant még mindig Nvidia hardvert használ az AI munkájának egy részéhez, a cég most állítólag nagyobb hangsúlyt fektet az AMD processzorokra és kínai alternatívákra a legújabb modelljeihez.
Az Ant ebben a hónapban egy kutatási dokumentumot tett közzé, amelyben azt állította, hogy Ling-Plus és Ling-Lite modelljei még a Meta Platforms Inc.-t is legyőzték bizonyos benchmarkokban. Ha ezek az eredmények helytállóak, akkor ezek a rendszerek jelentős előrelépést jelenthetnek a kínai mesterséges intelligencia számára, mivel drasztikusan csökkentik a képzés és a mesterséges intelligencia-szolgáltatások bevezetésének költségeit.
A tanulmány megjegyzi, hogy 1 trillió token betanítása nagy teljesítményű hardverrel nagyjából 6,35 millió jüanba (kb. 880 000 dollár) kerül. A vállalat optimalizált megközelítésével - és a kisebb teljesítményű berendezésekkel - azonban ez a szám körülbelül 5,1 millió jüanra (kb. 700 000 dollár) csökken. Azoknak, akik nem ismerik, a tokenek lényegében az információk azon egységei, amelyeket ezek a modellek a tanuláshoz és a kimenetek előállításához használnak.
A jövőben az Ant ezeket a mesterséges intelligenciamodelleket egészségügyi és pénzügyi alkalmazásokban kívánja használni. Az év elején felvásárolta a Haodf.com kínai online platformot, hogy megerősítse az egészségügyre összpontosító AI-szolgáltatásait. Az Ant egy Zhixiaobao nevű AI "életasszisztens" alkalmazást és egy Maxiaocai nevű pénzügyi tanácsadó AI eszközt is üzemeltet.
Mindkét Ling modell nyílt forráskódú: A Ling-Lite 16,8 milliárd paramétert hordoz, míg a Ling-Plus 290 milliárdot. Bár ezek komoly számok, még mindig kisebbek, mint néhány más nagy AI-modell - a szakértők becslése szerint a GPT-4.5 körülbelül 1,8 billió paramétert tartalmaz, a DeepSeek-R1 pedig 671 milliárdot.
Az Ant elismerte, hogy van néhány bukkanó az úton, különösen a képzés alatti stabilitás tekintetében. A kutatási dokumentum megjegyezte, hogy a hardver vagy a modell tervezésének apró változtatásai néha nagy hibaszázalékokat okoztak.
Forrás(ok)
Bloomberg (angolul)
» A Top 10 multimédiás noteszgép - tesztek alapján
» A Top 10 játékos noteszgép
» A Top 10 belépő szintű üzleti noteszgép
» A Top 10 üzleti noteszgép
» A Top 10 notebook munkaállomása
» A Top 10 okostelefon - tesztek alapján
» A Top 10 táblagép
» A Top 10 Windows tabletje
» A Top 10 subnotebook - tesztek alapján
» A Top 10 300 euró alatti okostelefonja
» A Top 10 120 euró alatti okostelefonja
» A Top 10 phabletje (>5.5-inch)
» A Top 10 noteszgép 500 EUR (~160.000 HUF) alatt
» A Top 10 "pehelysúlyú" gaming notebookja