Az Nvidia uralja az MLPerf Inferenciát, a Qualcomm is ragyog, hol vannak a többiek?

​ ​Az MLCommons ma közzétette a legújabb MLPerf következtetési eredményeit, egy másik erős mutatóval az Nvidia gyorsítók egy változatos rendszerben. Körülbelül négy éves, az MLPerf még mindig küzd, hogy nagyobb részvételt vonzzon a gyorsító beszállítók részéről. Mindazonáltal az általános teljesítmény és a részvétel emelkedett, 19 szervezet kétszer annyi eredményt és hatszor annyi teljesítménymérést nyújtott be a fő Inference 2.0 (adatközpont és perem) gyakorlatban. Az AI-rendszerek folyamatosan fejlődnek. David Kanter, az MLPerf anyavállalata, az MLCommons ügyvezető igazgatója így nyilatkozott: „Ez a ML közösség kiemelkedő erőfeszítése volt, annyi új résztvevővel és a beadványok számának és sokféleségének hatalmas növekedésével. Különösen izgatott vagyok, hogy nagyobb mértékben alkalmazzák az energia- és energia-méréseket, ami kiemeli az iparág hatékonyabb MI-re való fókuszálását”. Az MLPerf referenciaérték évente körülbelül négyszer jelenik meg, a következtetések eredményeit az 1. és 3. negyedévben, a képzési eredményeket pedig a 2. és 4. negyedévben jelentik. A két közül a modellképzés a számítástechnika intenzívebb, és hajlamos a HPC hatáskörébe esni; a következtetés kevésbé, de még mindig megterhelő. A legutóbbi következtetési kör három különböző benchmarkkal rendelkezett: Inference v2.0 (adatközpont és perem); Mobile v3003 (mobiltelefonok); és Tiny v0.7 (IoT). Az MLPerf osztja a gyakorlatokat osztalékokra és kategóriákra, hogy a rendszerközi összehasonlításokat igazságosabbá és könnyebbé tegye, amint az alábbi dia mutatja. Nagyrészt az MLPerf továbbra is a Nvidia gyorsítók portfólióján alapuló rendszerek bemutatója.     

Vélemény, hozzászólás?