Csupán három hónappal a megalakulása után, a Safe Superintelligence (SSI), egy új mesterséges intelligencia startup, amelyet az OpenAI egyik társalapítója, Ilya Sutskever alapított, 1 milliárd dolláros finanszírozást gyűjtött össze. Az utolsó befektetési kört a Sequoia és az Andreessen Horowitz kockázati tőkealapok vezették, a cég aktuális értékelése körülbelül 5 milliárd dollár – mondta a Financial Times.
Sutskever, aki májusban távozott az OpenAI-tól egy sikertelen próbálkozás után, hogy eltávolítsa Sam Altman vezérigazgatót, az SSI megalapítását követően a ‘biztonságos’ mesterséges intelligencia modellek fejlesztésére összpontosít. A cég küldetése olyan AI rendszerek létrehozása, amelyek rendkívül képesek és egybeesnek az emberi érdekekkel.
Új kihívások a mesterséges intelligenciában
„Felfedeztünk egy új hegyet, amit meg kell másznunk, ami kissé eltér attól, amin korábban dolgoztam. Nem arra törekszünk, hogy gyorsabban haladjunk ugyanazon az úton. Ha valami mást csinálsz, lehetőséged nyílik valami különlegesre” – nyilatkozta Sutskever a Financial Times-nak.
A jelentős finanszírozás felhasználásával a cég számítási erőforrásokat kíván beszerezni a mesterséges intelligencia modellek fejlesztéséhez, és bővíteni szeretné az aktuális, 10 fős csapatát. Az SSI aktívan toboroz, és pozíciókat kínál Palo Altóban, Kaliforniában, és Tel Avivban, Izraelben.
Biztonság és összhang
Az SSI megközelítése eltér más AI cégektől, mint például az OpenAI, Anthropic és Elon Musk xAI, amelyek mind különböző fogyasztói és üzleti alkalmazásokra fejlesztenek AI modelleket. Az SSI viszont kizárólag arra összpontosít, hogy megteremtse a ‘biztonságos szuperintelligenciához vezető egyenes utat.’
Daniel Gross, az SSI vezérigazgatója, a Reutersnek tett nyilatkozatában hangsúlyozta ennek a fókuszált megközelítésnek a fontosságát: „Fontos számunkra, hogy olyan befektetők vegyenek körül minket, akik értik, tiszteletben tartják és támogatják küldetésünket, ami a biztonságos szuperintelligenciához vezető egyenes út megteremtésére irányul, különösen az előtt, hogy a terméket a piacra dobjuk, néhány évet R&D-re szánva.”
Érdekes megjegyezni, hogy a cég jelentős értékelése és finanszírozása azt mutatja, hogy fokozott érdeklődés és befektetés irányul a biztonságos AI kutatás iránt, amidőn egyre nő a félelem a hatékonyabb mesterséges intelligencia rendszerek potenciális kockázatai miatt.
A biztonságos AI jövője
Sutskever távozása az OpenAI-tól állítólag a cég irányvonalával és a mesterséges intelligencia fejlesztésének sebességével kapcsolatos nézeteltérések eredménye volt. Az OpenAI-nál ő vezette az ‘összhang’ csapatot, amely arra összpontosított, hogy a fejlett AI rendszerek az emberiség legjobb érdekeit szolgálják.
Jelenleg az SSI a jól finanszírozott AI cégek versenyképes területére lép. Az OpenAI állítólag tárgyalásokat folytat, hogy több mint 100 milliárd dolláros értékeléssel tőkéhez jusson, míg az Anthropic és xAI legutóbb körülbelül 20 milliárd dollárra volt értékelve.
Azonban a zsúfolt piacon az SSI egyedi biztonságra fókuszáló megközelítése és magas szintű alapító csapata, amelyek nyilvánvalóan rezonálnak a befektetőkkel, nem csökkentek.
„Egy karcsú, kiváló csapatot állítunk össze a világ legjobb mérnökeiből és kutatóiból, akik kizárólag az SSI-re összpontosítanak, és semmi másra. Lehetőséget kínálunk arra, hogy életed munkáját végezhesd, és segíts a korunk legfontosabb technikai kihívásának megoldásában” – olvasható a cég weboldalán.
Jelenleg a cég előrehaladását szorosan figyelemmel kíséri mind a technológiai ipar, mind azok, akik az AI fejlesztésének etikai vonatkozásaival foglalkoznak.
Érdekes tény: A mesterséges intelligencia fejlődése során a kutatók egyre inkább megkérdőjelezik, hogy a gépek képesek-e valódi kreativitásra, vagy csupán az emberi kreativitás mintáit utánozzák.
Források: Financial Times, Reuters