OpenAI bemutatja új AI-biztonsági kutatásait: kritikusok szerint jó lépés, de nem elegendő


OpenAI új kutatása az AI biztonságáról

Az OpenAI az utóbbi hónapokban sok kritikát kapott azok részéről, akik szerint túl gyorsan és meggondolatlanul fejleszti az egyre erősebb mesterséges intelligenciát. A vállalat most azt mutatja be, hogy komolyan veszi az AI biztonságát. Ma egy olyan kutatást ismertetett, amely segíthet a kutatóknak az AI modellek vizsgálatában, még akkor is, ha azok egyre képesebbek és hasznosabbak lesznek.

Az új technika egyike azon ötleteknek, amelyeket a vállalat az elmúlt hetekben hirdetett meg az AI biztonságával kapcsolatban. Ez magában foglalja két AI modell közötti beszélgetést, amely arra kényszeríti az erősebb modellt, hogy átláthatóbb, vagyis „olvashatóbb” legyen az érvelésében, hogy az emberek megértsék, mit csinál.

„Ez az alapja annak a küldetésnek, hogy olyan [általános mesterséges intelligenciát] építsünk, amely egyszerre biztonságos és hasznos,” mondja Yining Chen, az OpenAI egyik kutatója, aki részt vett a munkában, a WIRED-nek.

Eddig a munkát egy egyszerű matematikai problémák megoldására tervezett AI modellen tesztelték. Az OpenAI kutatói arra kérték az AI modellt, hogy magyarázza el az érvelését, miközben kérdésekre válaszol vagy problémákat old meg. Egy második modellt arra képeztek ki, hogy észlelje, helyesek-e a válaszok vagy sem, és a kutatók azt találták, hogy a két modell közötti vissza-visszatérő beszélgetés arra ösztönözte a matematikai problémákat megoldó modellt, hogy nyíltabb és átláthatóbb legyen az érvelésében.

Az OpenAI nyilvánosan közzétesz egy tanulmányt, amely részletezi a megközelítést. „Ez része a hosszú távú biztonsági kutatási tervnek,” mondja Jan Hendrik Kirchner, az OpenAI másik kutatója, aki részt vett a munkában. „Reméljük, hogy más kutatók is követhetik ezt, és esetleg más algoritmusokat is kipróbálhatnak.”

Az átláthatóság és az érthetőség kulcsfontosságú aggodalmak az AI kutatók számára, akik erősebb rendszereket építenek. A nagy nyelvi modellek néha ésszerű magyarázatokat kínálnak arra, hogyan jutottak egy következtetésre, de egy kulcsfontosságú aggodalom az, hogy a jövőbeni modellek átláthatatlanabbá vagy akár megtévesztőbbé válhatnak az általuk adott magyarázatokban—talán egy nemkívánatos cél elérése érdekében hazudnak.

A ma bemutatott kutatás része annak a szélesebb erőfeszítésnek, hogy megértsük, hogyan működnek azok a nagy nyelvi modellek, amelyek olyan programok alapját képezik, mint a ChatGPT. Ez egyike azoknak a technikáknak, amelyek segíthetnek átláthatóbbá és így biztonságosabbá tenni az erősebb AI modelleket. Az OpenAI és más vállalatok is mechanikusabb módszereket keresnek arra, hogy betekinthessenek a nagy nyelvi modellek működésébe.

Az OpenAI az elmúlt hetekben több munkáját is bemutatta az AI biztonságával kapcsolatban, miután kritikát kapott megközelítése miatt. Májusban a WIRED megtudta, hogy egy csapat kutatót, akik a hosszú távú AI kockázatok tanulmányozásával foglalkoztak, feloszlattak. Ez nem sokkal azután történt, hogy a társalapító és kulcsfontosságú technikai vezető, Ilya Sutskever, aki egyike volt azoknak az igazgatósági tagoknak, akik rövid időre leváltották az ügyvezető igazgatót, Sam Altmant, tavaly novemberben távozott.

Az OpenAI azzal a ígérettel jött létre, hogy az AI-t átláthatóbbá és biztonságosabbá teszi. A ChatGPT futótűzszerű sikere és az erősebb riválisoktól érkező intenzívebb verseny után néhányan azzal vádolták a vállalatot, hogy a látványos előrelépéseket és a piaci részesedést a biztonság elé helyezi.

Daniel Kokotajlo, egy kutató, aki elhagyta az OpenAI-t és nyílt levelet írt, amelyben kritizálta a vállalat AI biztonsági megközelítését, azt mondja, hogy az új munka fontos, de csak lépésről lépésre halad, és nem változtat azon a tényen, hogy a technológiát építő vállalatoknak több felügyeletre van szükségük. „A helyzetünk nem változott,” mondja. „Átláthatatlan, elszámoltathatatlan, szabályozatlan vállalatok versenyeznek egymással, hogy mesterséges szuperintelligenciát építsenek, gyakorlatilag terv nélkül arra, hogyan lehetne azt ellenőrizni.”

Egy másik forrás, aki ismeri az OpenAI belső működését és névtelenséget kért, mert nem volt felhatalmazva, hogy nyilvánosan beszéljen, azt mondja, hogy a külső felügyelet az AI vállalatokra is szükséges. „A kérdés az, hogy komolyan veszik-e azokat a folyamatokat és kormányzási mechanizmusokat, amelyek szükségesek ahhoz, hogy a társadalmi hasznot a profit elé helyezzék,” mondja a forrás. „Nem az, hogy engedik-e bármelyik kutatójuknak, hogy biztonsági dolgokat végezzen.”

Érdekesség: Tudta, hogy az első mesterséges intelligencia program, az ELIZA, 1966-ban készült és egy pszichoterapeutát imitált?

Források: WIRED, OpenAI