Thomson Reuters jövő szakemberei jelentés: Óvatos optimizmus az AI irányába a jogi szférában!


Majdnem senki sem akarja, hogy az AI képviselje az embereket a bíróságon – egyelőre

A Thomson Reuters termékfejlesztési vezetője, David Wong feltárja a generatív mesterséges intelligencia etikus használatát a jogban és azt, hogy mit nem tud megtenni az AI.

Manapság gyakran hallani, hogy a generatív AI egyszerűbb feladatokat át tud venni, de a nehezebbekkel küzd. Ebben az esetben mennyire takarít meg időt vagy javítja a munka teljesítményét a generatív AI? A Thomson Reuters, egy jogi, adóügyi, megfelelőségi és egyéb szakmai szolgáltató és technológiai cég, megvizsgálta, hogyan használják a szakemberek az AI-t a 2024-es Future of Professionals jelentésében. A jelentés kiadása kapcsán exkluzív interjút készítettünk David Wonggal, a Thomson Reuters termékfejlesztési vezetőjével.

A Thomson Reuters világszerte 2205 szakembert kérdezett meg a jogi, adóügyi és kockázatkezelési területeken. A jelentés nem specifikálta a generatív mesterséges intelligenciát, amikor az AI-ról kérdezett, de az említett képességek gyakran kapcsolódnak a generatív AI-hoz. A beszélgetésben az AI-t általános kifejezésként használtuk a képeket vagy szöveget generáló modellekre.

A profik szerint az AI „transzformációs” hatása 10%-kal nőtt

A jelentés nagyrészt pozitívan nyilatkozott az AI-ról, azzal az elvárással, hogy a mesterséges intelligencia időt szabadít fel. A válaszadók 77%-a mondta, hogy úgy véli, az AI „magas vagy transzformációs hatással lesz a munkájukra az elkövetkező öt évben”; ez a szám 10%-kal nőtt az előző évi jelentéshez képest.

„Kicsit meglepett, hogy a stratégiai jelentősége nőtt, mert gondolhattuk volna, hogy tavaly, amikor a ChatGPT és a GPT-4 megjelent, a hype-ciklus a csúcson lesz, és az emberek nagyon izgatottak lesznek,” mondta Wong.

Az AI stratégiai jelentősége iránti érdeklődés azonban a legtöbb jogi cégből szinte az összes iparágra átterjedt, amelyeket a Thomson Reuters szolgál. Így Wong szerint a magasabb számok inkább az iparágak közötti szélesebb érdeklődést tükrözhetik, mintsem a jogi cégek fokozódó érdeklődését.

Az óvatosság és az ambíció közötti megosztottság

Wong megjegyezte, hogy érdekes megosztottság van az emberek között, akik óvatosak és akik ambiciózusak a generatív AI tekintetében. A jelentésben ez úgy jelenik meg, mint egy kérdés, amelyben a Thomson Reuters megkérdezte: „Egy év, három év és öt év múlva körülbelül mekkora százalékát gondolja, hogy a jelenlegi munkát az ön csapata által emberek vagy AI végzi?”. A felmérés négy lehetséges választ kínált – egy spektrumot az AI-vezérelt vagy ember-vezérelt munkáról –, hogy meghatározzák, a szakemberek óvatosak vagy ambiciózusak-e az AI technológia munkahelyi használatában.

Megállapították, hogy a szakemberek 13%-a az „óvatos” kategóriába tartozik, akik úgy gondolják, hogy alacsony százalékban fogja az AI segíteni a munkát még öt év múlva is. Az ellentétes véglet az „ambiciózus” kategória volt, amelyben a szakemberek 19%-a úgy véli, hogy az AI a munkájuk nagy részét elvégzi öt év múlva.

„Sok szakember felismerte, hogy mi a gyakorlati következménye, a valósága sok technológiának,” mondta Wong. „És az elmúlt 12 hónapban végzett kísérletezések alapján most kezdjük látni, hogy ezek a szakemberek hogyan fordítják le a kísérletezést a megvalósításra.”

Milyen feladatokat nem tud végrehajtani az AI?

A generatív AI iránti elvárások nagyon magasak voltak 2023-ban, de valószínűleg ismét csökkenni fognak, mielőtt kiegyenlítődnek a Gartner szerint.

A jogi szakemberek és más munkahelyek számára, amelyeket a Thomson Reuters jelentése lefed, „az AI megoldások rendkívül jók minden olyan feladatban, ahol egy meglehetősen jó utasítást adhat,” mondta Wong.

Ez a fajta feladat magában foglalja a kutatást, dokumentumok összefoglalását vagy „magas szintű koncepciók kutatását, amelyek nem igényelnek specifikus jogi hivatkozásokat,” ahogy az egyik válaszadó mondta a jelentésben.

Amit az AI nem tud megtenni, az az, hogy önállóan döntéseket hozzon. Az AI cégek azt szeretnék, hogy végül képes legyen erre; valójában a felhasználó nevében autonóm cselekvések végrehajtása az OpenAI új AI képességek rangsorában a 3. szint. De az AI még nincs ott, és Wong rámutatott, hogy a Thomson Reuters iparágaiban ez a kérdés mind a technológia képességei, mind az emberek iránta érzett bizalma szempontjából fontos.

„Szerintem az AI még nem jutott el arra a pontra, legalábbis a bizalom szempontjából, hogy önállóan döntéseket hozzon,” mondta Wong.

Sok esetben Wong szerint az AI „nem teljesít olyan jól, mint az emberi ellenőrök, kivéve a legegyszerűbb dolgokban.”

A jelentés szerint a jogi szakemberek 83%-a, a kockázat, csalás és megfelelőség szakembereinek 43%-a és az adószakértők 35%-a úgy véli, hogy „az AI használata tanácsadásra vagy stratégiai ajánlásokra” „etikailag … egy lépés túl messzire.”

A legtöbb válaszadó (a jogi és adózási válaszadók 95%-a) úgy gondolja, hogy „az AI ügyfelek képviseletére a bíróságon vagy végső döntések meghozatalára komplex jogi, adóügyi, kockázat, csalás és megfelelőség kérdésekben” „egy lépés túl messzire” lenne.

„Ha felteszed a kérdést ‘mennyire valószínű, hogy az AI helyes döntést hoz vagy olyan jó döntést, mint egy ember?’ szerintem a válasz potenciálisan különbözne az ‘etikailag helyes?’ kérdéstől,” mondta Wong.

Lesz mindenkinek AI asszisztense öt éven belül?

Ezen aggályok ellenére a Thomson Reuters merész állítást tett a jelentésben, hogy „minden szakembernek lesz egy generatív AI asszisztense öt éven belül.” Ez az asszisztens úgy fog működni, mint egy emberi csapattag, és komplex feladatokat fog végrehajtani, jósolták.

Wong rámutatott, hogy az optimizmus egy része a számokból fakad. Az AI termékeket kínáló cégek száma az elmúlt két évben az egekbe szökött, beleértve az óriási okostelefon-gyártókat is.

„Gyakorlatilag mindenkinek, aki iPhone15-öt és iOS 18-at használ, lesz egy AI rendszer a zsebében,” mondta Wong. „És biztos vagyok benne, hogy pár év múlva minden új verzióban és minden egyes Apple eszközön hozzáférhetünk majd ehhez az asszisztenshez. A Microsoft is nagyon agresszívan terjeszti a Copilotot. Szerintem pár év múlva elég nehéz lesz olyan Microsoft 365 verziót találni, amelyben nincs Copilot.”

Amellett, hogy potenciálisan AI-t használhatnak tartalom létrehozására, elemzésére vagy összefoglalására, a szervezetek azt is fontolgatják, hogyan változhat a termékük vagy gyártási folyamatuk az AI használatával. A jelentés szerint a legtöbb felső vezető az AI-t leginkább a működési stratégiájukat (59%) és a termék/szolgáltatás stratégiájukat (53%) befolyásoló tényezőként látja.

„Szerintem most gyakorlatilag minden cég ezt nézi, az üzleti működés rengeteg rutinszerű, mechanikus munkát tartalmaz, amit egy használati utasítással leírhatnánk,” mondta Wong.

Ezek a mechanikus feladatok ideálisak az AI számára. A jogi területen, mondta, az AI megváltoztathatja a vállalkozások folyamatát a szabályozási vagy törvényi dokumentumok benyújtásában.

Mit jelent a felelős, „professzionális szintű” AI?

A jelentés válaszadói különböző elképzelésekkel rendelkeztek arról, hogy mi alkotja a felelős AI használatát a munkahelyen. Sokan az adatbiztonságot tartották a felelős AI használat kulcsfontosságú részének. Mások értékelték:

  • Adatbiztonságot a kérés vagy lekérdezés lépésében.
  • Kötelező emberi szakértői felülvizsgálatot az eredményekhez.
  • Óvatosságot abban, hogy milyen feladatokra használhatók az AI-alapú technológiák.
  • Átláthatóságot abban, hogy mely adatokból származnak a válaszok.

„Ha bárki azt mondja, hogy a [generatív AI] tökéletes, hibamentes, tévedés nélkül, akkor vagy téved, vagy az állítást nagyon, nagyon szigorúan kell megvizsgálni,” mondta Wong. „Amit szeretnél, az az átláthatóság a teljesítményben.”

A professzionális környezetben használt felelős AI rendszereknek validált tartalmakra kell alapozniuk, mérhetőnek kell lenniük és képesnek kell lenniük a hivatkozások megadására, mondta. Biztonságra, megbízhatóságra és titoktartásra kell épülniük.

A ChatGPT „a legrosszabb példája egy generatív AI megoldásnak a szakemberek számára, mert nem felel meg ezeknek az igényeknek,” mondta Wong. „De valójában tervezhetsz egy ChatGPT-t, amely adatvédelemben biztonságos, tiszteletben tartja a titoktartást, és nem képez adatokon. Ezek a rendszertervezési döntések, nem pedig az AI inherent tulajdonságai.”

Érdekesség: A mesterséges intelligencia 1956-ban kapta a nevét, amikor John McCarthy és társai megrendezték a Dartmouth konferenciát.

Források: Thomson Reuters, Gartner