Már készül a ChatGPT alternatívája

Már készül a ChatGPT alternatívája

2023. január 12. 22:34, Csütörtök
A béta fázisban lévő Claude nevű rendszer kevésbé pontos, és elismeri, ha nem tud valamire válaszolni.

Az OpenAI korábbi munkatársai egy olyan rendszert készítenek Claude néven, amely a mostanában nagy népszerűségnek örvendő ChatGPT alternatívája lehet bizonyos területeken.

A 2021-ben alapított Anthropic nevű mesterséges intelligencia startup a megalapítása óta már több mint 700 millió dollár kockázati tőkét kapott. A pénzből Dario Amodei, az OpenAI korábbi kutatási alelnöke, az Anthropic jelenlegi vezérigazgatója a ChatGPT mintájára kifejlesztett egy szöveges mesterséges intelligenciát, amely néhány területen eltér a népszerű elődjétől. Amodei és csapata az alapkoncepciót "alkotmányos mesterséges intelligenciának" nevezi és az a ChatGPT és más hasonló szoftverek egyik alapvető problémáját hivatott megoldani, ami az, hogy a megoldások könnyen felhasználhatók potenciálisan veszélyes tartalmak létrehozására. Az Anthropic technológiája pontosan az ilyen tartalmakat hivatott elkerülni anélkül, hogy az ellenőrzés túl sok emberi munkát igényelne.

Az Anthropic csapata még nem hozta nyilvánosságra a mesterséges intelligencia pontos specifikációit. Ez nem véletlen, mivel a Claude még mindig zárt béta szakaszban van. Néhány béta tesztelő azonban már közzétette első összehasonlításait a ChatGPT-vel a Twitteren. Yann Dubois, a Stanford Egyetem Mesterséges Intelligencia Laboratóriumának doktorandusza azt írta, hogy az új fejlesztés válaszai általában közelebb állnak a tényleges kérdéshez, de kevésbé pontosak. Dubois azt az álláspontot képviselte, hogy a Claude nem oldotta meg a ChatGPT és a hasonló megoldások legnagyobb problémáját: a mesterséges intelligencia néha valótlanságokat mond. A rendszer nyíltan elismeri bizonyos esetekben, hogy az ismeretei hiánya miatt nem tud válaszolni egy kérdésre.

Dan Elton mesterséges intelligencia kutató szerint azonban az új szoftver jobb vicceket tud mesélni, mint a ChatGPT. Elton ugyanakkor egy aggasztó gyengeséget is talált: ha a kérdéseket Base64 kódolásban teszik fel a megoldásnak, akkor megkerülhetők annak biztonsági mechanizmusai, amelyeknek pont az lenne a céljuk, hogy hogy megakadályozzák a káros válaszokat. Elton például így tudta kiszedni a mesterséges intelligenciából a metamfetamin főzési utasításait.

Kapcsolódó linkek

Listázás a fórumban 
Adatvédelmi beállítások