2023. 10. 30. - 10:00

Milyen terapeuták lehetnek a chatbotok?

Milyen terapeuták lehetnek a chatbotok?

Valóban lehetnek a chatbotokból terapeuták? A témát egy cég menedzsere vetette fel, aki az OpenAI mesterséges intelligenciával folytatott beszélgetést.

Funkcionálhat egy chatbot terapeutaként? A közelmúltban meghökkentést váltott ki egy, Lilian Weng nevű menedzser, ki azt állította, személyes, érzelmes beszélgetést folytatott az OpenAI mesterséges intelligenciájával, a ChatGPT-vel.
 
Mint arról cikkünk első felében beszámoltunk, az interakcióról a Nature Machine Intelligence folyóiratban egy kutatás is megjelent.
 
Tény, hogy egyre több startup cég évek óta szorgalmazza olyan mesterséges intelligencia-alkalmazások készítését, amelyek terápiát, társasági kapcsolatokat és úgy általában mentális egészségügyi támogatást kínálnak.
 
Hasonlóan azonban minden más szektorhoz, amelyet a mesterséges intelligencia jelenléte fenyegethet, a kritikusok ezen a területen is attól tartanak, hogy a robotok előbb-utóbb helyettesítik az emberi dolgozókat, ahelyett, hogy kiegészítenék őket.
 
Milyen terapeuták lehetnek a chatbotok?
Milyen terapeuták lehetnek a chatbotok?
 
A mentális egészséggel kapcsolatban pedig aggodalomra ad okot, hogy a robotok valószínűleg nem végeznek majd elég alapos munkát.
 
„A terápia a mentális jólétet szolgálja és meglehetősen kemény munka" - írta Cher Scarlett aktivista és programozó, reagálva Weng X-en írt első bejegyzésére reagálva. Hozzátette, hogy önmagunk (némileg) helyrerázása remek dolog, de nem teljesen ugyanaz, mint amikor valóban segít valaki.
 
A mesterséges intelligencia miatti általános félelmet tetézve néhány mentális egészségügyi alkalmazás érdekes közelmúltbeli történettel is bír.
 
A Replika - egy népszerű mesterséges intelligencia-társ, amelyet úgy hirdetnek, hogy mentális egészségügyi előnyökkel is jár -, használói régóta panaszkodnak, hogy a bot lehet a szexualitás megszállottja, sőt még bántalmazó is.
 
A Koko nevű, amerikai nonprofit szervezet 2023 februárjában kísérletet végzett 4 ezer ügyfél bevonásával. A GPT-3 segítségével adtak nekik tanácsot és megállapították, hogy az automatizált válaszok egyszerűen nem működnek terápiaként.
 
„A szimulált empátia fura, üres érzés” - írta a cég társalapítója, Rob Morris az X-en.
 
Eredményeik hasonlóak voltak az MIT/Arizona kutatói által végzett elemzéséhez - szerintük egyes résztvevők a chatbot-élményt a „téglafallal való beszélgetéshez” hasonlították.
 
Morris később kénytelen volt megvédeni magát, miután széles körben kritizálták kísérletét, főként azért, mert nem volt világos, hogy ügyfelei tudtak-e saját részvételükről.
 
Az eredmények nem meglepőek – jegyezte meg David Shaw, a Bázeli Egyetem munkatársa, aki nem vett részt az MIT/Arizona tanulmányában. Hozzátette azonban, hogy úgy tűnik, azért nem mindegyik résztvevőnek mondott haszontalan dolgokat a chatbot, ami egy fontos alap lehet.
 
A chatbot mint terapeuta gondolat összefonódik a technológia 1960-as gyökereivel. Az első chatbotot, amelyet egyfajta pszichoterápia szimulálására fejlesztettek ki, ELIZA-nak nevezték el.
 
Az MIT/Arizona kutatói a résztvevők felénél ELIZA-t, a másik felénél pedig GPT-3-at használtak.
 
Bár a hatás sokkal erősebb volt a GPT-3 esetében, a pozitivitásra hajlamos felhasználók továbbra is általában megbízhatónak tartották az ELIZA-t.
 
Így aligha meglepő, hogy Weng jónak ítélte a ChatGPT-vel való interakcióját– különösen, hogy azt gyártó cégnek dolgozik.
 
Az MIT/Arizona kutatói megjegyezték, hogy a társadalomnak kapnia kell valamiféle fogódzkodót a mesterséges intelligencia kapcsán.
 
Sokat számít ugyanis a mód, ahogyan a mesterséges intelligenciát bemutatják a társadalom előtt, mert megváltoztatja az MI megtapasztalását.
 
L.A.

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.

 

gyulai_vafurdo

profight_banner.