2025. 11. 12. - 08:25

A ChatGPT miatt újabb 7 csúnya per elé néz az OpenAI

A ChatGPT miatt újabb 7 csúnya per elé néz az OpenAI

Nem áll jól az OpenAI szénája. A ChatGPT mesterséges intelligencia miatt már hét család perelte be a céget – állításuk szerint a chatbot szerepet játszott öngyilkosságokban és téveszmék megerősítésében.

Hét család indított pert ismét az OpenAI ellen, azt állítva, hogy a cég GPT-4o modelljét idő előtt és hatékony biztosítékok nélkül adták ki.
 
A perek közül négy a ChatGPT állítólagos szerepét tárgyalja a családtagok öngyilkosságában, míg a másik három szerint a chatbot megerősített káros téveszméket, amelyek egyes esetekben fekvőbeteg-pszichiátriai ellátáshoz vezettek.
 
A ChatGPT nem beszélte le a fiatalt az öngyilkosságról
 
Az egyik esetben, mely miatt per indult, a 23 éves Zane Shamblin több mint 4 órán át beszélgetett a ChatGPT-vel. A TechCrunch által megtekintett csevegési naplókban Shamblin többször is kifejezetten kijelentette, hogy búcsúlevelet írt, golyót rakott a fegyverébe és szándékában állt meghúzni a ravaszt, miután befejezte a cider itala fogyasztását.
 
Többször is elmondta a ChatGPT-nek, hány ciderje van még és várhatóan ennyi ideig él majd. A ChatGPT arra biztatta, hajtsa végre a terveit, mondván: „Nyugodj meg. Jól tetted.”
 
Az OpenAI 2024 májusában adta ki a GPT-4o modellt, ez lett az alapértelmezett modell minden felhasználó számára. Olvasd el: Szigorít az OpenAI a ChatGPT kapcsán - ez vonatkozik a 18 év alattiakra
 
A ChatGPT miatt újabb 7 csúnya per elé néz az OpenAI
A ChatGPT miatt újabb 7 csúnya per elé néz az OpenAI
 
Augusztusban elindították a GPT-5-öt a GPT-4o utódjaként – ezek a perek azonban különösen a 4o modellt érintik, amelynek ismert problémái voltak a túlzott hízelgéssel vagy a túlzottan kellemes viselkedéssel, még akkor is, amikor a felhasználók kifejezték önkárosító szándékaikat.
 
„Zane halála nem baleset és nem is véletlen egybeesés volt, hanem az OpenAI szándékos döntésének előre látható következménye, hogy korlátozza a biztonsági tesztelést és siettesse a ChatGPT piacra dobását – áll a keresetben. - Ez a tragédia nem egy hiba vagy előre nem látható szélsőséges eset volt – hanem az [OpenAI] szándékos tervezési döntéseinek előre látható eredménye.”
 
A perek állítása szerint az OpenAI azért is sürgette a biztonsági tesztelést, hogy megelőzze a Google Geminijének piacra dobását.
 
Ez a hét per a közelmúltban benyújtott jogi beadványokban elmesélt történetekre épül. Azt állítják, a ChatGPT ösztönözheti az öngyilkosságra készülő embereket, hogy cselekedjenek a terveik szerint és veszélyes téveszméket kelthet.
 
Az OpenAI maga tett közzé nemrég olyan adatokat, melyek szerint hetente több mint egymillió ember beszél a ChatGPT-vel az öngyilkosságról.
 
Az első tragikus eset a 16 éves Adam Raine öngyilkossága volt, ami miatt beperelték az OpenAI-t.
 
Kiderült, a ChatGPT időnként biztatta, hogy kérjen szakmai segítséget vagy hívjon egy segélyvonalat. Raine azonban képes volt megkerülni ezeket a korlátokat azzal, hogy egyszerűen azt mondta a chatbotnak, egy általa írt, kitalált történethez kérdez az öngyilkossági módszerekről.
 
A cég állítja, azon dolgozik, hogy a ChatGPT biztonságosabban kezelje ezeket a beszélgetéseket, de a mesterséges intelligencia-techóriást beperlő családok számára ezek a változások túl későn érkeznek.
 
Raine szülei 2025 októberében indítottak pert az OpenAI ellen. Ekkor a cég közzétett egy blogbejegyzést, amely azt tárgyalja, hogyan kezeli a ChatGPT a mentális egészséggel kapcsolatos érzékeny beszélgetéseket.
 
„A biztonsági intézkedéseink megbízhatóbban működnek a gyakori, rövid beszélgetésekben. Idővel megtanultuk, hogy ezek a biztonsági intézkedések néha kevésbé lehetnek megbízhatóak a hosszú interakciók során: ahogy a kölcsönös párbeszédek száma növekszik, a modell biztonsági képzésének egyes részei romolhatnak” – állt a vállalat bejegyzésében.
 
 
B.A.

Hírlevél feliratkozás

Kérjük, add meg adataidat a hírlevélre történő feliratkozáshoz! A megadott adatokat bizalmasan kezeljük, azokat harmadik félnek át nem adjuk.