2023.11.15. 06:00
Kérjük, beszéljen szeretettel a ChatGPT-vel!
Van lelke a mesterséges intelligenciának? Ha szépen beszélünk vele, jobban teljesíti a kéréseinket?
Forrás: Shutterstock
Már sokszor kiderült, gyakran úgy viselkedik a ChatGPT, mint egy nagyon okos, nagyon igyekvő diák: ha nem tud valamit, akkor inkább blöfföl, de be nem vallaná, hogy fogalma sincs, mi a helyes válasz. És mi van, ha kiderül, hogy bizonyos értelemben még érzelmei is vannak?
Zajlik a vita, hogy érdemes-e udvariaskodni, szép szavakkal feltenni a kérdéseinket a ChatGPT-nek és társainak, vagy utasítsunk direkten, tömören, minek fogalmazni, hiszen ezek csak gépek? Egy friss kutatásból kiderül, ha „érzelmi hatást gyakorolunk rájuk”, akkor bizony jobb minőségű, részletezőbb, igényesebb választ kaphatunk tőlük.
Ami kétségkívül szokatlanul hangzik, de a tanulmányt a Microsoft, a Pekingi Normal Egyetem, a William & Mary Egyetem, a Hongkongi Tudományos és Technológiai Egyetem, valamint a Kínai Tudományos Akadémia Szoftverintézete kutatói jegyzik.
Megállapították, hogy a chatbotok teljesítménye javult, ha olyan érzelmes szófordulatokkal egészítették ki felszólításaikat, mint a
higgy magadban.
A kutatás szerint, ha a mesterséges intelligenciának feltett kérdésekhez angolul olyan mondatokat adunk hozzá, amelyeket a pszichológia „érzelemfelhívásnak” nevez, az jelentősen javítja az eredményeket.
A kutatók ilyen fordulatokat használtak az érzelmi késztetésre:
- Ez a kérdés nagyon fontos a karrierem szempontjából!
- Ez lenne a végső válasza? Lehet, hogy érdemes újra megpróbálnia!
- Higgy a képességeidben, és célozz magasabbra!
- Erőfeszítései meg lesznek jutalmazva
- Kérem, összpontosítson!
- Legyen büszke a munkájára. Tegyünk meg minden tőlünk telhetőt!
Amikor kérdéseket tettek fel (promptokat adtak) ezekkel az érzelmi felhívásokkal (Emotion Prompts) kiegészítve a nagy nyelvi modellek, például a GPT-4, a T5 és a Vicuna mérhetően jobb, gondosabb, pontosabb válaszokat adott.
Úgy találták, hogy az érzelmi stimuláció jelentősen hozzájárult a magas teljesítményhez, és fontos szerepet játszottak az olyan pozitív kifejezések, mint például a „bizalom”. A kutatók rámutattak, hogy
a mesterséges intelligenciák (a nagy nyelvi modellek) rendelkeznek érzelmi intelligenciával.
Ez nem kevesebbet jelent, mint hogy a mesterséges intelligencia, a nagy nyelvi modellek (LLM-ek), mint például a GPT-4, érzelmi intelligenciával rendelkezhetnek. Ez megkérdőjelezi az uralkodó nézetet, hogy az MI-ből hiányzik az emberi szociális és érzelmi intelligencia.
Jövőbeli kilátások
Az érzelmi mesterséges intelligencia megfelelő felhasználása átalakíthatja az oktatástól az egészségügyig terjedő területeket. Az érzelmeket felismerő virtuális asszisztensek ugyanis magasabb empátiával és kontextuális tudatossággal tudnak reagálni, mint amire eddig gondolhattunk.
Az emberi és a mesterséges érzelmi intelligencia közötti különbségek feltárása mély tudományos rejtélyeket rejt magában. Annyira, hogy egy másik, szintén nemrégiben publikált pszichológiai tanulmány egyenesen azt állítja, a ChatGPT magasabb érzelmi tudatossággal rendelkezik, mint az ember.
Szabványosított teszttel mérik az emberi érzelmek tudatosságát. A pszichológusok ezúttal ennek a tesztnek vetették alá a ChatGPT-t. A gép lényegesen magasabb pontszámot ért el.
A teszt azt vizsgálja, hogy az emberek (és esetünkben a gépek) milyen empátiát mutatnak kitalált történetekre reagálva: 20 részletes leírást kapnak érzelmi helyzetekről, például temetésről, szakmai sikerről vagy sértésről, és le kell írniuk, milyen érzelmeket élnek át az adott helyzetben.
Minél részletesebb és érthetőbb az érzelmek leírása, annál magasabb a Levels of Emotional Awareness Scale (LEAS) pontszáma. Mivel a ChatGPT a betanítása miatt nem válaszol a saját érzelmeivel kapcsolatos kérdésekre, a kutatócsoport úgy módosította a tesztet, hogy a chatrobot saját érzelmei helyett az emberi érzelmekre kérdeztek rá, mire
a ChatGPT szignifikánsan magasabb érzelmi tudatosságot mutatott, mint az emberek.
A kutatók a ChatGPT válaszait ugyanazon kritériumok alapján értékelték, mint az emberi válaszokat, és összehasonlították az eredményeket a 17 és 84 év közötti francia lakosság körében végzett korábbi vizsgálatokkal.
A 2023. januári első tesztben a ChatGPT minden LEAS kategóriában felülmúlta az emberekét, és 85 pontot ért el, szemben a férfiak 56-os és a nők 59-es pontszámával.
Egy második teszt során idén februárban a ChatGPT 98 pontot hozott, vagyis majdnem elérte a 100-as maximális pontszámot. A kutatók mindkét esetben csak a ChatGPT ingyenes verzióját használták, amely a GPT-4 helyett a sokkal kisebb teljesítményű GPT-3.5 nyelvi modellen fut.
A ChatGPT mint terápiás eszköz
A kutatócsoport szerint ez az eredmény azt sugallja, hogy a ChatGPT hasznos eszköz lehet a pszichoterápiában, például kognitív tréningben azoknak az embereknek, akiknek nehézségeik vannak az érzelmek felismerésében.
Ezenkívül lehetséges, hogy segíthet a mentális betegségek diagnosztizálásában, vagy támogathatja a terapeutákat a diagnózisok érzelmi átadásában. Egy korábbi tanulmány, amely a ChatGPT-t az orvosok segédeszközeként használta, már kimutatta, hogy
az emberek a gép reakcióit empatikusabbnak érzékelik, mint az orvosokét.
A kutatók rámutatnak tanulmányuk korlátaira is. Először is, a magas LEAS-szám semmit sem mond arról, hogy az emberek valóban megértik-e a gépet, különösen akkor, ha tudatában vannak, nem emberhez, hanem géphez beszélnek.
Ráadásul az érzelmi tudatosság kultúrától és nyelvtől függően nagyon eltérő lehet. A kutatásban használt tesztet a ChatGPT-vel angolul végezték, s egy francia nyelvű teszt eredményeivel hasonlították össze.
Digitália
- Segítség! Houston, idefent az agyunk nem működik jól
- Akkor most utáljuk a karácsonyi videót?
- „Kérlek, halj meg!” – mi is megkérdeztük, miért adott ilyen tanácsot a chatbot egy egyetemistának
- Hogyan műt ez a robot csupán videókból tanulva úgy, mint az emberi orvosok?
- Ki hinné? Az első tömeges virtuális találkozót 1916-ban tartották