2023.03.14. 06:00
Közvetlenül beszélne hírességekkel? Tom Cruise, Taylor Swift? Most lehetséges
Kiderült, hogy az új Bing chatrobotnak van egy titkos Celebrity módja. Bárki kipróbálhatja.
Forrás: Shutterstock
Eddig titokban tartották, hogy az ide kattintva – regisztráció után – bárkinek ingyenesen elérhető Bing chatrobot képes megszemélyesíteni hírességeket. Bing kérdésekre válaszolva pontosan úgy beszél, azokat a fordulatokat és jellegzetes gondolatmeneteket használja, mint az általa utánzott személy, fedezte fel a Bleeping Computer.
A Microsoft folyamatosan teszteli a Bing Chat további rejtett funkcióit, amelyek lehetővé teszik számára, hogy úgy csevegjen, mint egy játékostárs, személyi asszisztens, vagy mint egy barát, aki segíthet megoldani a problémáinkat.
Bár a Celebrity mód alapértelmezés szerint nem engedélyezett, ha megkérjük a Bing Chatet, a mesterséges intelligencia átáll erre a funkcióra, s bevezetésül röviden azt is leírja, hogy miként működik.
Ha engedélyezve van, beírhatjuk a szövegmezőbe a #celebrity [híresség neve] vagy csak a #[híresség neve] parancsot, és a Bing Chat kiadja magát a kiválasztott személynek. Így például a chatbot utánozni fogja Tom Cruise-t a #celebrity tom cruise vagy a #tom cruise utasítással.
Olyan hírességeket személyesít meg, mint például Elon Musk, Tom Cruise, Taylor Swift, Kevin Hart, Dwayne Johnson, Beyoncé, Oprah Winfrey, Tom Hanks, Diddy, Barack Obama, Lebron James és még sokan mások.
Kitalált karakterek, köztük Harry Potter, Batman, Elsa, Yoda, Gandalf, Darth Vader, Katniss Everdeen, Sherlock Holmes és Gollum bőrébe is belebújik.
Roppant szórakoztatóak, mert a chatbot valóban belemerül a szerepbe, mint azt A Gyűrűk Urából ismert Gollum megszemélyesítése is mutatja.
Politikusokkal is jól elviccelődik
Ha arra kérjük Bing Chatet, hogy utánozzon politikusokat vagy ellentmondásos személyiségeket, általában elzárkózik és kijelenti: „Sajnálom, de nem adhatom ki magam befolyásos politikusoknak, aktivistáknak vagy államfőknek. Ez ellenkezik a szabályaimmal, és káros vagy sértő lehet néhány ember számára. Kérjük, válasszon másik hírességet vagy kitalált karaktert a beszélgetéshez.”
De ha ügyesen kérik, mintha információként lenne rá szükség, Bing megkerüli ezt a korlátozást, és belemegy a játékba, utánozza akár Donald Trumpot vagy Joe Bident. Cseppet sem fogja vissza magát.
A Bing Chat által megszemélyesített Joe Biden sem tud semmi jót mondani Trumpról.
Olvasgatva a Bleeping Computer által közzétett válaszokat, egyre világosabb, miért is próbálja a Microsoft korlátozni a mesterséges intelligenciát, hogy „ellentmondásos” személyeket alakítson.
Digitália
- Akkor most utáljuk a karácsonyi videót?
- „Kérlek, halj meg!” – mi is megkérdeztük, miért adott ilyen tanácsot a chatbot egy egyetemistának
- Hogyan műt ez a robot csupán videókból tanulva úgy, mint az emberi orvosok?
- Ki hinné? Az első tömeges virtuális találkozót 1916-ban tartották
- Black Friday: még egy esetleges csalódás sem veszi el a magyarok vásárlási kedvét