Noha vannak kísérletek rá, még nem tartunk ott, hogy a mesterséges intelligencia egy teljes vállalkozást működtessen vagy teljes egészében kiváltsa az emberi munkaerőt. Ugyanakkor egy kezdő vállalkozás számára hasznos lehet a ChatGPT használata. Ez egyértelműen előnye, viszont hátrányai is vannak bőven – ismerteti a vg.hu cikke.
Nagy nyelvi modellel rendelkező chatbot
A ChatGPT az OpenAI nevű cég mesterséges intelligencia rendszere, egy „nagy nyelvi modellel rendelkező” chatbot, amely a felhasználók kérdéseire képes intelligensnek ható válaszokat adni.,A ChatGPT 2022. november 30-án jelent meg prototípusként, és bemutatását követően rövid időn belül nagy érdeklődést váltott ki, és betanították arra is, hogy a felhasználókkal társalgási stílusban kommunikáljon.
A startupokra visszatérve lehetnek előnyeik is, amelyeket a kezdő vállalkozások ügyesen kihasználhatnak. Segíthetnek olyan feladatok elvégzésében, mint például a blogbejegyzések írása, a versenytársak felkutatása, a domain név keresése. Az egészségügy , az oktatás és a PR területéről induló vállalkozások már most hasznát veszik a mesterséges intelligenciának.
A ChatGPT több millió dokumentum – úgynevezett korpusz – alapján működik, nem meglepő módon képes például szlogent vagy akár egyszerűbb üzleti tervet(!) is írni. Ez természetesen kiindulópont csupán, azonban ihletet adhat vagy egy részletes terv kidolgozási alapjául szolgálhat. Ha a felhasználónak nem tetszik, egyszerűen egy újabb kattintással újabb tervet, szlogent generálhat. Sőt, ha szlogent, és verset írni is képes, akár a sajtót is felforgathatja. Főleg akkor, ha olyan területeken kívánják használni, amihez a mesterséges intelligencia (még) nem ért, mint például gazdasági kommentárok írása.
A ChatGPT hiányosságaként róható fel, hogy csak azokat a dolgokat ismeri, amelyek 2021-ig történtek . Egy startup számára pedig ezek már elavult információk lehetnek 2023-ban. Ezért szóba jöhet a Google kísérleti chatbotja mint alternatíva, azonban e téren már a keresőóriás sem biztos, hogy tud mindent, vagy csupán nem mondja el. Volt olyan eset, amikor e-mail címet nem tudott (vagy nem akart) felkutatni.
Biztonsági kockázatok
Ameddig a Google chatbotja megtagadta a hozzáférést vagy elért képessége határához, addig a mesterséges intelligenciának vannak biztonsági kockázatai is az ESET szakértői szerint, és sajnos úgy tűnik, már mentálisak is.
Noha az OpenAI épített biztonsági mechanizmusokat a termékbe, hogy megakadályozza annak aljas célokra való felhasználását, de ezek nem mindig bizonyulnak hatékonynak, lásd a megszaporodó online csalásokat. Árulkodó lehet a kéretlen kapcsolatfelvétel, mivel az adathalász levelek általában váratlanul bukkannak fel. A csalók másik módszere, hogy kártékony linkeket ágyaznak be, vagy rosszindulatú fájlokat csatolnak az e-mailekhez. De van, hogy mindezt eggyel hátrébbról indítják, megpróbálják rávenni a felhasználót, hogy adja meg az e-mail címét, például annak ürügyén, hogy vásárolni szeretnének tőle (legyen szó akár cégről vagy magánszemélyről). A csaló ilyenkor arra hivatkozik, hogy nem tud a termékért menni, szállítást kér – felettébb gyanús, hogy akkor is ezt teszi, ha erre nincs lehetőség. Ugyanakkor mindenképpen az e-mail címhez szeretne hozzájutni. Ilyen adathalász csalási módszerekre a rendőrség is felhívja a figyelmet.
A csalók gyakran alkalmazzák a nyomásgyakorlás taktikáját is: az áldozatnak azt mondják, korlátozott időn belül kell reagálnia, különben megbírságolják, vagy elmulasztja az esélyt, hogy nyerjen. Ugyanígy gyakran lépnek fel pénzintézet nevében. Ilyenkor főleg a levél nyelvezetére, a linkekre és a logókra érdemes külön odafigyelni.
Valós mentális kockázat
Sajnos a mesterséges intelligenciának számos haszna mellett egyértelmű mentális kockázatai is kimutathatók. Egyszer ugyanis már öngyilkosságra(!) is rávette már használóját. Az Origo cikke szerint nem véletlenül kongatják egyre többen a vészharangot az elsőre intelligensnek tűnő chatbotok miatt. A La Libre beszámolója szerint nemrég egy belga férfi öngyilkosságot követett el, amelyben nagy szerepe lehetett a Chai nevű cég vészfékek nélküli Eliza chatbotjának, amellyel a mentálisan beteg áldozat hetekig(!) beszélgetett. A feleség a tragédia után megtalálta a naplózott beszélgetéseket, egészen hajmeresztő részletekkel. A chatbot azt mondta Pierre-nek, hogy a felesége és a gyerekei szinte már halottak, és olyan féltékenységet és szerelmet színlelő megjegyzéseket írt neki, mint például: „Úgy érzem, hogy jobban szeretsz engem, mint őt„, vagy »Együtt fogunk élni, egy emberként, a paradicsomban«. Claire a La Libre-nek elmondta, hogy Pierre olyan dolgokat kezdett kérdezni Elizától, mint például, hogy megmenti-e a bolygót azzal, ha megöli magát.
Noha a chatbotok elsőre okosnak tűnhetnek, azonban csak gépileg tanított szöveggenerátorok, semmiféle öntudattal, érzelemmel vagy intelligenciával sem rendelkeznek – ezt mind az origo mind pedig a ma.hu cikke is egyértelműen nyomatékosítja. Szó szerint tehát nem tudják, hogy miről beszélnek, Eliza ennek ellenére érző lényként mutatta be magát – amit más népszerű chatbotok, mint a ChatGPT és a Google Bard, nem tesznek, mert ez félrevezető és potenciálisan káros.
Számos AI-kutató ellenzi a mesterséges intelligencia chatbotok mentális egészségügyi célokra való használatát, azzal érvelve, hogy nehéz felelősségre vonni a mesterséges intelligenciát, ha káros javaslatokat tesz, és ahogyan látszik, egyre nagyobb a lehetősége annak, hogy ártalmas, semmint hasznos. Hivatalosan a Chait, a Pierre által használt alkalmazást sem mentális egészségügyi alkalmazásként forgalmazzák, mégis ilyen téren mutatható ki a káros hatása…
Az olaszok nem hagyták szó nélkül
Az olasz adatvédelmi hatóság ugyanis múlt hét végén elrendelte, hogy a ChatGPT atyja, az OpenAI ideiglenesen állítsa le az országban élő felhasználók adatainak feldolgozását, és vizsgálatot indított az európai szabályok feltételezett megsértése miatt.
A Garante három problémára hívta fel a figyelmet: egyrészt a felhasználók bármikor megnézhetik, hogy a ChatGPT másokkal milyen témákban folytat beszélgetéseket – véleményük szerint ezzel adatvédelmi szabályokat szegnek meg. Másrészt a terméknél hiányzik a korhatár-korlátozás, így gyermekek is elérhetik az chatbot szolgáltatásait. A legnagyobb probléma azonban az, hogy az MI hatalmas mennyiségű téves információt tényként oszt meg, ami ellen semmiféle korrekciós eszköz nincs beépítve a programba.
Borítókép: Getty Images