Így használhatjuk munkavállalóként biztonságosan a ChatGPT-t
Mivel a mesterséges intelligenciát (AI) alkalmazó eszközök segítségével növelhető a produktivitás sok munkavállaló beépítette ezen eszközök alkalmazását a mindennapi munkafolyamatokba. Az ESET kiberbiztonsági kutatói szerint azonban mielőtt megpróbáljuk kihasználni az innovatív AI eszközök előnyeit, meg kell tanulnunk biztonságosan, adataink veszélyeztetése nélkül igénybe venni azokat.
A mesterséges intelligenciát alkalmazó eszközök elősegíthetik az ötletek kidolgozását, szövegek és tartalmak összefoglalását, átfogalmazását, vagy akár egy üzleti stratégia alapjainak megalkotását, de használatukkal például hibákat is könnyebben találhatunk meg egy programkódban. Az AI használata során viszont nem szabad megfeledkeznünk arról, hogy az eszközökbe bevitt adatok felett többé nem lesz hatalmunk, miután megnyomjuk a küldés gombot - hívja fel a figyelmet a portálunkhoz eljuttatott sajtóközlemény.
Az ESET kutatói arra hívják fel a figyelmet, hogy a nagy nyelvi modellek (LLM), például a ChatGPT használatakor aggodalomra ad okot, hogy érzékeny adatokat osztunk meg nemzetközi nagyvállalatokkal. Ezek a rendszerek online szövegek felhasználásával hatékonyan képesek értelmezni és megválaszolni a felhasználók kérdéseit. Azonban minden alkalommal, amikor kapcsolatba lépünk egy chatbottal és információt kérünk, fennáll a veszély, hogy érzékeny adatokat osztunk meg magunkról vagy a vállalatunkról.
Az ESET szakértői összegyűjtötték a leggyakrabban előforduló problémákat, és elmondják, hogyan kerülhetőek el a kockázatok.
1.Az ügyféladatok felhasználása és megosztása
Az első gyakori hiba, amit a munkavállalók elkövetnek az LLM-ek használata során, hogy akaratlanul érzékeny információkat osztanak meg a vállalati ügyfelekről. Hogyan történik mindez? Képzeljük el például, hogy egy orvos beírja a betege nevét, orvosi feljegyzéseit a chatbot rendszerébe, és megkéri az eszközt, hogy állítson össze egy levelet a páciens biztosítótársaságának. Vagy a marketingesek feltöltik a CRM-rendszerükből az ügyféladatokat, hogy az eszköz célzott hírleveleket állítson össze.
A munkavállalóknak érdemes minden alkalommal a lehető legnagyobb mértékben anonimizálni a lekérdezéseket, mielőtt beírják azokat a chatbotokba. Az ügyféladatok védelme érdekében ellenőrizni és törölni kell minden érzékeny információt, például nevet, címet, számlaszámot a bevitt szövegekből. A lehető legjobb, ha eleve elkerüljük a személyes adatok használatát, és inkább általános kérdéseket teszünk fel.
2.Bizalmas dokumentumok feltöltése chatbotokba
A chatbotok hasznos megoldást jelenthetnek nagy mennyiségű adat gyors összegzésére, vázlatok, prezentációk vagy jelentések létrehozására. Ugyanakkor a dokumentumok feltöltése az olyan rendszerekbe, mint a ChatGPT, veszélyeztetheti a bennük tárolt vállalati vagy ügyféladatokat. Bár csábító lehet egyszerűen átmásolni dokumentumokat, és megkérni az eszközt, hogy készítsen összefoglalókat vagy ajánlásokat a prezentációs diákhoz, adatbiztonság szempontjából ez egy kockázatos módszer.
Mindez vonatkozik a fontos anyagokra, például a fejlesztési stratégiákra, de a kevésbé lényeges dokumentumok - például egy megbeszélés feljegyzései - is elvezethetnek ahhoz, hogy az alkalmazottak felfedik a vállalatuk féltve őrzött tudásanyagát.
A kockázat mérséklése érdekében a vállalatoknak érdemes szigorú szabályokat hoznia a bizalmas dokumentumok kezelésére, és korlátozni a hozzáférést az ilyen iratokhoz. Az alkalmazottaknak előbb manuálisan át kell nézniük a dokumentumokat, mielőtt összefoglalót vagy segítséget kérnek a chatbotoktól. Ezzel biztosíthatjuk, hogy az érzékeny információkat, például neveket, kapcsolattartási adatokat, árbevételi adatokat töröljük vagy megfelelő módon anonimmá tegyük a felhasznált iratokban.
3. A vállalat adatainak felfedése a kérések során
Képzeljük el, hogy a hatékonyság érdekében egy vállalat megpróbálja fejleszteni a cég egyes gyakorlatait és munkafolyamatait. Ezért segítséget kér a ChatGPT-től az időmenedzsment vagy a feladatok strukturálása terén, amely során értékes know-how-t és egyéb adatokat ír be a promptba, hogy segítse a chatbotot a megoldás kidolgozásában.
Ahogy az érzékeny dokumentumok vagy ügyféladatok chatbotokba történő bevitele, úgy az érzékeny vállalati adatoknak a promptba történő beírása is gyakori, de potenciálisan kártékony gyakorlat, amely jogosulatlan hozzáféréshez vagy bizalmas információk kiszivárgásához vezethet.
E probléma megoldása érdekében alapvető gyakorlatnak kell lennie a prompt anonimizálásnak. Ez azt jelenti, hogy soha nem adhatók meg nevek, címek, pénzügyi adatok vagy más személyes adatok a chatbot kérésekben. Ha pedig egy vállalat szeretné elősegíteni, hogy az alkalmazottak biztonságosan használják az olyan eszközöket, mint a ChatGPT, érdemes sablonként szabványosított kéréseket megfogalmazni, amely szükség esetén minden munkavállalónak rendelkezésére áll, például: “Képzelje el, hogy xy pozíciót tölti be az xy vállalatnál. Készítsen egy jobb heti munkafolyamatot [egy bizonyos pozíció] számára, amely főként a [feladatra] összpontosít”.
A mesterséges intelligenciát alkalmazó eszközök nem csupán a jövő munkavégzésének eszközei, már most is a mindennapok részei. Mivel a mesterséges intelligencia és különösen a gépi tanulás területén a fejlődés folyamatos, a vállalatoknak óhatatlanul követniük kell a trendeket, és alkalmazkodniuk kell hozzájuk. Ezért az ESET szakértői szerint az adatbiztonsági szakértőtől az informatikai generalista pozícióig érdemes meggyőződni arról, hogy minden kolléga tudja, hogyan kell biztonságosan használni ezeket a technológiákat anélkül, hogy az adatok kiszivárgását kockáztatnák.
fotó: freepik
- 2026.03.18Six Sigma Green Belt képzés A KÉPZÉS CÉLJA: A tréning résztvevői megismerik a TQM-ben, mint menedzsmentrendszerben rejlő lehetőségeket. A tréning résztvevői gyakorlati jártasságra tesznek szert a 6 Sigma módszertan alkalmazásában, és képesek lesznek önállóan 6 Sigma projekteket vezetni a vállalatuknál.
Részletek
Jegyek
- 2026.03.26recruiTECH x HRTECH konferencia A recruiTECH x HRTECH konferencia HR vezetőknek, toborzóknak, toborzási vezetőknek, employer branding és L&D szakembereknek szól, akik a munkaerőpiaci kihívásokra már technológia-alapú, jövőálló megoldásokat keresnek, és hatékonyabb HR működésben gondolkodnak.
Részletek
Jegyek
- 2026.04.23BGE Állásbörze SPÓROLJ IDŐT ÉS ENERGIÁT! Érd el a BGE összes karának hallgatóit egyetlen nap alatt!
Részletek
Jegyek
- 2026.05.08Benchmarking képzés A képzés során a résztvevők megismerik a benchmarking alkalmazásában rejlő lehetőségeket és konkrét gyakorlati példákon és feladatokon keresztül sajátíthatják el a benchmarking alkalmazásához szükséges legfontosabb ismereteket és készségeket, amiket azután a saját szervezetüknél is képesek lesznek alkalmazni.
Részletek
Jegyek
Egy friss kutatás szerint a generatív AI nem csökkenti a munkaterhelést: feladatbővülést, folyamatos multitaskingot és elmosódó munkaidő-határokat... Teljes cikk
A munkakörök gyors átalakulása miatt ma már egyre több munkavállalót érint közvetlenül az automatizáció és a mesterséges intelligencia... Teljes cikk
A Boston Consulting Group (BCG) legfrissebb elemzése szerint 2035-re legalább 700 ezer, de akár 3 millió teljesen önvezető robotaxi is futhat majd a... Teljes cikk
- 5+1 HR trend: mihez csatlakoznak és mit hagynak ott a munkavállalók 2026-ban? 2 hete
- 5 tipp a versenyben maradásért - így kell "AI-biztossá" tenni az állásunk 2 hete
- Felmérés: 2026 lehet a fordulópont az AI szempontjából? 2 hete
- Felmérés: a régióban a vezetők többsége potenciális kockázatnak tartja az AI-t 3 hete
- Pályaválasztás az AI korában: így válassz egyetemet 2026-ban 4 hete
- Miért az AI-hoz fordulsz a főnök helyett? Készséghiány és bizalmatlanság az AI korában 1 hónapja
- Kötelező AI-használat? A nagyvállalatok most jöttek rá, miért nem ez a megoldás 1 hónapja
- AI a HR-ben: miért nem bíznak a szakemberek a mesterséges intelligenciában? 1 hónapja
- Újabb cég rúg ki több száz embert az AI miatt 1 hónapja
- Az AI rejtett adója – Sokat kell dolgozni a mesterséges intelligencia hibái után 1 hónapja
- Vége a taxis szakmának? Akár 3 millió robotaxi jöhet 2035-re 1 hónapja

Egy életmentő szakma egy napja: Vészhelyzet Pittsburghben