E mërkurë, 2 Prill, 2025
11.9 C
Pristina

Rreziqet që lidhen me ndarjen e informacionit personal me ChatGPT

Klikoni Këtu për t'u bërë pjesë e kanalit të InfoKosova në Youtube.

Inteligjenca artificiale po transformon mënyrën se si komunikojmë, por ndarja e informacionit personal kërkon kujdes të shtuar.

Prania e ChatGPT në jetën tonë të përditshme po bëhet gjithnjë e më e dukshme. Siç mësojnë njerëzit nga chatbot-et, ashtu edhe këta të fundit përmirësojnë performancën e tyre përmes bisedave që kanë me ne. Megjithatë, me rritjen e popullaritetit të këtyre sistemet të inteligjencës artificiale, po rritet edhe shqetësimi për privatësinë dhe sigurinë e të dhënave tona personale.

Ekspertët në fushën e inteligjencës artificiale bëjnë thirrje për kujdes, pasi informacione të ndjeshme, si numri i telefonit, adresa e shtëpisë apo rezultatet e testeve mjekësore, nuk duhet të ndahen me chatbot-e. Kjo, jo vetëm për arsye privatësie, por edhe për të shmangur keqpërdorimin ose rrjedhjen e mundshme të të dhënave. Siç raporton Wall Street Journal, çdo informacion i ndarë mund të kthehet në një rrezik potencial.

Paralajmërimet e krijuesve të AI

Edhe vetë kompanitë që zhvillojnë sistemet e AI e pranojnë kërcënimin që këto mjetet përmbajnë. OpenAI, një nga liderët në zhvillimin e chatbot-eve, thekson se përdoruesit duhet të tregojnë kujdes të shtuar kur ndani informacione gjatë bisedave të tyre. Google gjithashtu ka bërë thirrje nga përdoruesit e Gemini për të qenë të kujdesshëm dhe t’i mbajnë të dhënat e tyre personale jashtë bisedave për të evituar çdo keqpërdorim të mundshëm.

Rrjedhimisht, bisedat me chatbot mund të shfrytëzohen për të trajnuar modelet e ardhshme, të cilat mund të përmbajnë informacione të ndjeshme. Këto raste, veçanërisht nëse përfshijnë çështje të sigurisë, si dhuna, mund të shkaktojnë auditime të brendshme nga vetë kompanitë zhvilluese.

Pesë kategori të dhënash që nuk duhet të ndani

Sipas rekomandimeve të ekspertëve, këto janë pesë llojet kryesore të informacionit që nuk duhet t’i ndani kurrë me ChatGPT ose një sistem tjetër të ngjashëm:

1. Informacioni personal identifikimi

ID ose numri i pasaportës, data e lindjes, adresa e shtëpisë dhe numri i telefonit janë informacione që duhet të mbahen jashtë bisedave me AI. Këto informacione janë esenciale për identifikimin dhe sigurinë tuaj, ndaj shpesh janë objekt linguistik për sulme të mundshme kibernetike.

2. Të dhënat mjekësore

Asnjëherë mos kërkoni të bëni interpretim të testeve mjekësore në ChatGPT. Edukimi dhe konsultimet mjekësore duhet të përfshijnë profesionistë të kualifikuar, sepse çdo interpretim i gabuar mund të ketë pasoja të rënda shëndetësore.

3. Informacioni financiar

Shmangni futjen e numrave të llogarive bankare ose informacioneve të tjera të ndjeshme financiare. Kur ndani të dhëna të tilla, rrezikoni të ekspozoni llogaritë tuaja ndaj vjedhjes dhe abuzimit.

4. Detajet e punës suaj

Përdoruesit që përdorin chatbot për qëllime të punës shpesh pa vetëdije ndajnë të dhëna të ndjeshme. Kjo përfshin informacionet e klientëve ose të brendshme të kompanisë. Nëse AI është e nevojshme për punën tuaj, konsideroni të përdorni platforma të sigurta dhe të autorizuara.

5. Detajet e hyrjes

Chatbot-et nuk janë ndërtuar për të funksionuar si vend për fjalëkalime, PIN ose kredenciale të tjera aksesi. Çdo informacion i tillë duhet të mbahet i sigurt dhe i mbyllur në mënyrë që të shmangni çdo rrezik të mundshëm.

Me kalimin e kohës, të dhënat personale bëhen gjithnjë e më të vlefshme, dhe kërkohet një qasje më e mençur ndaj pjesëmarrjes në biseda me inteligjencën artificiale. Ndaj, është thelbësore të jemi të vetëdijshëm për informacionet që ndajmë dhe të përdorim me kujdes mjetet që na ofrohen.

PROMO

Nga Rubrika