Web Analytics
E mërkurë, 13 Gusht, 2025
29 C
Pristina

Si një këshillë e gabuar e inteligjencës artificiale ndryshoi jetën e një burri në SHBA

Bëhu pjesë e InfoKosova në YouTube

KLIKO KËTU

Një ngjarje e pazakontë ka ndodhur në Shtetet e Bashkuara, ku një burrë 60-vjeçar përjetoi një gjendje shëndetësore të rëndë pas përdorimit të këshillave nga një chatbot. Kjo situatë ngre pyetje të rëndësishme mbi besueshmërinë e informacionit shëndetësor që ofrohet nga inteligjenca artificiale.

Një revistë mjekësore ka paralajmëruar se përdorimi i platformave si ChatGPT për këshilla shëndetësore mund të ketë pasoja të rrezikshme. Rasti i këtij burri tregon se si një këshillë e gabuar mund të çojë në zhvillimin e një gjendjeje të rrallë, e njohur si bromizëm, që është toksiciteti i bromit.

Artikulli i publikuar në Mjekësia e Brendshme përshkruan se pacienti, pas leximit të informacionit mbi efektet negative të kripës së tryezës, vendosi të ndjekë këshillat e ChatGPT për të eliminuar kloridin e natriumit nga dieta e tij. Ai filloi të merrte bromid natriumi për një periudhë tre-mujore, duke rezultuar në komplikacione shëndetësore.

Bromizmi, i njohur si sindromë e njohur mirë në fillim të shekullit të 20-të, ishte një problem shëndetësor që ndihmonte në rritjen e pranimeve psikiatrike. Ky rast tregon se si informacioni i gabuar mund të ketë pasoja të rënda për shëndetin e individëve, veçanërisht kur vjen nga burime të paautorizuara.

Autorët e studimit nga Universiteti i Uashingtonit theksojnë se ky rast ilustron rreziqet e përdorimit të inteligjencës artificiale në fushën e shëndetësisë. Ata shprehen se është e nevojshme të kuptohet se këto teknologji mund të kontribuojnë në përhapjen e dezinformatave dhe të dëmtojnë shëndetin e individëve.

Një aspekt tjetër shqetësues është se autorët e studimit nuk mundën të aksesojnë regjistrin e bisedës së pacientit me ChatGPT, duke e bërë të pamundur përcaktimin e saktë të këshillave që ai kishte marrë. Kjo nënvizon nevojën për transparencë dhe rregullim në përdorimin e inteligjencës artificiale për këshilla shëndetësore.

Kur autorët e studimit vetë kërkuan informacion nga ChatGPT mbi zëvendësimin e klorurit, ata morën një përgjigje që përfshinte gjithashtu bromidin, pa ndonjë paralajmërim shëndetësor. Kjo tregon se inteligjenca artificiale nuk ka aftësinë për të diskutuar në mënyrë kritike rezultatet dhe mund të nxisë përhapjen e informacionit të pasaktë.

Ky rast është një thirrje për të gjithë ata që përdorin inteligjencën artificiale për këshilla shëndetësore. Është e domosdoshme të konsultoheni me profesionistë të kualifikuar dhe të mos mbështeteni vetëm në burime të automatizuara për vendime të rëndësishme shëndetësore.

PROMO

Nga Rubrika