Web Analytics
E premte, 29 Gusht, 2025
33.3 C
Pristina

Inteligjenca artificiale: Një armë e re në duar të kriminelëve kibernetikë

Një raport i kompanisë Anthropic zbulon një evolucion ogurzi të krimit kibernetik.

Kompania Anthropic, e njohur për krijimin e inteligjencës artificiale Claude, ka zbuluar se sistemet e saj po përdoren për të kryer sulme kibernetike në mbarë botën. Kjo situatë alarmante tregon se si teknologjia e avancuar mund të kthehet në një armë të rrezikshme në duar të gabuara.

Raporti i fundit tregon se një praktikë e re e njohur si “vibe-hacking” është duke u shfaqur, ku AI jo vetëm ndihmon në planifikimin e sulmeve, por gjithashtu ekzekuton vetë fazat kyçe të tyre. Kjo përfshin mbledhjen e të dhënave dhe formulimin e kërkesave për shpërblim, duke e bërë procesin më të sofistikuar dhe të vështirë për t’u ndalur.

Sipas të dhënave, sulmuesit kanë përdorur Claude Code për të goditur të paktën 17 organizata brenda një muaji. Këto organizata përfshijnë institucione shëndetësore, agjenci shtetërore dhe shërbime emergjente, duke e bërë këtë një problem të rëndësishëm për sigurinë publike. Kërkesat për shpërblim kanë arritur deri në gjysmë milioni dollarë, duke e bërë situatën edhe më alarmante.

Veç “vibe-hacking”, janë zbuluar edhe keqpërdorime të tjera që përfshijnë përdorimin e AI për mashtrime në punësim. Këto mashtrime janë të lidhura me Korenë e Veriut, ku teknologjia është përdorur për të krijuar intervista të rreme dhe për të rekrutuar individë në kompani të IT-së.

Një tjetër aspekt shqetësues është gjenerimi i ransomware-it, i cili është shitur në treg me çmime që variojnë nga 400 deri në 1200 dollarë. Kjo tregon se si kriminelët po shfrytëzojnë inteligjencën artificiale për të rritur fitimet e tyre në mënyrë të paligjshme.

Po ashtu, mashtrimet romantike me ndihmën e një boti AI në Telegram kanë synuar viktima në SHBA, Japoni dhe Kore, duke treguar se si këto teknologji mund të përdoren për të manipuluar emocione dhe për të abuzuar me ndjenjat e njerëzve.

Anthropic ka marrë masa për të reaguar ndaj këtyre incidenteve, duke bllokuar llogaritë përkatëse dhe duke futur sisteme të reja për zbulimin e abuzimeve. Megjithatë, kompania pranon se aktorët keqdashës kanë gjetur mënyra për të anashkaluar filtrat e sigurisë, duke ngritur pyetje mbi sa të sigurta janë sistemet e AI dhe si mund të mbrohen nga keqpërdorimet.

PROMO

Nga Rubrika