Dronët dhe makinat vetë-drejtuese si armë: pse duhet të kemi frikë nga hakerat
Dronët dhe makinat vetë-drejtuese si armë: pse duhet të kemi frikë nga hakerat
Anonim

Nëse inteligjenca artificiale bie në duar të gabuara, bota e civilizuar mund të zhytet në kaos.

Dronët dhe makinat vetë-drejtuese si armë: pse duhet të kemi frikë nga hakerat
Dronët dhe makinat vetë-drejtuese si armë: pse duhet të kemi frikë nga hakerat

Askush nuk do ta mohojë që inteligjenca artificiale mund ta çojë jetën tonë në një nivel tjetër. AI është në gjendje të zgjidhë shumë probleme që janë përtej fuqisë së njerëzve.

Sidoqoftë, shumë besojnë se superinteligjenca do të dëshirojë patjetër të na shkatërrojë, si SkyNet, ose do të fillojë të kryejë eksperimente mbi njerëzit, si GLADoS nga loja Portal. Ironia është se vetëm njerëzit mund ta bëjnë inteligjencën artificiale të mirë ose të keqe.

Pse inteligjenca artificiale mund të jetë një kërcënim serioz
Pse inteligjenca artificiale mund të jetë një kërcënim serioz

Studiuesit nga Universiteti Yale, Oxford, Cambridge dhe OpenAI kanë publikuar një raport mbi abuzimin e inteligjencës artificiale. Ai thotë se rreziku i vërtetë vjen nga hakerat. Me ndihmën e kodit me qëllim të keq, ata mund të prishin funksionimin e sistemeve të automatizuara nën kontrollin e AI.

Studiuesit kanë frikë se teknologjitë me qëllime të mira do të dëmtohen. Për shembull, pajisjet e mbikqyrjes mund të përdoren jo vetëm për të kapur terroristët, por edhe për të spiunuar qytetarët e zakonshëm. Studiuesit janë gjithashtu të shqetësuar për dronët komercialë që ofrojnë ushqim. Është e lehtë t'i kapësh dhe të mbjellësh diçka shpërthyese.

Një tjetër skenar për përdorimin shkatërrues të AI janë makinat vetë-drejtuese. Mjafton të ndryshoni disa rreshta kodi dhe makinat do të fillojnë të injorojnë rregullat e sigurisë.

Pse inteligjenca artificiale mund të jetë një kërcënim serioz
Pse inteligjenca artificiale mund të jetë një kërcënim serioz

Shkencëtarët besojnë se kërcënimi mund të jetë dixhital, fizik dhe politik.

  • Inteligjenca artificiale tashmë po përdoret për të studiuar dobësitë e kodeve të ndryshme të softuerit. Në të ardhmen, hakerat mund të krijojnë një bot që do të anashkalojë çdo mbrojtje.
  • Me ndihmën e AI, një person mund të automatizojë shumë procese: për shembull, të kontrollojë një tufë dronësh ose një grup makinash.
  • Me ndihmën e teknologjive të tilla si DeepFake, është e mundur të ndikohet në jetën politike të shtetit duke përhapur informacione të rreme për liderët botërorë duke përdorur robotë në internet.

Këta shembuj të frikshëm deri më tani ekzistojnë vetëm si hipotezë. Autorët e studimit nuk sugjerojnë një refuzim të plotë të teknologjisë. Në vend të kësaj, ata besojnë se qeveritë kombëtare dhe kompanitë e mëdha duhet të kujdesen për sigurinë ndërsa industria e AI është ende në fillimet e saj.

Politikëbërësit duhet të studiojnë teknologjinë dhe të punojnë me ekspertë në këtë fushë për të rregulluar në mënyrë efektive krijimin dhe përdorimin e inteligjencës artificiale.

Zhvilluesit, nga ana tjetër, duhet të vlerësojnë rrezikun që paraqet teknologjia e lartë, të parashikojnë pasojat më të këqija dhe të paralajmërojnë liderët botërorë për to. Raporti u bën thirrje zhvilluesve të AI që të bashkohen me ekspertë sigurie në fusha të tjera dhe të shohin nëse parimet që sigurojnë sigurinë e këtyre teknologjive mund të përdoren për të mbrojtur inteligjencën artificiale.

Raporti i plotë përshkruan problemin në më shumë detaje, por në fund të fundit është se AI është një mjet i fuqishëm. Të gjithë të interesuarit duhet të studiojnë teknologjinë e re dhe të sigurohen që ajo të mos përdoret për qëllime kriminale.

Recommended: