Meta nuk është vetëm. Nëse nuk e çaktivizoni, Google përdor Gmail-in tuaj për të trajnuar një AI për të përfunduar fjalitë e njerëzve të tjerë. Ai e bën këtë duke analizuar se si i përgjigjeni sugjerimeve të tij. Dhe kur zgjedhni të përdorni një funksion të ri Gmail të quajtur Help Me Write, Google përdor atë që shkruani në të për të përmirësuar gjithashtu shkrimin e tij me AI. Nuk mund të thuash jo.
Microsoft përdor bisedat tuaja me Bing për të trajnuar robotin e AI për t’iu përgjigjur më mirë pyetjeve dhe ju nuk mund ta ndaloni atë.
Gjithnjë e më shumë, kompanitë e teknologjisë po marrin bisedat, fotot dhe dokumentet tuaja për të mësuar AI-në e tyre se si të shkruajnë, pikturojnë dhe pretendojnë se janë njerëz. Ju mund të jeni mësuar që ata të shesin të dhënat tuaja ose t’i përdorin ato për t’ju synuar me reklama. Por tani ata po e përdorin atë për të krijuar teknologji të reja fitimprurëse që mund të përmbysin ekonominë – dhe ta bëjnë Big Tech edhe më të madh.
Ne nuk e kuptojmë ende rrezikun që kjo sjellje paraqet për privatësinë, reputacionin ose punën tuaj. Por nuk mund të bësh shumë për këtë.
Ndonjëherë kompanitë i trajtojnë të dhënat tuaja me kujdes. Herë të tjera, sjellja e tyre është jashtë sinkronizimit me pritshmëritë e zakonshme për atë që ndodh me informacionin tuaj, duke përfshirë gjërat që mendonit se ishin private.
Zoom aktivizoi alarmet muajin e kaluar duke pretenduar se mund të përdorte përmbajtjen private të bisedave me video për të përmirësuar produktet e tij të AI, përpara se të kthente kursin. Në fillim të kësaj vere, Google përditësoi politikën e tij të privatësisë për të thënë se mund të përdorë çdo “informacion të disponueshëm publikisht” për të trajnuar AI. (Google nuk tha pse mendon se e ka këtë të drejtë. Por thotë se kjo nuk është një politikë e re dhe thjesht donte të ishte e qartë se zbatohet për chatbot-in e saj Bard.)
Nëse jeni duke përdorur pothuajse cilindo nga produktet e reja gjeneruese të AI të Big Tech, ka të ngjarë të jeni të detyruar të pranoni të ndihmoni për ta bërë AI-n e tyre më të zgjuar, ndonjëherë duke përfshirë që njerëzit të rishikojnë atë që bëni me ta.
Humbur në marrjen e të dhënave: Shumica e njerëzve nuk kanë asnjë mënyrë për të marrë vendime të vërteta të informuara se si të dhënat e tyre përdoren për të trajnuar AI. Kjo mund të duket si një shkelje e privatësisë – ose thjesht si vjedhje.
“AI përfaqëson një hap përpara një herë në një brez”, thotë Nicholas Piachaud, drejtor në Fondacionin jofitimprurës me burim të hapur Mozilla. “Ky është një moment i përshtatshëm për t’u tërhequr dhe për të menduar: Çfarë është në rrezik këtu? A jemi të gatshëm t’u japim këtyre kompanive të mëdha të drejtën tonë për privatësi, të dhënat tona personale? Apo duhet privatësia të jetë parazgjedhja?”
Nuk është e re që kompanitë e teknologjisë të përdorin të dhënat tuaja për të trajnuar produktet e AI. Netflix përdor atë që shikoni dhe vlerësoni për të gjeneruar rekomandime. Meta përdor atë që ju pëlqen, komentoni dhe madje kalon kohë duke kërkuar për të trajnuar AI-n e saj se si të porosisë burimin tuaj të lajmeve dhe t’ju shfaqë reklama.
Megjithatë, AI gjeneruese është e ndryshme. Gara e sotme e armatimit të AI ka nevojë për shumë e shumë të dhëna. Elon Musk, shefi ekzekutiv i Tesla-s, kohët e fundit u mburr para biografit të tij se kishte akses në 160 miliardë korniza video në ditë të shkrepura nga kamerat e vendosura në makinat e njerëzve për të nxitur ambiciet e tij për AI.
“Të gjithë po sillen sikur ekziston ky fat i dukshëm i mjeteve teknologjike të ndërtuara me të dhënat e njerëzve,” thotë Ben Winters, një këshilltar i lartë në Qendrën Elektronike të Informacionit të Privatësisë (EPIC), i cili ka studiuar dëmet e AI gjeneruese. “Me rritjen e përdorimit të mjeteve të AI vjen ky nxitje e anuar për të mbledhur sa më shumë të dhëna që mundeni përpara.”
E gjithë kjo sjell disa rreziqe unike të privatësisë. Trajnimi i një AI për të mësuar gjithçka rreth botës do të thotë se përfundon gjithashtu duke mësuar gjëra intime për individët, nga detajet financiare dhe mjekësore te fotot dhe shkrimet e njerëzve.
Disa kompani teknologjike madje e pranojnë këtë në shtypin e tyre të imët. Kur regjistroheni për të përdorur të rejat e Google Workspace Labs AI të shkrimit dhe ndihmës për gjenerimin e imazheve për Gmail, Docs, Sheets dhe Slides, kompania paralajmëron: “mos përfshini informacione personale, konfidenciale ose delikate”.
Procesi aktual i trajnimit të AI mund të jetë pak i mërzitur. Kompanitë punësojnë njerëz për të rishikuar disa nga mënyrat se si ne përdorim produkte të tilla si kërkimi i ri i Google me AI i quajtur SGE. Në shtypin e tij të imët për Workspace Labs, Google paralajmëron se mund t’i mbajë të dhënat tuaja të shikuara nga rishikuesit njerëzorë për deri në katër vjet në një mënyrë që nuk lidhet drejtpërdrejt me llogarinë tuaj.
Akoma më keq për privatësinë tuaj, AI ndonjëherë nxjerr të dhëna prapa. Inteligjenca artificiale gjeneruese që është jashtëzakonisht e vështirë për t’u kontrolluar mund të rikthejë informacionin personal në përgjigje të një kërkese të re, ndonjëherë të paparashikuar.
Madje i ka ndodhur edhe një kompanie teknologjike. Punonjësit e Samsung thuhet se po përdornin ChatGPT dhe zbuluan në tre raste të ndryshme se chatbot zbuloi sekretet e kompanisë. Kompania më pas ndaloi përdorimin e chatbot-eve të AI në punë. Apple, Spotify, Verizon dhe shumë banka kanë bërë të njëjtën gjë.
Kompanitë e Big Tech më thanë se bëjnë përpjekje për të parandaluar rrjedhjet. Microsoft thotë se çidentifikon të dhënat e përdoruesit të futura në bisedën Bing. Google thotë se heq automatikisht informacionin personal të identifikueshëm nga të dhënat e trajnimit. Meta thotë se do të trajnojë AI gjeneruese që të mos zbulojë informacione private – kështu që mund të ndajë ditëlindjen e një personi të famshëm, por jo të njerëzve të zakonshëm.
Mirë, por sa efektive janë këto masa? Kjo është ndër pyetjet për të cilat kompanitë nuk japin përgjigje të drejtpërdrejta. “Ndërsa filtrat tanë janë në avantazhin e industrisë, ne po vazhdojmë t’i përmirësojmë ato,” thotë Google. Dhe sa shpesh rrjedhin ato? “Ne besojmë se është shumë i kufizuar,” thotë ai.
Është mirë të dish se AI i Google vetëm ndonjëherë nxjerr informacionin tonë. “Është vërtet e vështirë për ta të thonë, me një fytyrë të drejtë, ‘ne nuk kemi asnjë të dhënë të ndjeshme’, thotë Winters of EPIC.
Ndoshta privatësia nuk është as fjala e duhur për këtë rrëmujë. Ka të bëjë edhe me kontrollin. Kush do ta kishte imagjinuar ndonjëherë se një foto pushimi që ata postuan në 2009 do të përdorej nga një megakorporatë në vitin 2023 për të mësuar një inteligjencë artificiale të bëjë art, të largojë një fotograf nga puna ose të identifikojë fytyrën e dikujt në polici? Kur marrin informacionin tuaj për të trajnuar AI, kompanitë mund të injorojnë qëllimin tuaj origjinal në krijimin ose ndarjen e tij në radhë të parë.
Ekziston një vijë e hollë midis “bërjes së produkteve më të mira” dhe vjedhjes, dhe kompanitë e teknologjisë mendojnë se mund ta tërheqin atë.
Cilat të dhëna tona janë dhe nuk janë jashtë kufijve? Pjesa më e madhe e përgjigjes është e mbështjellë në padi, hetime dhe shpresojmë se disa ligje të reja. Por ndërkohë, Big Tech po krijon rregullat e veta.
I kërkova Google, Meta dhe Microsoft të më tregonin saktësisht se kur marrin të dhënat e përdoruesve nga produktet që janë thelbësore për jetën moderne për t’i bërë më të zgjuara produktet e tyre të reja gjeneruese të AI. Marrja e përgjigjeve të drejta ishte si të ndiqje një ketër nëpër një shtëpi argëtimi.
Ata më thanë se nuk kishin përdorur informacione jopublike të përdoruesve në modelet e tyre më të mëdha të AI pa leje. Por këto fjalë të zgjedhura me shumë kujdes lënë shumë raste kur ato, në fakt, po ndërtojnë biznese fitimprurëse të AI me jetën tonë dixhitale.
Jo të gjitha përdorimet e AI për të dhëna janë të njëjta, apo edhe problematike. Por si përdorues, praktikisht na duhet një diplomë në shkenca kompjuterike për të kuptuar se çfarë po ndodh.
Google është një shembull i shkëlqyer. Më thotë se modelet e tij “themelore” të AI – softueri që qëndron pas gjërave si Bard, chatbot-i i tij i përgjigjet – çdo gjë – vijnë kryesisht nga “të dhënat e disponueshme publikisht nga interneti”. Gmail-i ynë privat nuk ka kontribuar në këtë, thotë kompania.
Megjithatë, Google ende përdor Gmail për të trajnuar produkte të tjera të AI, si Smart Compose (që përfundon fjalitë për ju) dhe trajneri i ri krijues Help Me Write që është pjesë e Workspace Labs. Këto përdorime janë thelbësisht të ndryshme nga AI “themelore”, thotë Google, sepse po përdor të dhëna nga një produkt për të përmirësuar atë produkt. Smart Compose AI, thotë ai, anonimizon dhe grumbullon informacionin tonë dhe përmirëson AI “pa ekspozuar përmbajtjen aktuale në fjalë”. Ai thotë se AI Help Me Write mëson nga “ndërveprimet, reagimet e iniciuara nga përdoruesit dhe metrikat e përdorimit”. Si duhet ta dini se çfarë po ndodh në të vërtetë?
Ndoshta nuk ka asnjë mënyrë për të krijuar diçka si Shkrimi inteligjent pa të dhëna se si e përdorni emailin tuaj. Por kjo nuk do të thotë që Google duhet ta aktivizojë atë si parazgjedhje. Në Evropë, ku ka ligje më të rrepta të të dhënave, Smart Compose është joaktiv si parazgjedhje. As qasja në të dhënat tuaja nuk duhet të jetë një kërkesë për të përdorur produktet e saj më të fundit dhe më të mira, edhe nëse Google i quan “eksperimente”.
Meta më tha se nuk e ka trajnuar modelin e saj më të madh gjenerues të AI, të quajtur Llama 2, mbi të dhënat e përdoruesit – publike apo private. Megjithatë, për tiparet e chatbot-eve të AI dhe gjeneratorit të imazheve që kompania zbuloi në fund të shtatorit, Meta përdori “postimet e ndara publikisht nga Instagram dhe Facebook – duke përfshirë foto dhe tekst”. Kompania tha se nuk i ka trajnuar ata për postime private apo mesazhe private me miqtë, gjë që është mirë. Por a nuk duhet të kërkojë leje për të përdorur të dhëna nga postimet “publike” që me siguri përfshijnë shumë foto dhe detaje rreth familjeve dhe jetës private të njerëzve? Për ta shmangur këtë, do të duhej të kishit vendosur llogarinë tuaj private, ose të dilni nga Instagrami.
Ashtu si Google, Meta gjithashtu pretendon të drejtën për të përdorur çdo gjë që ndani kur përdorni produktet e saj të reja gjeneruese të AI – si bisedat tuaja me chatbot-in e saj – për të trajnuar AI-n e saj.
Microsoft përditësoi marrëveshjen e tij të shërbimit këtë verë me një gjuhë të gjerë në lidhje me të dhënat e përdoruesve dhe nuk më dha asnjë garanci për kufizimin e përdorimit të të dhënave tona për të trajnuar produktet e tij AI. Microsoft më thotë se nuk i përdor të dhënat tona nga Word ose programe të tjera të Microsoft 365 për të “trajnuar modelet themelore”, por kjo nuk është pyetja që po bëja.
Mbrojtësit e konsumatorëve në Mozilla nisën gjithashtu një fushatë duke i bërë thirrje Microsoft-it të pastër. “Nëse nëntë ekspertë të privatësisë nuk mund të kuptojnë se çfarë bën Microsoft me të dhënat tuaja, çfarë shanse ka një person mesatar?” thotë Mozilla.
Nuk duhet të jetë kështu. Microsoft ka shumë garanci për klientët fitimprurës të korporatave, duke përfshirë ata që bisedojnë me versionin e ndërmarrjes të Bing, për mbajtjen private të të dhënave të tyre. “Të dhënat mbeten gjithmonë brenda qiramarrësit të klientit dhe nuk përdoren kurrë për qëllime të tjera,” thotë një zëdhënës.
Ky artikull u përditësua për të përfshirë lajmet në lidhje me produktet më të reja të AI të Meta të lëshuara më 28 shtator.