Artistët mund të kenë së shpejti një armë të re që ndihmon për të mbrojtur punën e tyre nga shndërrimi i ushqimit të mësimit të makinerive. I quajtur Nightshade, mjeti bën ndryshime të vogla në pikselat në një vepër arti dixhitale për ta “helmuar” atë në mënyrë efektive, duke e bërë imazhin të padobishëm për qëllimet e trajnimit të AI.
MIT Technology Review raporton se një ekip i udhëhequr nga profesori i Universitetit të Çikagos Ben Zhao paraqiti Nightshade për rishikim nga kolegët në konferencën e sigurisë kompjuterike USENIX. Softueri funksionon duke bërë modifikime të vogla në një imazh, i cili, megjithëse i padukshëm për syrin e njeriut, bën që algoritmet e AI t’i identifikojnë plotësisht ato.
Për shembull, një artist mund të pikturojë një foto të një mace që mund të identifikohet qartë si një mace nga çdo njeri ose AI që e ekzaminon atë. Megjithatë, pas aplikimit të Nightshade, njerëzit do të shohin ende të njëjtin imazh ndërsa AI do të besojë gabimisht se është një qen.
Vërshoni inteligjencën artificiale me mjaft material të keq trajnimi si ky, dhe së shpejti një kërkesë për një imazh të një mace do të bëjë që ajo të gjenerojë një qen në vend të kësaj.
OpenAI po punon në një mjet për të zbuluar imazhet e krijuara nga DALL-E 3
Natyrisht, vetëm një imazh i helmuar nuk ka gjasa të ketë një efekt të rëndësishëm në algoritmin e gjeneratorit të imazhit të AI. Të dhënat e tij të trajnimit do të duhet të njollosen nga mijëra imazhe të ndryshuara përpara se të shihet një ndikim i vërtetë.
Sidoqoftë, gjeneruesit e imazheve të AI-së janë të njohur që mbledhin pa dallim mijëra mostra të reja nga interneti në mënyrë që të përmirësojnë algoritmin e tyre. Nëse mjaft artistë ngarkojnë imazhet e tyre duke aplikuar Nightshade, kjo përfundimisht mund t’i bëjë të papërdorshme mjete të tilla të AI.
Do të ishte gjithashtu tepër e vështirë për kompanitë e AI të rregullonin problemin, pasi çdo imazh i helmuar duhet të identifikohet individualisht dhe të hiqet nga grupi i tyre i trajnimit. Kjo mund të krijojë një nxitje të fuqishme për kompani të tilla që të mendojnë dy herë përpara se të tërhiqnin një rrjetë trake nëpër internet dhe të përdorin punën e artistëve pa pëlqimin e tyre të qartë.
Ky nuk është mjeti i parë që pengon AI-n që ekipi i Zhao-s ka krijuar. Grupi lëshoi më parë Glaze, një mjet që maskon stilin personal të një artisti në një mënyrë të ngjashme. Nightshade përfundimisht do të integrohet në Glaze, si dhe do të bëhet me burim të hapur në mënyrë që të lejojë të tjerët të ndërtojnë punën e tyre duke mbrojtur artistët.
Temat
Inteligjence artificiale