Clau per emportar
- Un nou article afirma que la intel·ligència artificial pot determinar quins projectes de recerca poden necessitar més regulació que altres.
- Forma part d'un esforç creixent per descobrir quin tipus d'IA pot ser perillós.
-
Un expert diu que el veritable perill de la IA és que podria fer tontos els humans.
La intel·ligència artificial (IA) ofereix molts beneficis, però també alguns perills potencials. I ara, els investigadors han proposat un mètode per vigilar les seves creacions informatitzades.
Un equip internacional diu en un nou document que la IA pot determinar quins tipus de projectes de recerca poden necessitar més regulació que altres. Els científics van utilitzar un model que combina conceptes de biologia i matemàtiques i forma part d'un esforç creixent per descobrir quin tipus d'IA pot ser perillós.
"Per descomptat, tot i que l'ús perillós de la 'ciència ficció' de la IA pot sorgir si ho decidim […], el que fa que la IA sigui perillosa no és la pròpia IA, sinó [com la fem servir]", Thierry Rayna., la càtedra de Technology for Change, a l'École Polytechnique de França, va dir a Lifewire en una entrevista per correu electrònic. "La implementació de la IA pot millorar les competències (per exemple, reforça la rellevància de les habilitats i coneixements humans/treballadors) o la destrucció de competències, és a dir, la IA fa que les habilitats i els coneixements existents siguin menys útils o obsolets."
Conservar les pestanyes
Els autors de l'article recent van escriure en una publicació que van crear un model per simular hipotètiques competicions d'IA. Van executar la simulació centenars de vegades per intentar predir com podrien funcionar les curses d'IA del món real.
"La variable que vam trobar que era especialment important va ser la "durada" de la cursa: el temps que les nostres carreres simulades van trigar a assolir el seu objectiu (un producte d'IA funcional", van escriure els científics. "Quan les curses d'IA van assolir el seu objectiu ràpidament, vam descobrir que sempre guanyaven els competidors que havíem codificat per passar sempre per alt les precaucions de seguretat."
Per contra, els investigadors van trobar que els projectes d'IA a llarg termini no eren tan perillosos perquè els guanyadors no sempre eren els que passaven per alt la seguretat. "Tenint en compte aquestes troballes, serà important que els reguladors estableixin quant de temps poden durar les diferents curses d'IA, aplicant diferents regulacions en funció dels seus terminis previstos", van escriure. "Els nostres descobriments suggereixen que una regla per a totes les curses d'IA, des dels sprints fins a les maratons, conduirà a uns resultats que estan lluny de ser ideals."
David Zhao, el director general de Coda Strategy, una empresa que consulta sobre IA, va dir en una entrevista per correu electrònic a Lifewire que identificar la IA perillosa pot ser difícil. Els reptes radiquen en el fet que els enfocaments moderns de la IA adopten un enfocament d'aprenentatge profund.
"Sabem que l'aprenentatge profund produeix millors resultats en nombrosos casos d'ús, com ara la detecció d'imatges o el reconeixement de veu", va dir Zhao. "No obstant això, és impossible que els humans entenguin com funciona un algorisme d'aprenentatge profund i com produeix la seva sortida. Per tant, és difícil saber si una IA que està produint bons resultats és perillosa perquè és impossible que els humans entenguin què està passant."
El programari pot ser "perillós" quan s'utilitza en sistemes crítics, que tenen vulnerabilitats que poden ser explotades per mals actors o produir resultats incorrectes, va dir Matt Shea, director d'estratègia de la firma d'IA MixMode, per correu electrònic. Va afegir que la IA no segura també podria provocar una classificació incorrecta dels resultats, pèrdua de dades, impacte econòmic o danys físics.
"Amb el programari tradicional, els desenvolupadors codifiquen algorismes que una persona pot examinar per esbrinar com connectar una vulnerabilitat o solucionar un error mirant el codi font", va dir Shea."Amb la IA, però, una part important de la lògica es crea a partir de les mateixes dades, codificades en estructures de dades com les xarxes neuronals i similars. Això dóna lloc a sistemes que són "caixes negres" que no es poden examinar per trobar i solucionar vulnerabilitats. com el programari normal."
Perills per davant?
Si bé la intel·ligència artificial s'ha representat a pel·lícules com The Terminator com una força del mal que té la intenció de destruir la humanitat, els perills reals poden ser més prosaics, diuen els experts. Rayna, per exemple, suggereix que la IA podria fer-nos més tontos.
"Pot privar els humans d'entrenar el seu cervell i desenvolupar experiència", va dir. “Com pots convertir-te en un expert en capital risc si no passes la major part del teu temps llegint aplicacions de startups? Pitjor, la IA és notòriament una "caixa negra" i poc explicable. No saber per què es va prendre una decisió d'IA en particular significa que hi haurà molt poc per aprendre, de la mateixa manera que no pots convertir-te en un corredor expert conduint per l'estadi amb un Segway.”
És difícil saber si una IA que està produint bons resultats és perillosa, perquè és impossible que els humans entenguin què està passant.
Potser l'amenaça més immediata de la IA és la possibilitat que pugui donar resultats esbiaixats, va dir Lyle Solomon, un advocat que escriu sobre les implicacions legals de la IA, en una entrevista per correu electrònic.
"La IA pot ajudar a aprofundir les divisions socials. La IA es construeix bàsicament a partir de dades recollides d'éssers humans", va afegir Solomon. "[Però] malgrat les grans dades, conté subconjunts mínims i no inclouria el que tothom pensa. Per tant, les dades recollides a partir de comentaris, missatges públics, ressenyes, etc., amb biaixos inherents faran que la IA amplifiqui la discriminació i l'odi."