Per què els experts diuen que hauríem de controlar la IA, ara

Taula de continguts:

Per què els experts diuen que hauríem de controlar la IA, ara
Per què els experts diuen que hauríem de controlar la IA, ara
Anonim

Clau per emportar

  • La nova investigació suggereix que potser no hi ha cap manera de controlar la intel·ligència artificial súper intel·ligent.
  • Un article diari argumenta que controlar la IA requeriria una tecnologia molt més avançada de la que tenim actualment.
  • Alguns experts diuen que la intel·ligència artificial realment intel·ligent pot arribar abans del que pensem.
Image
Image

Si els humans desenvolupen alguna vegada una intel·ligència artificial súper intel·ligent, potser no hi haurà manera de controlar-la, diuen els científics.

La AI fa temps que s'ha promocionat com una cura per a tots els problemes de la humanitat o com un apocalipsi a l'estil Terminator. Fins ara, però, la IA no s'ha acostat ni tan sols a la intel·ligència a nivell humà. Però mantenir la corretja de la IA avançada podria ser un problema massa complex per als humans si mai es desenvolupa, segons un article recent publicat al Journal of Artificial Intelligence Research.

"Una màquina super intel·ligent que controla el món sona a ciència ficció", va dir Manuel Cebrian, un dels coautors del document, en un comunicat de premsa.

"Però ja hi ha màquines que realitzen determinades tasques importants de manera independent sense que els programadors entenguin completament com ho van aprendre. Per tant, sorgeix la pregunta de si això podria arribar a ser incontrolable i perillós per a la humanitat en algun moment."

Properament a un súper ordinador a prop teu

El document de la revista argumenta que controlar la IA requeriria una tecnologia molt més avançada de la que tenim actualment.

En el seu estudi, l'equip va concebre un algorisme de contenció teòric que garanteix que una IA superintel·ligent no pugui fer mal a les persones sota cap circumstància, simulant primer el comportament de la IA i aturant-la si es considera perjudicial. Però els autors van trobar que aquest algorisme no es pot construir.

"Si desglosseu el problema en regles bàsiques de la informàtica teòrica, resulta que un algorisme que ordenaria a una IA que no destruís el món podria aturar les seves pròpies operacions sense voler". Iyad Rahwan, director del Centre d'Humans i Màquines de l'Institut Max Planck per al Desenvolupament Humà d'Alemanya, va dir en el comunicat de premsa.

"Si això passés, no sabríeu si l'algoritme de contenció encara està analitzant l'amenaça o si ha deixat de contenir la IA nociva. De fet, això fa que l'algoritme de contenció no es pugui utilitzar."

Image
Image

La intel·ligència artificial veritablement intel·ligent pot arribar abans del que pensem, argumenta Michalis Vazirgiannis, professor d'informàtica a l'École Polytechnique de França. "La IA és un artefacte humà, però s'està convertint ràpidament en una entitat autònoma", va dir en un correu electrònic a Lifewire.

"El punt crític serà si/quan es produeixi la singularitat (és a dir, quan els agents d'IA tindran consciència com a entitat) i, per tant, reclamaran independència, autocontrol i eventual domini."

La singularitat s'acosta

Vazirgiannis no és l'únic a predir l'arribada imminent de la super IA. Als veritables creients en l'amenaça de la IA els agrada parlar de la "singularitat", que Vazirgiannis explica que és el punt que la IA substituirà la intel·ligència humana i "que els algorismes d'IA potencialment adonaran la seva existència i començaran a comportar-se de manera egoista i cooperativa"..

Segons Ray Kurzweil, director d'enginyeria de Google, la singularitat arribarà abans de mitjans del segle XXI. "El 2029 és la data constant que he pronosticat per a quan una IA passarà una prova de Turing vàlida i, per tant, aconseguirà nivells d'intel·ligència humana", va dir Kurzweil a Futurism.

Si no podem netejar casa nostra, quin codi hem de demanar a l'IA que segueixi?

"He fixat la data de 2045 per a la "Singularitat", que és quan multiplicarem la nostra intel·ligència efectiva per mil milions en fusionar-nos amb la intel·ligència que hem creat."

Però no tots els experts en IA pensen que les màquines intel·ligents són una amenaça. És més probable que la IA que està en desenvolupament sigui útil per al desenvolupament de fàrmacs i no mostra cap intel·ligència real, va dir el consultor d'IA Emmanuel Maggiori en una entrevista per correu electrònic. "Hi ha un gran bombo al voltant de la IA, que fa que soni com si fos realment revolucionària", va afegir. "Els sistemes d'IA actuals no són tan precisos com s'anuncien i cometen errors que un ésser humà mai faria."

Preneu el control de la IA, ara

Regular la IA perquè no s'escapi del nostre control pot ser difícil, diu Vazirgiannis. Les empreses, més que els governs, controlen els recursos que alimenten la IA. "Fins i tot els algorismes, en si mateixos, solen produir-se i desplegar-se als laboratoris d'investigació d'aquestes entitats grans i poderoses, generalment multinacionals", va dir.

"És evident, per tant, que els governs dels estats tenen cada cop menys control sobre els recursos necessaris per controlar la IA."

Alguns experts diuen que per controlar la IA superintel·ligent, els humans hauran de gestionar els recursos informàtics i l'energia elèctrica. "Les pel·lícules de ciència ficció com The Matrix fan profecies sobre un futur distòpic on la intel·ligència artificial utilitza els humans com a fonts de bioenergia", va dir Vazirgiannis..

"Tot i que les impossibles remotes, la humanitat hauria d'assegurar-se que hi hagi un control suficient sobre els recursos informàtics (és a dir, clústers d'ordinadors, GPU, superordinadors, xarxes/comunicacions) i, per descomptat, les centrals elèctriques que proporcionen electricitat que és absolutament perjudicial per a la funció de la IA."

Image
Image

El problema de controlar la IA és que els investigadors no sempre entenen com prenen les seves decisions aquests sistemes, va dir Michael Berthold, cofundador i director general de la firma de programari de ciència de dades KNIME, en una entrevista per correu electrònic. "Si no fem això, com ho podem 'controlar'?"

Va afegir: "No entenem quan es pren una decisió totalment diferent basada, per a nos altres, en aportacions irrellevants".

L'única manera de controlar el risc d'utilitzar IA és assegurar-se que només s'utilitza quan aquest risc és manejable, va dir Berthold. "D'una altra manera, dos exemples extrems: no posis la IA a càrrec de la teva central nuclear on un petit error pot tenir efectes secundaris catastròfics", va afegir.

"D' altra banda, la intel·ligència artificial prediu si la temperatura de l'habitació s'ha d'ajustar una mica amunt o avall pot valdre la pena el petit risc en benefici de la comoditat de la vida."

Si no podem controlar la intel·ligència artificial, millor que li ensenyem maneres, va dir l'antic enginyer informàtic de la NASA Peter Scott en una entrevista per correu electrònic. "En última instància, no podem garantir la controlabilitat de la IA més que no podem garantir la dels nostres fills", va dir.

"Els criem bé i esperem el millor; fins ara, no han destruït el món. Per criar-los bé, necessitem una millor comprensió de l'ètica; si no podem netejar la nostra pròpia casa, què? Se suposa que hem de demanar a l'IA que segueixi el codi?"

Però no es perd tota esperança per a la raça humana, diu l'investigador d'IA Yonatan Wexler, vicepresident executiu d'R+D d'OrCam. "Tot i que els avenços són realment impressionants, la meva creença personal és que la intel·ligència humana no s'ha de subestimar", va dir en una entrevista per correu electrònic. "Nos altres, com a espècie, hem creat coses força sorprenents, inclosa la pròpia IA."

La recerca d'una IA cada cop més intel·ligent continua. Però potser seria millor considerar com controlem les nostres creacions abans que sigui massa tard.

Recomanat: