AI pot estar posant-se al dia amb el raonament humà

Taula de continguts:

AI pot estar posant-se al dia amb el raonament humà
AI pot estar posant-se al dia amb el raonament humà
Anonim

Clau per emportar

  • Els investigadors han creat tècniques que permeten als usuaris classificar els resultats del comportament d'un model d'aprenentatge automàtic.
  • Els experts diuen que el mètode demostra que les màquines estan posant-se al dia amb les habilitats de pensament dels humans.
  • Els avenços en IA podrien accelerar el desenvolupament de la capacitat dels ordinadors per entendre el llenguatge i revolucionar la manera com la IA i els humans interactuen.
Image
Image

Una nova tècnica que mesura el poder de raonament de la intel·ligència artificial (IA) demostra que les màquines estan posant-se al dia amb la capacitat de pensar dels humans, diuen els experts.

Investigadors del MIT i IBM Research han creat un mètode que permet a un usuari classificar els resultats del comportament d'un model d'aprenentatge automàtic. La seva tècnica, anomenada Interès Compartit, incorpora mètriques que comparen fins a quin punt el pensament d'un model coincideix amb el de la gent.

"Avui, la IA és capaç d'aconseguir (i, en alguns casos, superar) el rendiment humà en tasques específiques, com ara el reconeixement d'imatges i la comprensió del llenguatge", Pieter Buteneers, director d'enginyeria en aprenentatge automàtic i IA a les comunicacions. l'empresa Sinch, va dir a Lifewire en una entrevista per correu electrònic. "Amb el processament del llenguatge natural (PNL), els sistemes d'IA poden interpretar, escriure i parlar idiomes igual que els humans, i l'IA fins i tot pot ajustar el seu dialecte i el seu to per alinear-se amb els seus companys humans."

Smarts artificials

AI sovint produeix resultats sense explicar per què aquestes decisions són correctes. I les eines que ajuden els experts a donar sentit al raonament d'un model sovint només proporcionen informació, només un exemple a la vegada. La IA normalment s'entrena utilitzant milions d'entrades de dades, cosa que dificulta que un humà avaluï les decisions suficients per identificar patrons.

En un article recent, els investigadors van dir que l'interès compartit podria ajudar un usuari a descobrir tendències en la presa de decisions d'un model. I aquestes estadístiques podrien permetre a l'usuari decidir si un model està preparat per implementar-se.

"En desenvolupar l'interès compartit, el nostre objectiu és poder ampliar aquest procés d'anàlisi perquè pugueu entendre a un nivell més global quin és el comportament del vostre model", Angie Boggust, coautora de l'article., va dir al comunicat de premsa.

Shared Interest utilitza una tècnica que mostra com un model d'aprenentatge automàtic va prendre una decisió determinada, coneguda com a mètodes de rellevància. Si el model està classificant imatges, els mètodes de rellevància destaquen àrees d'una imatge que són importants per al model quan pren la seva decisió. L'interès compartit funciona comparant els mètodes de rellevància amb les anotacions generades per humans.

Els investigadors van utilitzar l'Interès Compartit per ajudar un dermatòleg a determinar si hauria de confiar en un model d'aprenentatge automàtic dissenyat per ajudar a diagnosticar el càncer a partir de fotos de lesions cutànies. L'interès compartit va permetre al dermatòleg veure ràpidament exemples de les prediccions correctes i incorrectes del model. El dermatòleg va decidir que no podia confiar en el model perquè feia massa prediccions basades en artefactes d'imatge en lloc de lesions reals.

"El valor aquí és que amb l'interès compartit, podem veure com aquests patrons sorgeixen en el comportament del nostre model. En aproximadament mitja hora, el dermatòleg va poder decidir si confiava o no en el model i si el desplegava o no", va dir Boggust..

El raonament de la decisió d'un model és important tant per a l'investigador d'aprenentatge automàtic com per a qui pren les decisions.

Mesurar el progrés

El treball dels investigadors del MIT podria ser un pas important per al progrés de l'IA cap a la intel·ligència a nivell humà, va dir Ben Hagag, cap d'investigació de Darrow, una empresa que utilitza algorismes d'aprenentatge automàtic, que va dir a Lifewire en una entrevista per correu electrònic..

"El raonament que hi ha darrere de la decisió d'un model és important tant per a l'investigador d'aprenentatge automàtic com per a qui pren les decisions", va dir Hagag. "El primer vol entendre com de bo és el model i com es pot millorar, mentre que el segon vol desenvolupar una sensació de confiança en el model, de manera que han d'entendre per què es va predir aquest resultat."

Però Hagag va advertir que la investigació del MIT es basa en el supòsit que entenem o podem anotar la comprensió humana o el raonament humà.

"No obstant això, hi ha la possibilitat que això no sigui precís, de manera que cal més treball per entendre la presa de decisions humanes", va afegir Hagag.

Image
Image

Els avenços en IA podrien accelerar el desenvolupament de la capacitat dels ordinadors per entendre el llenguatge i revolucionar la manera com la IA i els humans interactuen, va dir Buteneers. Els chatbots poden entendre centenars d'idiomes alhora, i els assistents d'IA poden escanejar cossos de text per trobar respostes a preguntes o irregularitats.

"Alguns algorismes fins i tot poden identificar quan els missatges són fraudulents, cosa que pot ajudar tant a les empreses com als consumidors a eliminar els missatges de correu brossa", va afegir Buteneers..

Però, va dir Buteneers, la IA encara comet alguns errors que els humans mai farien. "Tot i que alguns es preocupen que la IA substituirà les feines humanes, la realitat és que sempre necessitarem persones que treballin al costat dels robots d'IA per ajudar-los a mantenir-los sota control i mantenir aquests errors a ratlla alhora que mantenim un toc humà als negocis", va afegir..

Recomanat: