Clau per emportar
- Les noves funcions d'accessibilitat inclouen subtítols en directe generats en temps real per a qualsevol vídeo o conversa.
- Si aquesta funció no està pensada per a les ulleres AR d'Apple, ens menjarem el nostre barret emoji virtual.
- Apple té un historial de prova de funcions futures de productes dins dels dispositius actuals.
Els nous subtítols en directe d'Apple afegeixen subtítols en temps real a qualsevol cosa, inclosa la persona que està davant teu.
Igual que el concepte de Google AR Glasses, anunciat aquesta setmana. Els subtítols en directe d'Apple poden agafar l'àudio entrant i transcriure-lo a l'instant. La diferència és que la versió d'Apple s'enviarà "a finals d'aquest any", cosa que probablement vol dir que serà a la versió d'iOS 16 d'aquesta tardor. Però la veritable notícia aquí és que aquesta és la punyalada més òbvia d'Apple fins ara per provar les futures funcions de les ulleres Apple a la vista.
"Com algú que té dos pares que tenen dificultats per a escoltar, això pot ser de gran ajuda", escriu el periodista centrat en Apple Dan Moren al seu blog personal Six Colors. "Tinc curiositat per veure com funciona realment la funció i com gestiona una gran trucada de FaceTime amb molts participants; Apple diu que atribuirà el diàleg a parlants específics."
Enginy de mà
Live Captions, que parlarem en un segon, dista molt de ser la primera funció d'ulleres AR que Apple ha provat. El més evident és la inclusió de càmeres LIDAR als iPhones i iPads. Aquests escàners ajuden a crear un mapa 3D precís del món exterior i permeten que l'iPhone superposi models 3D al món real que es mostra a través de la càmera.
No estic segur de poder confiar millor en la traducció en directe d'Apple que en les noves ulleres AR de Google, però crec que podem confiar que la competència ajudarà a obtenir els millors resultats.
Fins ara, aquesta tecnologia s'ha utilitzat per permetre't previsualitzar nous ordinadors Apple al teu propi escriptori, jugar a jocs AR Lego, provar mobles IKEA a la teva sala d'estar, etc. El maquinari LIDAR és tan absurdament redundant als iPhones que només hi ha d'estar perquè Apple pugui perfeccionar el maquinari i el programari per a una aplicació real de RA: Apple Glasses..
Tampoc es tracta només de RA visual. Els AirPods fa anys que afegeixen funcions de RA netes. L'últim, Spatial Audio, enganya el nostre cervell perquè pensi que els sons vénen de tot el nostre voltant i és una manera fantàstica de veure pel·lícules o escoltar paisatges sonors relaxants. És una característica fantàstica, però serà encara millor quan funcioni amb el futur producte d'ulleres esperat d'Apple. Ser capaç de col·locar sons en un espai 3D perquè coincideixin amb els objectes AR realment vendrà la il·lusió.
O què tal Live Text, la tecnologia iOS 15 que reconeix i llegeix el text de les fotos, i en directe, a través de la càmera de l'iPhone? Aquesta és una altra funció ideal per llegir rètols, menús i altres textos amb ulleres AR.
Subtítols en directe
Live Captions pren la veu d'una trucada de FaceTime, d'aplicacions de videoconferència, de vídeo en temps real, etc. El teu telèfon agafa l'àudio i el transcriu sobre la marxa, proporcionant subtítols, com es veu en aquest vídeo.
Això és fantàstic, però el que és encara millor és que res no surti mai del teu iPhone. Els subtítols, diu Apple, es generen al dispositiu en lloc d'enviar-se a un servidor. Això no només és més privat, també és molt més ràpid.
"No estic segur de poder confiar millor en la traducció en directe d'Apple que en les noves ulleres AR de Google, però crec que podem confiar que la competència ajudarà a obtenir els millors resultats", va dir a Lifewire Kristen Bolig, fundadora de SecurityNerd. per correu electrònic."Ara que la competència és pública i els problemes amb aquest tipus de tecnologia (privadesa, precisió, etc.) són ben coneguts, ambdues empreses no només estaran en una carrera per crear primer el millor producte, sinó també per crear el millor producte. resol aquests problemes."
També esperem algun tipus de traducció automàtica integrada com la que podeu obtenir ara amb l'aplicació de tercers Navi per traduir automàticament les vostres converses de FaceTime, o potser una manera de desar aquestes transcripcions durant les entrevistes per a accés més fàcil més tard.
Fa temps que gaudim de funcions d'accessibilitat excel·lents d'Apple, que ens permeten personalitzar els nostres dispositius iOS de manera gairebé absurda. Des d'ajustar la pantalla per fer que els colors i el text siguin més fàcils de veure, fins a controlar tota la interfície d'usuari amb dispositius externs, fins que el telèfon t'avisi quan algú toca el timbre o quan arriba una furgoneta de lliurament a l'exterior.
Ara, tots obtenim els avantatges de l'augment de la investigació d'Apple sobre la tecnologia de realitat augmentada. Potser no ens importa IKEA o LEGO, ni tan sols volem comprar un parell de dispositius d'ulleres AR de l'Apple, però això no vol dir que no tots puguem gaudir dels fruits d'aquesta investigació.