Podcast sobre accesibilidad, tecnología y cualquier tema que nos interese. Aprender y divertirnos es nuestro lema.
Autor: Arturo Fernández / Ricardo Abad
Contacto: info@cegatos.es
Arturo Fernández y Ricardo Abad presentan "Gafotas, Cegatos y sus aparatos. Podcast". En este espacio, exploramos las tecnologías de asistencia orientadas a la ceguera y la baja visión, sin olvidar las últimas tendencias tecnológicas que nos interesan a todos. Buscamos poner en contexto el estado actual de la accesibilidad tecnológica y conocer tanto personas fascinantes que están haciendo discretamente cosas interesantes, desde el rincón más recóndito del mundo, como a brillantes e intrépidos innovadores. Queremos compartir información práctica, sencilla y accesible para cualquier persona, no solo para quienes padecen baja visión o ceguera. Nos encantaría que nos conozcas y participes activamente en este diálogo.
Puedes encontrarnos en: podcastindex.org, Apple podcast, ivoox, spotify, youtube, skill de Alexa.
Puedes suscribirte a nuestro boletín para recibir las nuevas publicaciones a través de correo electrónico.
Si usas una aplicación para escuchar tus podcasts, puedes ańadir esta URL: https://cegatos.es/gca/feed.xml
Mostrar descripción detallada del logo de podcast
Descripción detallada del logo de podcast
La imagen muestra un diseño ilustrativo de estilo retro que representa a un hombre con gafas de sol redondas, un bigote prominente y unos auriculares grandes. Su cabello está perfectamente peinado hacia atrás, y lleva un pañuelo al cuello que refuerza la estética clásica. Los auriculares están conectados con un cable visible, enfatizando el concepto de audio o podcasting. En la parte inferior, aparece el texto: **"GAFOTAS, CEGATOS Y SUS APARATOS"**, seguido de la palabra **"PODCAST"** en un estilo de fuente moderno y audaz. El fondo es de un tono beige claro que contrasta con los detalles en azul oscuro del dibujo, logrando un diseño limpio y llamativo.
Gafotas, cegatos y sus aparatos #18
Fecha: miércoles, 23 de abril de 2025, a las 00:00:00
En este decimoctavo episodio, titulado “¿Es la IA una amenaza real para el
sistema laboral y las instituciones?”, recibimos nuevamente al experto
informático Alfonso Calvo para analizar el impacto que la Inteligencia
Artificial (IA) está teniendo y tendrá en el mercado laboral y en el
funcionamiento de las instituciones. A lo largo de la conversación se tocan
temas como la posible masiva sustitución de empleos, la necesidad de reentrenar
a los trabajadores (y a las propias IA) para garantizar la competitividad, y el
reto de adaptar la legislación y la cultura política a estos cambios tan
acelerados.
Se destaca también cómo la IA no solo afectará a trabajos considerados “mecánicos” o rutinarios, sino que, gracias a los últimos avances (especialmente en modelos de lenguaje), puede llegar a impactar seriamente a puestos de alta cualificación, como consultores, creativos o incluso investigadores científicos. Además, se reflexiona sobre la falta de reacción de las instituciones políticas para legislar y regular esta disrupción en materia laboral y social.
Por último, se profundiza en la influencia de las big tech y la IA en ámbitos como la democracia y la transparencia (caso de la votación electrónica), y se mencionan ejemplos como la “tractorización” de mediados del siglo XX para ilustrar de forma histórica cómo la tecnología desplaza o transforma sectores enteros de la población cuando no se produce una adaptación oportuna.
Temas destacados
-Transformación del empleo por la IA
La IA ya sustituye trabajos tanto repetitivos como creativos o intelectuales.
Las empresas deben adaptar estos sistemas a sus propios métodos, mientras los
trabajadores necesitan formación continua para no quedar obsoletos.
-Desempleo masivo y renta básica
Se prevé una posible subida drástica del paro, lo que reabre el debate sobre
una Renta Básica Universal financiada, por ejemplo, mediante impuestos a la IA.
-Riesgos democráticos y falta de regulación
La IA facilita la manipulación política y electoral. Aunque existen soluciones
tecnológicas, la falta de voluntad política impide una democracia más segura y
participativa.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Créditos:
Duración: 01:15:23
Descripción detallada del logo de Episodio 18. ¿Es la IA una amenaza real para el sistema laboral y las instituciones?
La imagen presenta una escena de agricultura futurista con un estilo gráfico claramente inspirado en el cómic retro, en tonos azul oscuro sobre fondo beige, como si estuviera entintada con técnicas tradicionales. Todo en la imagen transmite una atmósfera de avance tecnológico en un entorno rural. Descripción general de la escena: Nos encontramos en un campo de cultivo cuidadosamente plantado, con hileras de plantas organizadas entre hileras de árboles que, por su forma, parecen olivos. El paisaje se extiende hasta el horizonte, con suaves colinas y un cielo parcialmente nublado. Personajes y tecnología: 1. Humano con estética retro-futurista (derecha, primer plano): - Hombre con bigote perfectamente peinado y barba perfilada. - Lleva unas gafas de sol redondas de estilo vintage que reflejan el paisaje. - Viste pañuelo al cuello, camisa y chaqueta, en un estilo que mezcla lo clásico con lo moderno. - Lleva auriculares de gran tamaño, conectados posiblemente a un dispositivo de comunicación o de control. - Su actitud es relajada pero atenta, mirando hacia el horizonte mientras sostiene un perro robótico. 2. Perro robótico (primer plano, delante del hombre): - De forma realista pero mecánica: tiene un cuerpo articulado con segmentos metálicos, tornillos visibles y diseño ergonómico. - Su cabeza es redondeada y sus orejas parecen estar moldeadas de forma fija. - Tiene ojos grandes, sin pupilas, lo que le da un aire neutro y robótico. - Está sostenido con cuidado por el hombre, con una mano en su lomo, como si fuera su compañero inseparable o un ayudante de apoyo inteligente. - Su postura es serena y observadora, como si también estuviera escaneando el entorno. 3. Robots humanoides (en el campo, al fondo): - Hay al menos cinco humanoides repartidos entre las hileras de plantas. - Tienen apariencia humanoide sencilla: cuerpo blanco, articulaciones marcadas, y sin rasgos faciales. - Algunos están recolectando o inspeccionando cultivos, otros parecen en movimiento, lo que indica que están desempeñando tareas agrícolas automatizadas. 4. Dron volador (parte superior media): - Flota en el aire sobre el campo, en posición estable. - Diseño típico de dron cuadricóptero, con cámara en su parte inferior, presumiblemente haciendo análisis aéreos o inspección del terreno. 5. Vehículo robótico agrícola (parte inferior izquierda): - Tiene seis ruedas grandes con tacos profundos, ideal para moverse entre los surcos. - De forma rectangular, con una antena en la parte superior. - Probablemente autónomo, está patrullando o realizando labores como recolección, inspección del suelo o fumigación. Relación entre los elementos: El conjunto sugiere un ecosistema agrícola completamente automatizado o asistido por inteligencia artificial, donde los humanos supervisan el trabajo pero no lo ejecutan directamente. El hombre del primer plano parece representar a un operador, técnico o incluso un "pastor" de tecnologías, acompañado por su perro robótico, que podría ser una herramienta de asistencia visual, emocional o funcional. El perro en la imagen: - El perro robótico ocupa un lugar muy especial: está en el primer plano, junto al humano principal, lo que sugiere que no es simplemente una herramienta, sino un compañero simbólico o incluso un asistente personal. - Podría representar la fidelidad de la tecnología al servicio humano, con una estética amigable para generar confianza. - Su posición tranquila, mirada al frente y el gesto del hombre apoyando la mano en su lomo refuerzan una relación de cercanía, casi afectiva.
Gafotas, cegatos y sus aparatos #17
Fecha: domingo, 13 de abril de 2025, a las 00:00:00
En este decimoséptimo episodio titulado "Apple Watch y Pixel Watch: Relojes inteligentes y accesibles", contamos con Rosa Chacón y Emi Madrid, dos usuarios expertos que nos muestran cómo estos dispositivos han transformado su día a día.
Desde un recorrido sobre cómo el ser humano ha medido el tiempo a lo largo de la historia, hasta las funciones que un reloj inteligente nos ofrece hoy, más allá de simplemente dar la hora.
Rosa analiza el Pixel Watch 3 desde la experiencia de una usuaria Android, mientras Emi disecciona el Apple Watch Series 10 como usuario avanzado de iOS que practica Fitness. Hablamos de lectores de pantalla integrados (TalkBack vs. VoiceOver), respuestas auditivas, gestos con la muñeca, configuración inicial, carga, autonomía, aplicaciones disponibles y sincronización con asistentes virtuales (Google Assistant vs. Siri).
Momentos destacados:
- -Rosa nos cuenta cómo usa su reloj para gestionar WhatsApp, transporte, calendario, domótica e incluso… ¡abrir la puerta de su casa!
-Emiliano nos hace una demostración sonora con Mickey Mouse diciendo la hora en su Apple Watch. ¡Una delicia nostálgica! Y como le asiste en su ejercicio diario.
-Explicamos cómo funcionan los sensores de salud, incluyendo el electrocardiograma, la monitorización del sueño, el ritmo cardíaco y el oxígeno en sangre.
-Debatimos sobre el posible futuro de los relojes con cámara integrada y su compatibilidad con gafas inteligentes.
-Reflexión final sobre el valor real de estos dispositivos para mejorar la salud, la autonomía diaria y el estilo de vida.
-Destacamos la necesidad de un diseño universal como clave para una tecnología inclusiva y valoramos la accesibilidad de los relojes actuales: lo que funciona y lo que aún falta por mejorar.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Instalar y actualizar aplicaciones en Google Pixel Watch - Ayuda de Google Pixel Watch.
Descargar apps en el Apple Watch - Soporte técnico de Apple.
WatchChat 2: app para Chatear en el Apple Watch en la App Store.
Sitio oficial de Fitbit para monitores de actividad y smartwatches.
Créditos:
Duración: 01:42:30
Descripción detallada del logo de Episodio 17. Apple y Pixel Watch, dos relojes inteligentes y accesibles.
La imagen es una ilustración con estilo de cómic retro, en tonos crema y azul oscuro, que representa una escena urbana con un enfoque muy peculiar: el tiempo y los relojes como protagonistas omnipresentes. Personaje principal (en primer plano): - Es el personaje de nuestro logo, un hombre elegante con un aire de hipster vintage. - Lleva gafas de sol redondas, grandes, y unos auriculares de diadema conectados por cable. - Tiene un gran bigote y peinado con raya y mucho volumen, muy al estilo años 40. - Viste una chaqueta, camisa y bufanda bien ajustada al cuello, con estilo sofisticado. - En su mano izquierda sostiene un reloj de bolsillo con tapa abierta, mostrando la hora (alrededor de las 10:10). - En la muñeca lleva no uno, sino dos relojes: un reloj inteligente moderno y otro analógico clásico. - También lleva un anillo en el dedo anular de la mano izquierda, posiblemente de casado. Fondo y entorno: - La escena transcurre en una ciudad, entre altos edificios rectangulares con ventanas regulares. - Hay un reloj grande colgado en la fachada de un edificio, visible al fondo. - Toda la gente que aparece en el fondo también está consultando relojes: - Algunos miran sus relojes de pulsera. - Otros revisan relojes en sus móviles o sostienen relojes con gestos similares. - Tanto hombres como mujeres participan en esta escena de "obsesión colectiva" por la hora. - La mayoría parecen caminar apresurados o atentos al tiempo, sin relacionarse entre ellos. Elementos destacables: - En total, hay al menos *17 relojes visibles*, entre los de bolsillo, pulsera, pared y otros dispositivos. - El estilo gráfico recuerda al grabado o serigrafía de los años 50, con punteado y líneas gruesas.
Mostrar transcripción de Episodio 17. Apple y Pixel Watch, dos relojes inteligentes y accesibles.
Transcripción de Episodio 17. Apple y Pixel Watch, dos relojes inteligentes y accesibles.
y sus aparatos podcast Episodio 17 Apple y Pixel Watch, dos relojes inteligentes y accesibles ¿Qué hora tienes? Bueno, pues tendría que mirarlo, pero supongo que me lo preguntas porque el tema que vamos a tratar hoy tiene que ver con relojes, ¿no? Eso es, efectivamente, aunque no siempre ha sido así de fácil y sencillo, ¿no? Estamos acostumbrados a mirar la hora con mucha naturalidad, pero no siempre ha sido así Cuéntanos un poco de eso Pues no, pues mirando la documentación me ha sorprendido que los relojes mecánicos que conocemos solo están desde el Renacimiento Anteriormente el ser humano tuvo que guiarse de otra forma y manera para saber la hora Básicamente, pues, por el sol y la luz, por los sonidos del ambiente, cuando los pájaros se van a acostar a hacer ruido cuando el gallo, en cierta hora, pues, canta Y luego, pues, por otros sistemas que, como son las campanas, esto aquí en Occidente era muy común Realmente marcaban el ritmo de todo el día y la gente sabía así las horas Y en otras latitudes, como es África, pues los tambores, que prácticamente tenían la misma misión Aparte de informar de la hora, informaban de lo que había que hacer o lo que venía Y los gongs asiáticos, que nos resultan muy simpáticos, pero que también estaban para marcarlos Para marcar el tiempo Luego ya, claro, luego ya están los relojes, pero bueno, pues si quieres háblanos un poco, Arturo, de los relojes Es muy curioso, ¿no? Que al principio, como muy bien has dicho, pues no había relojes Luego había relojes comunitarios, ¿no? En las torres de las iglesias y torres del campanario, de algún ayuntamiento, cosas así Y lo de tener reloj así, individual, pues no era tan común Y luego, además, ya encima un poco más, pues, de la forma en que se veía la vida, ¿no? Más panota, pues las personas con alguna discapacidad visual, como puede ser más en nuestro caso Pues encima es más complicado el tema, ¿no? Curiosamente, al principio, los relojes que eran más mecánicos, quizá podía ser más sencillo Porque hubo unos relojes, ¿no? Que levantabas la tapita y podías tocar las agujas Sí, podías tocar las agujas y además era muy curioso porque la esfera estaba dividida en doce partes Entonces, a las doce, a las tres, a las seis y a las nueve, habían dos puntos Y luego, las horas restantes tenían un punto Las saetas, una era más larga y otra era más corta Saetas me refiero a las manecillas Y entonces, pues, con el tacto, con el dedo, podías saber la hora que era Hasta hace muy poco los hemos tenido estos relojes Hasta, pues, podemos decir que prácticamente finales de los años 80, mediados de los 90 Que ya vinieron los relojes digitales Pero, realmente, ahí tengo yo algo que me ha gustado mucho Que he tenido que contar, Arturo Yo perdí por esa época la vista Yo lo que tenía era un Casio, que era un reloj en aquel momento digital Porque veía Y era muy moderno y podía hacer muchas cosas con él Entonces, cuando fui a la once Lógicamente, mi Casio ya no lo podía utilizar porque no veía la esfera Y tuve que acceder a uno de estos que has comentado tú Que se levanta la pantalla y toca así Me pareció algo muy arcaico Pero, al mismo tiempo Entrañable Es decir, me gustó muchísimo la sensación Y fue uno de los primeros dispositivos Tiflotécnicos, por llamarlos de alguna forma Que, aparte de Que me hicieron asumir mi nueva situación Me vino muy bien Porque, al no ver tampoco la luz Andaba un poco desorientado Pues yo también tengo una anécdota Que uno de los primeros dispositivos también Tiflotécnicos que me pusieron Entre comillas, pues fue un reloj Pero, bueno, en mi caso fue digital De estos que dicen Además de pasivos, pasordos Que te dicen Son las 3 y 45 de la tarde Y te lo dice para todo el barrio Y además te lo dice como muy despacio Y muy alto, ¿no? Y me acuerdo que al principio yo me desesperaba mucho Porque cuando miras la hora con vista En un reloj de muñeca Pues la ves en una décima de segundo Es algo instantáneo Y esperar a que esto te diga la hora Que puede ser en dos segundos Pero era un cambio importante, ¿no? Y además, oírlo Oírlo todo el barrio Y te lo dice todo el barrio Y te lo dice todo el barrio Y te va a tardar ese tiempo en escucharlo Claro, esa cuestión era Es que es cierto Hubo ya una época que todos los relojes Los despertadores y demás Para personas ciegas Empezaron a venir con este tipo de chips Que estaban muy bien Que te permitían programar una alarma Y al mismo tiempo También te decían la hora Cuando por petición O podías también programarlos Para que en cada hora te lo dijera Pero cuando tú querías oír la hora Se enteraba todo el mundo Y esto era muy indiscreto Porque en una reunión Si la mirabas tres veces seguidas Y te lo dijera Estabas transmitiendo Que estabas muy inquieto Y que era un rollo Y que te querías ir, ¿no? Entonces, bueno Faltaba discreción Una cosa que sí que te aportaban Era que, por ejemplo Podías configurar alarmas Que con los relojes táctiles Pues era más complicado, ¿no? Pero con los digitales Pues te aportaban Alguna funcionalidad Un poco adicional, ¿no? Aunque, pues eso Luego ya poco a poco Pues esto ha ido evolucionando mucho La tecnología exponencialmente Y de repente Pues aparecieron los relojes Que te daban cualquier cosa Menos la hora Y ya tenía Un montón de cosas Un montón de sensores Y te daban un montón De información Y bueno, pues una vez más Al principio parecía Que nos quedábamos Fuera de juego, ¿no? Estos eran los relojes inteligentes Yo aquí quería hacer Una puntualización Realmente es más correcto Llamarles smart band Como les llaman, ¿no? Porque son unas bandas Que ocupan el lugar del reloj Porque lo que tú dices Menos la hora Que también la da Lo que hacen Es una brutalidad de funciones Que, bueno De ellas vamos a hablar Y, bueno Y se le llama reloj Por la posición que ocupa Porque está en la muñeca Y ahí estuvieron Históricamente los relojes Pero no porque sea El sitio donde más miremos la hora De hecho, yo miro más la hora En el móvil Que en el propio Rolgo de pulsera inteligente Sí, eso es Tienen muchísimas funciones Y, bueno Como siempre, pues no Han sido accesibles Desde el primer momento Y, de hecho Actualmente existen Muchas marcas y modelos Y no todos Ellos son accesibles, ¿no? Pues no Hay algunos que se pueden utilizar A través de la aplicación Pero te tienen que ayudar A configurar algunas cosas Sí que llegas a Sí que puedes acceder A los datos Pero, básicamente Utilizas el 30 o 40% De la funcionalidad del reloj Porque no está hecho Para personas que no ven Siendo buenos relojes De marcas, además Muy conocidas Pero no están adaptados Pero hay otras que sí Hay otras que No siendo productos específicos Para personas ciegas Sí que tienen funciones Que lo hacen Bueno Hacen un dispositivo Que se puede utilizar Perfectamente De forma Muy accesible La inmensa mayoría De las funciones Aunque eso No son productos específicos Y hoy vamos a hablar De un par de ellos, ¿no? Que nos parecen Muy interesantes Y sobre todo Vamos a nombrar La palabra mágica A ver si cala Que es diseño universal Diseño para todos No productos específicos Para personas ciegas O con cualquier otra discapacidad Sino que cualquier producto De consumo Que utiliza cualquier persona Puede ser también utilizado Por personas con algún tipo De necesidades especiales Diseño universal Diseño para todos Y en este caso Sí que estos dos relojes Que vamos a hablar Sí que los cumplen Eso es Que sea el mismo producto Para todos Y que cada persona Dependiendo de sus necesidades Pues pueda activar Unas determinadas funciones Que pueda tener el dispositivo Y que lo pueda utilizar mejor De esa forma, ¿no? Pero que el producto Sea el mismo para todos Y para eso, bueno Hoy tenemos a dos invitados Con nosotros, ¿no? Tenemos a Rosa Muy buenas ¿Cómo estás? Buenas ¿Cómo estamos? Muy buenas Doña Rosa Chacón Desde Córdoba Desde Córdoba, mañana Sí, señor Y también Emiliano Madrid Emi Madrid Desde Sevilla Hola, Emi Hola, Arturo Hola, Ricardo Hola, Rosa Y hola a toda la audiencia Muchas gracias por invitarme Y efectivamente Los relojes Sí, sí Me encanta Muchas gracias Muchas gracias a ambos Por estar hoy con nosotros En esta tertulia Como solemos decirlo Pues si queréis saber Un poco más de sus perfiles Los pondremos en las notas Del episodio Pondremos los enlaces Exactamente Y así no perdemos tiempo aquí Ahora vamos a saber Un poco más de sus relojes Eso es Pues ¿por quién empezamos? Rosa, por ejemplo Cuéntanos, ¿qué reloj tienes? Pues yo tengo El Pixel Watch 3 O sea, el último modelo Que ha sacado Google Porque yo llevo En el bolsillo un Android Y entonces, pues claro La gente Lo lógico normal Es que quien lleva iPhone Lleva un Apple Watch Y quien lleva un Android Pues lleva un Pixel Este Este relojito Tiene un diseño redondeado No es como los cuadrados De De iPhone Es la primera diferencia Que a mí me viene muy bien Porque yo tenía un problema Con los Apple Watch Yo en su momento Llevaba Apple Watch Pero es que me sobraba reloj Me faltaba muñeca Me pusiera Es que me pusiera Me quedaba horrible Porque me quedaba Y era grandísimo Para mí Este es como Bueno, este como no Este ocupa menos Los hay en distintos tamaños Pero claro Yo me lo he puesto Acorde a mi muñeca Es más gordote Si lo coges en la mano Es más gordote Pero es más chiquito Así que en diseño Y luego el diseño Igual Tiene La Donde tenían antes Los relojes Lo de la cuerda Para entendernos Esto se llama corona Pues aquí tiene corona Pero no se le da cuerda Se carga con batería Y tiene un botón lateral Que es el que sirve Entre otras cosas Para activarle el talba Sí Me hace gracia Rosa Decirle Se da cuerda A mucha gente Y sobre todo A la gente más nueva No sabrá qué es eso De dar cuerda Que es igual Cuando dice Tira de la cadena Cuando tienes que tirar De la cisterna del váter Yo supongo Que habrá gente Que mirará y dirá ¿Qué cadena? Descolgar el teléfono Y cuelga Y descuelga el teléfono Es lo mismo Entonces Pues sí Donde se le daba cuerda Antiguamente Eso se le llama corona Y está muy bien Que conozcamos este término Porque no vamos a referirnos A él En distintas ocasiones Adelante Y bueno Pues nada Pues tiene Este reloj mío Tiene pues lo que todos Los relojes De este tipo de relojes Tienen ¿no? Da la hora También Casualmente No hay nada Bien bien Bien bien Pero vamos Aparte de dar la hora Pues te monitoriza la salud Te obliga Entre comillas Obviamente Bueno te da una descarga Pero casi Te obliga A que hagas ejercicio Te monitoriza el sueño Las pulsaciones cardíacas El oxígeno en salud El sangre Te hace electrocardiogramas Si ve que Si él cree Que te está pasando Algún Tienes un problema cardíaco Te Vamos Te avisa Y si no responde Llama a urgencia Por ti Y llama a tus contactos Obviamente hay que configurar esto ¿No? Evidentemente ¿Y qué tal es la aplicación? Para configurarlo Pues se puede manejar Perfectamente Sin verla Vamos La configuración La puedes hacer A través del teléfono O a través del reloj Como en Apple Y lo puedes hacer Con cualquiera de las dos cosas Porque Se puede hacer Sin problemas Sin ayuda Eso es interesante O sea Tú este reloj Desde que lo sacas de la caja Evidentemente A más vez Si no sabes Cómo se activa Talva Porque nadie te lo ha dicho Búscalo en Google Pero una vez que sabes Cómo se activa el Talva Del reloj Del reloj que estoy hablando Puedes hacer lo que quieras Con él Desde el primer momento Vale Cuando hablamos de Talva Que estamos hablando Del lector de pantalla Que es el que le permite Que una persona ciega Pueda manejarlo ¿No? Exactamente Talva Que es el lector De pantalla de Android Tanto del reloj Como del móvil Se llama Talva Igual que iPhone Y el reloj de iPhone Tiene el suyo Ajá ¿Y se puede poner Otro lector de pantalla? No Que yo sepa Por lo menos No A ver Para los muy cafeteros El sistema operativo Que lleva Es algún sistema Distinto Android Es un Android Trucado Para el reloj Que no se llama Android Que se llama Weros Es el Weros ¿Verdad? Muy bien Ajá Y las aplicaciones Que llevan son para Weros O algunas de Android También funcionan Son para Son para Weros Para Para Para Para Para Para Para Para Para Para Para Para Para Que no Que venden paraguas ¿No? Que no Que Optimus Que no Que sean paragueros De paraguas Son para Para el sistema operativo De Esto es como El del LG ¿No? Que se llama Huevos Exactamente Sí, sí Pues igual El de la Manda huevos Manda huevos huevos. Mi televisión tiene huevos. Porque claro. La mía también, que suena LG. Por eso. Bueno, ¿nos paga LG por hacerle publicidad? No, ¿no? No, no. Y aparte no van muy bien todos los electrodomésticos. Yo tengo dos que han fallado, ¿eh? Así que cuidado. A mí me van muy bien los que tengo LG. Pero vale, eso ya es para otro podcast. Tiene la Play Store del reloj y hay aplicaciones que están en teléfono y que también están para el reloj. En cuanto al uso cotidiano de un día normal, cuando tú, bueno, te levantas y demás, ¿cómo utilizas el teléfono? ¿Consultas primero el sueño? Sí, yo soy una friki para eso. Perdón, el reloj. El reloj. Yo, a ver, como un amigo me dijo en su momento, hace ya más años de los que quiero recordar, y el amigo está aquí, además, cuando me fui a conocer, he comprado un reloj en aquella época de Apple, porque en aquella época todos tenemos un pasado, yo llevaba iPhone. En aquella época me dijo un reloj es algo que se puede vivir sin ello, pero en el momento que lleves un día con él, vas a pensar ¿qué vivía yo sin ello? Pues, igual. O sea, yo me puse este reloj y dije, pues yo es que no... Yo ahora mismo no tengo el cuerpo para tonterías y para configurar el reloj y para esto, si a mí esto no me hace falta, pero al día siguiente aparte de haberle quemado la batería, ya estaba pensando, ¿y vivía sin esto, de verdad? Muy bien. O sea, yo es que casi no me saco el móvil de bolsillo. Ajá, eso es interesante. ¿Puedes manejar cosas del móvil desde el reloj? Los WhatsApp, casi todos los gestiono con el reloj. El calendario con el reloj. La aplicación del transporte público para saber de dónde me tengo que bajar, va con el reloj. Pagar con la tarjeta en vez de pagar con el teléfono, pago con el reloj. El utilizar... Yo sí de poco he usado asistente, porque no me gusta, pero va con el reloj también. Además, es muy curioso porque en el móvil tengo Gemini, pero en el reloj tengo Google. Y hay pequeñas problemáticas de contestaciones, porque uno dice una cosa y el otro dice otra. No se ponen de acuerdo. Y son de la misma casa, pero bueno, eso es otra historia. Gemini es la inteligencia artificial de Google, ¿no? Sí. Y Google, que es la aplicación Google. Claro, es que yo en el móvil, en vez de llevar al asistente de Google, que va nativo, puse la inteligencia artificial, que no se puede poner, vamos. Pero en el reloj, no. En el reloj, el asistente que me deja poner es el asistente sin Gemini. O sea, es el asistente de Google de toda la vida. Correcto. Entonces, ¿qué pasa? Pues que depende... A ver, si yo digo, ok, y lo otro, no digo la palabra para no hacerle saltar a nadie ningún dispositivo, saltaría el de la muñeca, porque en el móvil no lo tengo puesto. Pero puedo coger, darle a mano al reloj y darle a mano al móvil, invocarlo a los dos y hacerle la misma pregunta. Por aquello de que una es friki hasta que se muera. ¿Y el resultado? Pues, hombre, si le dices que te enciendan la luz, te la encienden. Ahí no se discute. Sí. O le dices que te abra la puerta, te la abre. Yo tengo una frase mágica para que me abra la puerta del portal. Pero si le preguntas por algo, pues ya ahí tenemos pequeños problemas de contestaciones. Correcto. Pero me estás diciendo que con tu reloj abres la puerta de tu portal. Sí, le digo una frase y bloquea la puerta. No, esa no, porque esa es muy previsible. Vale, va. Vilma, ábreme la puerta. Muy bien. Pero vamos, eso es, lo configuras con el asistente, con lo cual me responde con el reloj o con cualquier cosa que lleve al asistente, claro. Todo lo que sea compatible con Google, ¿verdad? Claro, eso es cosa del reloj, eso es cosa del asistente de Google. Interesante. O sea, la manta eléctrica de mi cuarto también me la pone el reloj, pero no es porque me la ponga el reloj, es porque él tiene el asistente. Sí, bueno, pero te está haciendo de puente y es muy cómodo sin dar un... ¿Tienes el reloj? Siempre lo tienes en la muñeca, eso es buenísimo. Claro, es que además el reloj, mi reloj, este es LTE, pero yo no lo tengo conectado, yo no llevo tarjeta virtual, este es el Wi-Fi, pero claro, yo en mi casa dejo el móvil la mesita de noche y se queda. No tengo que estar pendiente del móvil prácticamente para nada. Porque si me llama alguien, hombre, le puedo coger la llamada con el reloj, pero es como que suena horrible. Pero pasa a los cascos inalámbricos. Ya está. Eso sí, es interesante. ¿Qué tal el altavoz y el micrófono del reloj? Ahí me temo yo que Apple Watch barre, pero por goleada, supra goleada. También el precio es distinto. Son mejores componentes. Hombre, sí. Vamos, hace mucho que no cojo un Apple Watch nuevo, pero vamos, sí, lo cogí hace 15 días, pero quiero decir, imagina porque a lo mejor el dueño del Apple Watch nos oye pero digo, cogerlo y tenerlo puesto en la muñeca para jugar con él. Y sí, hombre, el Apple Watch seguro, seguro, seguro que tiene mejores componentes, pero claro, vale el doble. ¿Cuánto cuesta el tuyo? ¿Qué precio suele tener el Pixel con LTE? Con LTE, 300. No, el mío es sin LTE, el mío es Wi-Fi, nada más. Ah, vale, vale. Y anda por los 300. Ahora mismo cuando estamos grabando esto. Vamos a ver. El LTE estamos hablando de lo que se le llama también celular, que se le puede poner una tarjeta SIM para que conecte. ¿Es así? Correcto. Vale, vale. ¿Con tarjeta SIM? No, para aclararlo. ¿O es SIM? ¿Es virtual? Es la virtual, vamos. La virtual. Sí, sí, sí, es SIM. Muy bien. Y también aclarar que para cosas de domótica como calentar la manta o abrir la puerta, pues hace falta algo más. El reloj solo no hace más. Pues la manta. Porque la manta. Claro. Al ser de la manta, queda de manta. No, pero la aplicación de Google Home también está en el reloj, ¿eh? Pero que eso, ¿hace falta un chifre inteligente o hace falta una cosa más? Esto no hace magia, vamos. El día que hagáis el programa de domótica podemos también ver, porque hay muchas modas de domotizar un hogar desde cualquier plataforma y utilizando puentes y demás. Pero básicamente para los oyentes necesitas siempre un dispositivo que tenga esa capacidad y un dispositivo que permita gestionar esa capacidad. Es decir, por ejemplo, el reloj de rosa a través de la plataforma Google Home puede gestionar los enchufes, porteros y demás que sean compatibles con esa plataforma. Y todas las aplicaciones que existen para móvil también tienen su equivalente para el reloj. Puedes manejar todas las aplicaciones desde el reloj. ¿Tiene sentido? Todas no. De hecho, la de mi banco no está. Cosa que en Apple Watch sí que estaba y el banco era el mismo. Sí, pero en Apple Watch tampoco están todas las aplicaciones que tienes en el teléfono. Algunas sí que tienen como un widget o un acceso directo en el teléfono o una mini aplicación que te permite manejarlo, pero no todas tampoco. Es que tampoco tiene sentido, ¿no? En muchos casos. A lo mejor la del banco, pues, para ver el saldo, pero si quieres ver los movimientos en esa pantallita tan chiquitita, hay que pensar que esto la gente normalmente lo ve en esa pantallita. Pues aplicaciones que necesitan mostrar mucha información, pues no. En el caso de mi banco, que es de los de Caixa, lo que sirve es para encontrar un cajero cercano en Apple. El mismo banco, sí. Pero antes has dicho, Rosa, que tú puedes seguir el WhatsApp por tu teléfono. Puedes enviar WhatsApp. Puedes enviar WhatsApp, recibir WhatsApp, leer cheiros de audio. ¿Puedes o no puedes? Puedo, lo que pasa que, evidentemente, en el teléfono es más cómodo. Pero poder, poder, poder, puedo. Es que creo que, no sé si en el Apple Watch se puede, por lo menos en el mío, ¿no? En el S2022. Si queréis que abra un poquito el melón, simplemente de forma nativa, ¿no? Con la aplicación que tengo yo, además de bastante sencilla, sí. Puedes recibirlo. Puedes recibirlo. Puedes recibirlo. Puedes recibirlo. Puedes recibir, enviar, iniciar conversación y recibir y enviar audio. De forma nativa solo puedes responder el que te llega. Con una aplicación que no es oficial. No. Sí, sí, lo curioso. Yo lo único que he hecho ha sido abrir la Play. Bueno, porque creo recordar, creo recordar, corrígeme, Emiliano o cualquiera que tengáis Apple Watch, que cuando tú configurabas el Apple Watch, de forma, él te bajaba las aplicaciones que ya estaban en el reloj. Sí, correcto. Con el Pixel, no. Yo me puse mi, configure mi reloj pensando en aquello y dije, pues vaya birria de reloj, porque esto no tiene nada, pues vayan a leche, pues anda que cuando tú configuras el reloj por primera vez, las únicas aplicaciones que están puestas son las que el reloj trae por defecto, pero no te bajan las que tú tienes en el teléfono. Entonces, abres la Play Store del reloj y ahí ya sí, la ves, está Audible, está WhatsApp, está algún banco que otro, pero Caixa no, por lo menos ahora que lo estamos grabando, está Mubi, de mapa hay muchísimas, yo no entiendo cómo la gente se deja la vista ahí, o sea, yo no me imagino viendo un mapa ahí, pero vale, de veces que la gente lo hace, porque hay muchísimas, de monitoreo de actividad física hay tropecientos millones de millones también, y eso que el reloj ya lleva, lleva una que se llama Fitbit, que es muy chula, vamos, muy chula, porque es accesible, por lo menos. Claro, porque en estos relojes, los temas médicos, como es el control del oxígeno, la frecuencia cardíaca, los pasos que damos, y otro tipo de actividades, es lo que más se consulta, además del tiempo, y algunas cuestiones así, porque eso básicamente es lo que más se consulta, y donde prácticamente todas las marcas, lo ofrecen como aplicaciones base, ¿no? Y hacer deporte yo creo también, ¿no? Sí, sí, las de Fit, ¿no? Le llaman, de fitness, ¿no? Sí, fitness. A mí me sorprende que te haga un electrocardiograma, y que te lo hace de verdad, quiero decir. Te da hasta una primera impresión, en plan diciendo, parece que todo está bien, si te sientes mal, claro, no es como el electro que te pueden hacer en un hospital, en un centro de salud, porque eso solo tiene un punto, no tiene los seis o más que pueden tener en un centro de salud, ¿no? Pero bueno, algo peor es nada, ¿no? ¿El pixel te lo hace? Sí, te hace el electro, pero, porque lo que hace es que ese electro, digamos, te lo puedes exportar a PDF con el móvil, o sea, te dice, abre la aplicación en el móvil, ahora abres la aplicación en el móvil, exportas a PDF, ese PDF lo imprimes, se lo das al médico, y yo por curiosidad, ya que tenía que ir al médico, dije, se lo voy a llevar, a ver si me dice que esto es una basura, o que me dice, porque claro, yo dije, anda, que gracioso, y se lo llevé, y me dijo, bueno, pues punto uno, está sana, punto dos, ríete lo que quieras, pero estas cosas tienen bastante fiabilidad. Y eso tienes por ahí para oírlo un poquillo, a ver qué impresión, qué impresión da. Bueno, pues a la hora de configurarlo, el reloj tú puedes hacer que cuantito lo toques, en cuanto lo toques, suene, cosa que a mí no me gusta, porque lo rozas con la manga, estás durmiendo, te mueves y le das con la almohada y te despiertas, y no es plan. Entonces, a la hora de configurarlo, yo lo que le hice fue, que si yo no toco la corona, el reloj no habla, bueno, la corona o el botón lateral, el reloj no habla. Entonces, yo le puedo estar pegando a la esfera, que no, puedo sacudir la mano, puedo hacer lo que quiera, que el reloj no, ahora, en el momento en que yo le toque la corona, 6 y 31 de la tarde, 6 y 31 de la tarde. Y ahora, a partir de ahí, si quiero ver las notificaciones, por ejemplo, deslizo dos dedos hacia arriba, si quiero, quiero ver las, ajustes rápidos, deslizo dos dedos hacia abajo, si quiero ver los elementos de la esfera, que tengo configurado, se hace haciendo flick, y si quiero ver las aplicaciones, que tengo instaladas en el, en el reloj, se hace pulsando el botón lateral. Vamos a verlas. Vamos a cotillear, a ver que llevas el reloj. Si, si, vamos a verlas, a ver que es lo que ves. No sé si lo oís, ha dicho grabadora. Bueno, lo he dejado de forma, bueno, lo he dejado de forma, como lo íbamos a grabar, de forma que si yo, hago flick, y, y, y, si, si tú vas sobre una aplicación, mira lo que pasa. Tiene la, digamos, la ayuda de que sepas lo que tienes que hacer. Eso lo puedes quitar. ¿Subir y bajar la velocidad de la voz es fácil? ¿O hay que hacer un...? Claro, eh, a fin de cuentas, esto no deja de ser un talback. Entonces, ¿se baje? ¿Se baje? Sí, sí, bájala un poquito. Te lo digo porque, la tienes puesta para ti, y suena muy de brisa. ¿El segundo? Ajá. Ah, mira. Paro donde me digáis. Ya, para allá, para allá. Está casi a punto de decir, la vida es una caja llena de bombones. Sí. Tenemos una pilla de años todos, eh. Yo lo he entendido, pero más de uno está diciendo, eh. El que no pille esto es buena señal para él. No pasa nada. Venga, buba, adelante buba. Buba. Bueno, que viejo es Romo. Pero, Rosa, se escucha muy bien, eh. Y, la voz que tiene, ¿qué son las voces de Google? Son, solo tiene esta, bueno, tiene, esta, sí, son las voces de Google, lo que pasa es que suena muy a lata. A mí, por lo menos, me parece que suena muy a lata. Por el altavoz, ¿no? Pero, con los auriculares también. Sí, pero es que no puedo hacer nada. Con los auriculares también. No, no, con los auriculares es otra historia. Pero el altavoz es así. Luego, se le puede subir y bajar. Tiene una buena voz, eh. Tiene una voz muy clara de Google. A mí no me gusta, ¿ves tú? No. Ahora, el volumen del reloj se puede subir y bajar también. Sí, por ejemplo. Claro, ahora, lo tengo a todo lo que da, y no parece que suene mucho, pero yo te digo a ti que a estas 3 de la mañana, despierto al bloque, entero. Correcto. Entonces, o es lo que tú has dicho antes de que te vas a una reunión. Te vas a una reunión, y te pones a mirar la reunión con el jefe, y miras en la hora tres veces, y el jefe te da el pasaporte final. Y ya no miras la hora más, ¿no? Bueno, pero has dicho que puedes emparejarlo con tus auriculares, ¿no? Hombre, sí, pero no te vas a ir a una reunión con los cascos puestos. No, no, me refiero que es una opción que tienes. Bueno, no se sabe, es decir, depende de los auriculares que lleves ahí. También vibra, también te puede dar la hora por vibraciones. No, solo te da la hora diciéndote la hora, pero le puedes bajar el volumen y solo te enteras tú, y ya está, no pasa mucho. Además, con que muevas un poco la muñeca, también es como lo configures, tú lo puedes configurar de forma que giras la muñeca, y él te da la hora, pero es que eso te hace que la batería dure un día nada más. Pues, habla norte de la batería. Pues mira, la batería de este bicho, cuando, si lo dejas tal como viene, tal como está en la caja, sin configurarle nada, viene con pantalla siempre activa, por ejemplo, viene con esto que digo de girar la muñeca y que hable, el brillo al máximo, todas las animaciones maravillosamente bonitas, la batería dura, a mí me duró, pues ponle que 17, 18 horas, no duró más. Ahora, que lo tengo optimizado para mí, le he quitado notificaciones de aplicaciones que no me interesa que me notifiquen, le he bajado el brillo, en fin, le he quitado lo de que al girar la muñeca hable, o sea, lo he configurado como me gusta. Por cierto, los gestos de tal vez también se pueden configurar en el reloj. Tú puedes personalizarles esto. Muy bien. Y a mí me está durando la batería día y medio. Y ya digo que yo lo uso, que yo, yo, yo, el móvil sale poco del bolsillo ya. Y cómo lo cargas, Rosa? Trae, trae un cargador parecido al del Apple, si Apple no le cambió el nombre. Una moneda como es, como es, sí, como si fuera una monedita con pinchito. Ah, con pinchito. Exactamente. Y entonces, pues acercas la moneda. Además, solo tiene una forma de ponerse, porque si la intentas poner de otra, como que no se queda encajado, vale? Lo tienes que emparejar de forma, que la, la cuerda o la corona, como os guste más, quede paralelo al cable. Muy bien. Y ya está y se queda y te dura la, la, la carga en 15, 20 minutos más no, eh? Te hablo siempre del cable que viene con el reloj. Luego hay que ver a cargadores que te puedas comprar y lo que tú, pero estamos hablando del cable que viene con la caja. Lo tienes siempre con el Bluetooth, siempre con el Bluetooth, siempre con el Bluetooth. Sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, con el Bluetooth y el Wi-Fi conectado. Sí, siempre lo tengo. Vale, vale, vale. Conectado a Móvil con Bluetooth y se lo podría quitar en casa, por ejemplo, porque se entienda por Wi-Fi. Ajá. Pero luego me voy a la calle y se me va a olvidar. Así Click. ¿Para qué? Con Bluetooth. Vale. ¿Tienes alguna aplicación o alguna funcionalidad que te haya llamado la atención? Yo al principio eh, la verdad es que eh, se me quedaba corto, o sea, y con todo el dolor de mi alma, pero yo decía es que esto no es un Apple Watch. Ya, sí, está chulo, vale, pero es que esto no es un Apple Watch. Pero no sé, ahora yo estoy muy contenta con mi reloj. O sea, no le he hecho nada en falta. Lo que me costó fue cambiar el chip. Pues como cuando cambias el chip de pasar de tener un iPhone a ponerte un Android, que los primeros dos días son esto que es y luego ya pues te gusta o no te gusta, eso ya para gustos colores. ¿Y los puntos débiles? El altavoz no me gusta como suena, me gusta más como suena Apple Watch. Vale, la voz tampoco te... la síntesis tampoco te ha gustado. En el reloj suena muy lata, a mí me suena muy lata. Luego con los cascos no, pero en el reloj me suena muy latera, muy plastiquera. Pero vamos, yo estoy contenta, bastante contenta con él, no me ha hecho todavía... llevo un poquito con él, llevo dos semanas. Pero vamos, me costó, me costó dos días y luego ya no... es que no me lo quiero quitar. Ah, bueno, no lo he dicho porque lo estaba dando por hecho, pero mejor no dar nada por hecho. Después duchas con él, no hay problema. ¿Puede mojarse a más de un tiempo y demás? Para fregar los platos y mojarse, da. Para nadar no lo sé porque no lo he hecho. Y a la playa tampoco he ido porque ahora mismo hace frío. Y para deportes dices que es perfecto, que en el sudor no hay ningún problema ni más. Está perfectamente preparado para eso, ¿verdad? Sí, a esa faena sí se la he hecho. He puesto a correr con él y no... perfectamente, no me he hecho ninguna cosa rara. Además tú puedes ir mirando a cada momento, a tiempo real las estadísticas que te vas sacando en pantalla como si lo vieras, ¿no? O si no quieres que te vuelva loca la cabeza, pues dejas que se bloquee la pantalla y ya la mirarás al final. Genial. Muy bien, pues este es el Google Pixel Watch 3. Muy bien. ¿Con qué lo tienes conectado, Rosa? ¿Con qué móvil? Con el Pixel 7a que es el que tengo yo. Vale, perfecto. Ahí no supongo que no haya ningún problema con, por ejemplo, poner un Samsung o un Oppo y demás, ¿verdad? En teoría, según las especificaciones del reloj, no lo hay. Pero no lo he hecho. Bueno, genial. Y ahora para comparar un poco, ¿no? Vamos a comparar el clásico de Apple. Comparamos un poco, bueno, ventajas incoherentes de cada uno. Cuéntanos un poco del Apple Watch. Pues os cuento un poquito. Lo que tenemos hoy aquí es un Apple Watch Series 10. Es de Apple y es el último dispositivo que ha sacado la casa. En concreto, en mi caso, es el de tamaño de 46 milímetros, de caja en aluminio y color jet black, negro azabache. Lo máximo. No hay más por encima, ¿no? El tamaño, no. El tamaño, excepto si te vas a un Apple Watch Ultra, que es más grande la caja, pero lo que es la pantalla en sí, la zona de tacto, creo que es incluso más pequeña. Fíjate en lo que digo. El Ultra 2 le gana a este porque una de las novedades de este año es que sin que el tamaño incide la caja, que es lo que se supone que utilizamos como donde tocamos, ¿no? Donde está la pantalla, la corona, el botón, los altavoces y el micrófono. A eso se llama la caja del reloj. Es más grande. En el Apple Watch Ultra 2, que está más orientado a deportes extremos, frente al Series 10, pero el Series 10 tiene una pantalla más grande. Es decir, le han quitado bordes, le han quitado marcos y han hecho que en una caja más pequeña entre un área de toque más grande. En el día a día yo no noto gran diferencia entre el Series 10, que es el que tengo, y el Series 7, que es el que tenía. Pues vamos de menos a más. Hablamos de Apple Watch en sí, lo que puede dar de sí, y luego en concreto el que tienes tú. Muy bien. Es el alto de gama, ¿no? Os cuento. Por lo que yo he podido vivir, efectivamente un reloj de 500 euros no es algo imprescindible, pero se vuelve el día a día fundamental. Desde que me levanto por la mañana lo primero que hago es utilizarlo porque él me despierta. Y me despierta de una forma muy curiosa. Se ha convertido en un estilo de vida que monitorea cada fase de mi vida. Desde el sueño hasta mi gimnasia, educación física, lo que vosotros queráis decir, ¿vale? Es decir, junto con cada hora de mi día si me estoy mucho tiempo quieto o si estoy mucho tiempo él me avisa, lo tengo configurado para eso. Entonces para mí Apple Watch exactamente, se ha convertido no solamente en un reloj que efectivamente da la hora, sino en un compañero de día a día. Como Apple o como la industria ha conseguido hacer esto dándole una serie de capacidades al reloj que saca mucho más partido que un simple reloj. El reloj tiene un altavoz, el reloj tiene micrófono, tiene pantalla, tiene la corona que es una parte redondita donde nosotros giramos y podemos movernos por las aplicaciones. Yo no lo utilizo para eso. Lo utilizo para hacer clic, para entrar en una aplicación o para ir para atrás. Para volver atrás, como si dijésemos el botón de inicio de los iPhone antiguos o el gesto de doble tap de abajo arriba en los iPhone nuevos que no tienen botón. No sé si me estoy explicando. Una pantalla inicial que es lo que se llama la esfera que además nosotros podemos personalizar. ¿Y cómo lo podemos personalizar? De miles de formas. Desde que la esfera solamente parezca la hora con lo cual cuando nosotros toquemos la pantalla o levantemos la muñeca o toquemos la corona, nos diga simplemente la hora hasta ponerle lo que se llaman las complicaciones. Las complicaciones son como pequeñas ventanitas a distintas aplicaciones que nosotros podemos establecer. Las aplicaciones que instalemos en el reloj serán aquellas que podremos poner nosotros en esas complicaciones. ¿Alguien sabe por qué le han puesto nombre de complicaciones a este tipo de ítems en pantalla? Me explicaron hace mucho tiempo que es una forma complication y no sé realmente por qué. Se llama, bueno, los relojes analógicos, estos caros, por así decirlo, que había, pues además de darte la hora, pues tenían ahí una pequeña zona mejor que te ponían, pues, eso. El calendario, ¿no? Había algunos que te ponían incluso un dibujito de la luna, por ejemplo, en qué fase está la luna, cosas de estas. Todo eso lo hacían de forma mecánica, no eran digitales y esas pequeñas funcionalidades adicionales se llamaban complicaciones. Y por eso se ha heredado en estos relojes. Un dato curioso a la historia del reloj que decís antes que quería deciros es que en todos los anuncios visuales de relojes de esfera con manillas, siempre el reloj está dando las once y cuarto porque parece una carita sonriente. Sí, parece que está sonriendo. ¿El reloj de Rosa también tiene complicaciones? Mi reloj tiene complicaciones, pero no se llaman complicaciones. ¿Cómo le llaman? Elementos, simplemente. Claro, ítems, ¿no? Tiene más historias. Pero vamos, en ese sentido es como el de Apple. Tienes esferas muy simples con cuatro cositas o tienes esferas con ocho cositas que tú dices, vamos, se deja a la vista quien que sea seguro. Sí, además en Apple al menos, supongo que en Android también, en Pixel, cuando vas a elegir la esfera, te dice el nombre de la esfera y una descripción en la que incluye el número de complicaciones que hay, cinco complicaciones, seis complicaciones o como dice Rosa, ocho complicaciones. Es una forma de ir después poniendo en cada complicación lo que quieres. Y en Apple te dice complicación arriba a la izquierda, centro, arriba a la derecha, abajo a la izquierda. Pero hay un detalle. Según el tamaño de la complicación, pequeño, mediano o grande, podrás visualizar una información u otra. Es decir, en una complicación pequeña lo que suele ocurrir es que verás nada más que un dato muy pequeño o simplemente el nombre de la aplicación. Sin embargo, en una complicación grande o mediana, por ejemplo, el tiempo no te pondrá tiempo, sino que te pondrá 17 grados despejados y en una grande te pondrá Sevilla, en mi caso, 17 grados despejados, probabilidad de lluvia 25% e incluso puedes ir viendo datos día a día u hora a hora, como hayas configurado. A ver si esto lo he entendido bien. Una esfera en sí conlleva lo que es una propuesta estética, que la esfera puede ser o clásica o futurista y demás y una distribución de los ítems o complicaciones. Haciendo un equivalente con los teléfonos podríamos estar hablando de una pantalla principal, un salvapantallas que le daría la parte estética y una pantalla principal. Y la distribución de los elementos. ¿Sería esto? Más o menos, sí. El reloj, tú tienes el fondo, que puede ser una fotografía o un logotipo, pero es que también cambia porque la esfera que en el Apple Watch es curioso porque el Apple Watch es cuadrado, pero se le llama esfera. Puedes cambiar incluso cómo quieres que te muestre la información. No solamente es una fotografía, sino, por ejemplo, si quieres que se vea una manilla para darte la hora, de forma clásica, con la forma de las manillas clásicas, o un reloj como el que tenías tú del Casio, con los números digitales grandes. Y después, alrededor de esa base es lo que dices que aparecerían las distintas ventanitas o complicaciones. Y según el lugar donde se encuentre, si está en una esquina, puede ser más pequeñita, si está en el centro puede ser más grande, y según cómo le deje el espacio visual. Yo os tengo preparado en algún momento, una de las demos que quiero, una esfera que utilizo mucho simplemente para cuando salgo y no quiero nada más que enseñar el reloj a la gente. Y luego otra esfera, que es la que he preparado para demostrarles un poquito las capacidades del reloj. Una es muy graciosa, que le va a gustar mucho a la gente, porque es muy auditiva. A mí me gusta mucho Mickey. Ahí voy. Me está reventando. Que te quiero. Sí. No, pero es verdad que Mickey... Mickey es precisamente lo que os iba a enseñar. Lector de pantalla... Muy bien, pues mirad. Es muy sencillo. Vais a escuchar primero la voz del VoiceOver, que en este caso le puedes poner distinta... VoiceOver es el lector de pantalla que utilizamos para poder acceder a la información tanto de los iPhone como de los iPad, como de los Mac, como de los Apple Watch y Apple TV. Es decir, es el lector de pantalla oficial de Apple. Y no hay más. No se puede poner otro lector. Es este y ya está. Totalmente. En Android se puede poner el chino, o puedes poner el TALBA... ¡No! En el teléfono sí, pero en el reloj no. Como lo que decía Rosa, se puede configurar el reloj para que nada más que levante la muñeca me hable. Pero yo no lo tengo puesto así. Lo tengo puesto para que yo toque la corona, la parte redondita que se utiliza para dar la cuerda en los relojes antiguos, o para la pantalla. Si toco la pantalla, lo primero que me dice es con la voz de Siri la hora. ESG. 18 y 51. 18 y 51 es la hora. Si yo aprieto... O sea, hago un doble... Está mantenido un tap-tap en la pantalla sin tocar ninguna parte central, me aparece el selector de las distintas esferas. Lo hago. Y entonces me dice modular, personalizable. Hay complicaciones y me dice lo que hay. Y ahora, si hago clic a la derecha, me dice añadir esfera. Y si hago clic a la izquierda... ESG. 18 y 51. ESG. 18 y 51. ESG. 18 y 51. ESG. 18 y 52. Activo la pantalla y me dile automáticamente la hora con la voz de Mickey. No es la síntesis de VoiceOver, ¿vale? Es una síntesis propietaria de Disney que hizo un trato con Apple. ¿Y ya no tiene a Minnie? Sí, también lo tengo. Tiene a Mickey y a Minnie. Son los personajes... Además, es una esfera que conmemora el reloj que salió en 1933, que era un reloj mecánico, en el que los brazos de Mickey daban la hora y el minuto y el pie iba haciendo un que marcaba los segundos. No hablaba. Y este, además de hacer todo eso... De vez en cuando se ríe. Vamos a quitarlo porque si no va a estar dando la hora cada dos por tres. Apreto dos veces con un doble tap mantenido. Y hago clic a la derecha. Y hago doble tap. Y ya está. Velocidad. Con el reloj. Vamos a... Ahí vamos bien. Perfecto. ¿Y ahora? El volumen se puede subir hasta el 199. Pero bueno, creo que con eso ya... Ya observamos que tiene más volumen el Apple Watch que el Pixel Watch. Pero de largo. Independientemente de que... Tiene mejor volumen y mejor voz. ¿Ese qué? Vale. No es... Simplemente son cositas que... Supongo que Apple lleva ya 10 relojes o 11 y Pixel está empezando ahora con el tercero. Por lo cual irá mejorando. Y lo que dice Rosa. El precio de un Apple Watch es de 550 y tantos euros. O sea... Este que es el de 46 milímetros. Luego el de 44 es un poquito más barato. Y ambas versiones con LTE pues suman 100 euros más. Luego el Ultra. El Ultra 2. Pues estamos en 900 euros. Que ya viene con LTE incluido. Pero ese... 900 euros el reloj. Ajá. Sí. Y eso te pone la aspiradora en casa, te frega los platos, te abraza cuando llega. O algo. La aspiradora seguro porque si es compatible con HomeKit... Mal ejemplo. Bueno. Os quiero... Os voy a enseñar... Os voy a enseñar algunas cosillas de... Que se pueden hacer rápidas, ¿vale? Por ejemplo... SG. SG. Que es un... El Instagram. El Instagram. Vamos. Entro dentro. Que he hecho... Pero... Le tengo activado también como Rosa. Que os diga pues cositas que se puede hacer cada vez que entras en un... En un elemento para que nos diga más fácil las cosas pero también se pueden desactivar este tipo de ayudas, ¿vale? Electrocardiograma. Entramos dentro. Todo esto está en la misma corona, ¿vale? 72 LPM. Hace 3 minutos. Oxígeno en sangre. Bien. SG. Entramos en electrocardiograma y me dice... Ok. Botón. Me dice... Para hacer... Escuchad. Para hacerme... Ahí. Ok. Para hacerte un electrocardiograma correctamente debes llevar el Apple Watch bien ajustado a la muñeca que esté seleccionada en ajustes que actualmente es la derecha. Encabezamiento. Le damos a ok. Ok. Botón. Actual. Muñeca. Botón. Botón atrás. Puedes cambiar la muñeca si no lo tuvieras ahí puesto pero como yo lo tengo puesto en la derecha con la corona porque esto es totalmente personalizable, ¿vale? Tú puedes personalizar donde quieres la muñeca pues en donde quieres poner o todo. Es absolutamente personalizable en todo. Tanto la muñeca... Puedes elegir la muñeca y si la corona quieres que vaya mirando para la mano o para el brazo y tú dices... Exacto. ¿Alguien lleva el reloj del revés de verdad? Pues por lo visto sí. Yo llevo la muñeca... Por usuario de perroguía para poder acceder mejor a las funciones del reloj yo prefiero llevarlo en la mano derecha con la corona hacia el codo para que cuando yo doble la mano y demás no le vea. Totalmente al revés. Y me lo permite y todos los gestos cambian para estar perfectamente así sincronizado. Sí, sí. El de Android también lo permite. Coloca el dedo sobre la corona. Me dice, coloca el dedo sobre la corona. Y en el momento en que lo coloco... Toca. Nota. Nota. El Apple Watch no comprueba si hay infartos de miocardio. Procura no mover los brazos. Muy bien. Entonces coloco el dedo. Asegúrate de que tienes el dedo sobre la corona. Igualito, igualito. Vale, entonces... El Apple Watch no... Nota. No muevas el EPM. No muevas las manos. Vale. Entonces ahora... No muevas las manos. Estaría haciendo el electrocardiograma ahora. Y cuando lo termina de hacer me dice automáticamente en el reloj, en el móvil, pon. Ya tiene usted un PDF con sus datos de electrocardiograma. Esto es así de sencillo. En el Android es igual y te va haciendo una cuenta atrás. 30, 25, 20. Para que tú sepas lo que te falta. Ahora. Perfecto. Luego. Como tengo puesto lo de los latidos por minuto en otra complicación que es más grande, además de LPM, me dice que tengo... 75 LPM. Ahora. 75 latidos por minuto. Ahora. Sí, porque a veces me pongo un poco alterado. Entro dentro y me dice midiendo. Midiendo. Entramos dentro. Y me dice... 77 LPM. Me voy a poner un poquito... Me voy a poner un poquito más nervioso. ¡Ahhh! Entonces te va dando la versión actual. 72, 74, 78 hace un minuto. Y ahora le damos otra vez a la corona para ir para atrás. Vamos a ver el último que es el oxígeno en sangre. Por ejemplo, he cogido estas tres cositas para... Oxígeno en sangre. Oxígeno en sangre. Aquí tienes algunos consejos que te ayudarán a... Siguiente botón. Vamos a la siguiente. Oxígeno en... Asegúrate de que el Apple Watch no esté demasiado bajo en la muñeca. La correa tiene que estar ceñida sin que te moleste. Lo escucháis todo, ¿verdad? Sí, sí, perfecto. Asegúrate de que... Siguiente botón. Imagen de un brazo colocado sobre una superficie. Coloca el reloj mirando hacia arriba e intenta no moverte. OK, botón. Y a partir de ahora... 95%. Hace tres horas. Iniciar botón. Ese era hace tres horas, pero ahora no soy yo. A ver. Escuchad. Ah, mira, se escucha... el impulso. Sí. Lo hemos perdido, ¿no? Lo hemos perdido. Y ya está. Y me dice... Resultado. 98%. Bien, estoy a tope. Para que veas que somos oxígeno puro, ¿eh? Llevas el rato que llevas hablando con nosotros. Por eso me dicen que soy un vendedor de aire. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Y la última prueba que quería enseñaros simplemente las notas de voz. Para que veáis cómo un reloj puede utilizarse para muchas cosas. Simplemente abres las notas de voz. Le das... Y te dice... Grabar, botón. Le damos a grabar. Grabar. Y ahora decimos... Estamos haciendo una prueba para el maravilloso podcast de... de gatos, gafotas y sus aparatos. O mejor, gafotas de gatos y sus aparatos. A ver qué tal suena. Cero. Detener. Botón. Y ahora lo podemos reproducir desde el propio Apple Watch. Grabación 8. Grabación. Grabar. Botón. Le damos a grabación 8 porque... Esto es maravilloso. Después automáticamente te vas al iPhone y te aparecen las grabaciones. Pero desde el reloj... Grabación 8. Retroceder. Le damos a... Reproducir. 0%. Estamos haciendo una prueba para el maravilloso podcast de... 33%. De gatos, gafotas y sus aparatos. O mejor, gafotas... 63%. Pero bueno, es que está leyendo la síntesis. Avanzar 15 segundos. Botón. Normalmente cuando la VoiceOver no habla suena muy bien. Entonces, si no os importa, os lo voy a dar y voy a quitar... Avanzar 15 segundos. Botón. Estamos haciendo una prueba para el maravilloso podcast de... De gatos, gafotas y sus aparatos. O mejor, gafotas de gatos y sus aparatos. A ver qué tal suena. Cero. Muy bien. Suena muy bien, ¿eh? Y ya está. Para mí es genial porque después lo puedes grabar y mandarlo al reloj... Bueno, no mandarlo, sino ya se te sincroniza y es maravilloso. Cositas más que se me puede olvidar. Si le das dos toques en la parte izquierda del reloj, automáticamente vais a escuchar algo que es... Escuchar. No sé si lo captáis. Sí, se escucha. Una vibración. Esa vibración es para que te dé la hora sin hablar. Puedes configurarlo para que te dé la hora sin hablar. O los minutos y la hora o solo los minutos. Sería discreto. Estaría muy bien. Súper discreto. Te da un feedback vibratorio en formato de 24 horas que te da primero una vibración para decir la hora, es decir, de 1 a 24. 1, 2, 3, 4, 5, 6, 7, 8. Luego se queda un momento quieto. Luego te dice la decena de los minutos. 10, 20, 30, 40, 50, 60. Y luego las unidades del 1 al 9. Esto también se puede utilizar, creo, ¿no? Para que te digas el GPS. El GPS y el resto de las maravillas que tiene, por ejemplo, yo le he puesto que me despide todos los días a una hora y que me monitoree el sueño. Entonces me lo tengo puesto. Y para despertarme poco a poco, primero noto una vibración muy suave, pero muy, muy leve, como alguien que te empieza a tocar suavemente la muñeca. Y va cambiando la vibración hasta que, si no te has despertado a los 3 o 4 minutos, os lo juro, yo una vez me quedé dormido, notaba perfectamente como alguien que estaba clavando un dedo en la muñeca, pero es en un punto justo y parece muy desagradable. ¿Qué es eso? Si no haces caso. Sí. Y la vibración también te sirve para cuando te llaman y demás. Tiene un feedback vibratorio muy completo. Lo puedes incluso personalizar si quieres tú otras vibraciones y demás. Pero lo de la hora es muy chuli. Pues lo del Android, te digo yo que te despiertas, tú oyes el reloj y te dices, son las, la hora que sea. Y entonces tienes 3 segundos para que te pegue una vibrada en la muñeca y te parece que tantas cargas eléctricas bajo un bot de esa cama, pero ya, pero ya. Qué bien. Y las alarmas, pues imagínate como en Apple. Tú puedes hacer que suenen solo en el reloj o que suenen en el teléfono y en el reloj, claro. Suena la boquera. Exacto. Sobre aplicaciones, pues tienes una tienda de aplicaciones, Apple Store. La vibración también vale para GPS, ¿no? Si tienes que ir hacia la derecha o hacia la izquierda. Sí, bueno, es lo que estaba diciendo. Cuando, cuando tú tienes puesto, por ejemplo, en este caso, Apple Maps, pero Google Maps también te hace, pero el que lo hace mejor es Apple Maps, ¿vale? Es decir, que tiene mejor. Si tú tienes que girar a la izquierda en 25 metros, ¿vale? Cuando está, cuando te da el primer aviso, por ejemplo, en 40 metros gira a la izquierda. Bueno, pues te hace una notificación en el reloj, pero cuando ya te quedan 15 metros para girar a la izquierda, ya sí que te hace una vibración como, oye, cambia. Entonces tú levantas la muñeca y ves lo que te dice. En 10 metros gira a la izquierda en la calle Buena Fuente. Y a partir de ahí es impresionante porque llegas a un momento en que hay un cierto cambio de dirección y notas cuál es. Vas desarrollando ese pequeño instinto de que sabes lo que te está diciendo. Gira a la izquierda, gira a la derecha y es muy bueno. Pero siempre es mejor tenerlo, yo no lo reconociendo, sin voiceover, excepto en un caso cuando pones un entrenamiento y le tienes configurado que, por ejemplo, cada 5 minutos te avise o cuando a X calorías te avise o cada X kilómetros te avise, desactiva el voiceover. Entonces, la síntesis del propio reloj, por ejemplo, cuando estés paseando, te va a decir un kilómetro recorrido, velocidad del kilómetro, parcial, pues te dice parcial 1, ritmo del parcial 15 minutos, parcial 2, ritmo del parcial 15 minutos, 26 minutos. Y para activar y desactivar voiceover es como en un iPhone normal, tres veces a la corona. Igual que en un iPhone normal, desde que sale de la caja puede hablar. Igual que en un iPhone normal, la configuración es totalmente accesible. Diferencias con lo que ha dicho Rosa es el cargador. Eso me ha sorprendido que vaya con pinchitos el de Pixel. El iPhone no es así. ¿Cómo es? El de iPhone es una moneda que se pega en el reloj y da igual que esté el cable hacia un lado o hacia otro, es totalmente por inducción y no tiene ningún muellecito ni metalitos. Es decir, es una moneda que tú acercas el reloj a la moneda y automáticamente se pega con imán y te entiendes que está cargando porque ¡ping! carga. En los primeros momentos de carga se calienta mucho el abaste del reloj. Yo no he notado ningún tipo de cosa especial de barra. Ni velocidad ni problemas de calor. No. Es una monedita muy pequeñita. Antes era de plástico y ahora es de aluminio. Y antes era con USB tipo A y ahora desde mi Series 7 por lo menos que yo sepa en adelante es con USB tipo C. Y en el Apple Watch Series 10 le han puesto carga rápida que en 8 minutos de carga tienes para 8 horas. Por ejemplo, si te vas a dormir y te queda nada de batería lo pones 8 minutos de carga y te da 8 horas y en media hora te carga hasta el 80% del reloj. Es una maravilla. A ver, el de Android no es que tenga pinchos que te los cargas en la mano. No. Tiene pivotitos, o sea, tú lo notas, pero que no es una cosa que no son pinchos, vamos. Ya, pero serán como los metalitos que traen, por ejemplo, los auriculares para cargar en las cajas, ¿no? Pero más finitos incluso. Más finitos que eso incluso. Sí, pero tú tienes que poner el cable como has dicho. Sí, sí, eso sí. Eso sí. Pero los pinchitos de la carga del Android yo lo noto y tú lo notas. A lo mejor mi madre no. Pero eso es lo que quiere decir que la moneda del iPhone da igual como lo pongas mientras el lado correcto vaya. Era lisita, lisita, lisita, vamos. Sí, es lo único que cambia que el iPhone puedes ponerlo pues como te dé el Apple Watch, perdón. Te da, puedes ponerlo como quieras da igual que tengas el reloj mirando la corona junto con el cable o dada totalmente a la vuelta o 15 minutillos a cargar mientras me voy cambiando de ropa cuando lo tengo lo tengo al 100% y me voy al gimnasio puedo poner todos los entrenamientos tiene sincronía total con Apple Music con lo cual el que tenga el servicio de Apple Music de streaming es maravilloso porque el móvil te lo dejas en tu taquilla y con unos auriculares puestos en el reloj tienes tu lista predefinida de Apple Music le das a un entrenamiento por ejemplo elíptica tú le dices elíptica libre lo pones y automáticamente escuchas pip pip pip y empiezas a funcionar empiezas a todos los sensores y en los auriculares empieza la música de tu lista y cuando tú cambias alguna canción en tu móvil nada más que pongas a cargar el reloj automáticamente el reloj se vuelve a sincronizar que no quieres música que quieres podcast pues todos los podcasts que tú estés escuchando al menos con la aplicación Apple Podcast pero hay otras tantas aplicaciones que tienes para el reloj porque obviamente no tienes es un negocio el podcasting y en el reloj lo tienes es que todo pero si no es LTE si es Wi-Fi tienes que tener o conexión con el móvil o que se haya sincronizado antes tiene 64 gigas de espacio por lo cual ahí tienes bastante y Wi-Fi tiene Wi-Fi 5 el Bluetooth perdón Wi-Fi 6 y el Bluetooth 5.3 y qué más queréis que os diga si puede mojar puede mojar contadme si si puede mojar si tiene muy buena este de hecho este es el primero que no es el Ultra y que puede meterse hasta 50 metros de profundidad durante una hora puedes hacer no submarinismo como el Apple Watch Ultra que tiene hasta 100 metros vale pero sí que tiene sensor de profundidad sensor de altura puedes meterte en piscina puedes hacer buceo no submarinismo sino buceo vale es decir no a una gran profundidad pero sí que ya te lo permite y por supuesto natación desde el punto de vista hace bastante tiempo puedes hacer natación con los Apple Watch y son resistentes bastante bien al agua con todo y con eso yo recomiendo siempre una pequeña protección o un bumper alrededor del reloj que sea de goma eso sí va a comentar a Rosa y a ti qué tipo de protección lleváis genial Rosa dale tú y ahora cuento yo si queréis yo ninguna porque como yo no hago natación me duché con por la primera vez porque porque se puede uno duchar con el reloj ah sí a ver pues sí oye pues sigue funcionando pero mira cosa no para ducharme me lo quito no me atrevo y para que no se golpee llevas algún tipo de no ya lo cuido yo vale yo para el reloj he visto varias protecciones para golpes pero la última es la que más me ha gustado primero vi una chaquetita como un chelequito que tenía tirantitas y que servía como era un TPU para para un una especie de plástico que se le ponía al reloj y tapaba justo la pantalla luego vi el modo bumper que es una especie de marco de goma que te protegería lo que es el el marco del Apple Watch en la parte de aluminio y deja libre la pantalla pero la pantalla se quedaría hundida en ese marco de goma para que cuando le hidras o sea te cae el reloj cae antes con la goma que con que con la pantalla y la última que he encontrado que es el que más me gusta es imaginaros el concepto de la funda de un móvil pero al revés es decir la parte de atrás del reloj que es donde están todos los sensores es decir el Apple Watch el Apple Watch recibe toda la información que hemos estado leyendo de sangre oxígeno electrocardiograma por medio de tu muñeca entonces lo que está en contacto con la muñeca no se toca pero todo lo demás el borde de aluminio y la pantalla se la he puesto con una conchita de una mezcla entre cristal templado y y otro material que no es ni caro que te deja libre como habéis podido comprobar los altavoces los botones tanto el largo como el corto aunque lo notas un poco más hundido porque está algo alrededor pero te lo está cubriendo todo con lo cual los golpes en la pantalla ya no es la pantalla ya es en ese cristal cositas sutiles que tiene cuando estás haciendo deporte es algo que se me va a pasar y no quiero que se me pase los gestos con la muñeca Apple desde hace un tiempo ha permitido hacer que tú cuando haces para los videntes el gesto de pellizco en el aire se activan unos gestos automáticos en el reloj como para activar una notificación y que se vea en grande o para parar una alarma o un despertador tú pegas un pellizco al aire y se activa pero para la accesibilidad con voice over en concreto creo no sé si lo han hecho con más cosas es maravilloso tú estás en el gimnasio estás escuchando tu música estás sudando porque lo estás dando todo normalmente tanto en reloj como en móviles con el dedo mojado el tacto en la pantalla es complicado como mínimo complicado pero te da una vibración en la muñeca y un feedback auditivo. A ver si lo escucháis, ¿vale? Levanto la muñeca, abro y cierro, abro y cierro. Eso. Sí, sí, sí, se escucha. Vuelvo a repetirlo, vuelvo a repetirlo. Bajo la muñeca y entonces ya esa sección se ha cerrado, ¿vale? Levanto. Eso es. Ya lo ha hecho. Y a partir de ahí, cuando yo abro y cierro los dedos, hace eficacia. Hace como un click hacia adelante y ahora cuando abro y cierro los dedos dos veces. Clic a la izquierda. Sin tocar el reloj. Y ahora, si abro y cierro el puño dos veces, es un doble tap. Un doble click, ¿vale? El reloj está viendo tu mano, por lo que entiendo. La muñeca. No. El reloj lee el movimiento de mi muñeca. Vale, que es la muñeca. Vale, vale, es lo que no había entendido. Es la muñeca en la que te... Tienes puesta la pulsera del reloj, ¿no? Correcto. Vale, vale, vale. Porque dije al principio que como usuario de perroguía llevo el reloj en la mano derecha. Cuando voy paseando por la calle y muevo la mano, si estoy como un perroguía, la mano izquierda está prácticamente quieta agarrando el arnés del perro, pero la mano derecha puede ir balanceándose, con lo cual detecta que estoy paseando. Pero si quiero, por ejemplo, con la mano izquierda llevar el perro y con la mano derecha hacer algo rápido con el reloj, simplemente tengo que levantar la mano. Abro y cierro la mano dos veces. Se activa eso y ya a partir de ahí puedo moverme con el reloj. ¿Vale? Imagínate, por ejemplo, que necesito activar una aplicación o lo que sea. Con el puño dos veces entro dentro y con un solo puño cerrado y abierto te vas a la esfera inicial. Es como muy chulo. Es muy completo. A mí me encanta. Eso me ha vuelto loco. Es que el Series 7 lo hacía, pero cogía muy mal los gestos. Pero es que el Series 10 ha hecho algo. Apple que me ha vuelto loco desde el principio con esa... Con no vas por la calle con el perro en un lado, con la otra mano haciendo gestos raros con el brazo y con la mano y las gafas. Y las gafas Ray-Ban, la gente no está cerca, ¿no? También las tengo, ¿eh? Que, por cierto, enhorabuena por el programa primero. Me encantó. Gracias. También las tengo. Gracias. Cuando me voy a duchar, me voy a duchar con él, pero aprovecho para dejarlo cargando un poquito y para dormir me lo pongo porque me encanta que me monitoree el sueño. El monitoreo del sueño es muy completo. A mí me pasa lo que a mí, a mí, te levantas y lo primero que miras, ¿cuánto he dormido? ¿Cuánto he dormido? Sí, sí, sí. Y siempre me llevo mucho disgusto. Digo, tampoco he dormido. Me dice el otro día, cinco horas de sueño. Y yo me cago. Sí, pero es que además... Con razón. Pero no miráis lo de vigilia, REM y todo eso, ¿no? Sí, sí. Ahí voy. Sí, sí, sí. Pero es que después de esas cinco horas... Veo que el sueño profundo... Ahí está. El sueño REM... Que te deprime. Muy poquito, muy poquito. Cuarenta y cinco minutos. Y yo digo, con razón voy cansado todo el día. Así que es normal que tenga este carácter. A mí lo que me hizo el otro día fue una cosa muy loca. Alguien me llamó y yo le dije, pero hombre, a ver, me he llamado al móvil y te voy a coger la llamada. Y la criatura va y me dice, te he llamado, mira, al móvil. Y yo digo, pues a mí, no me ha llamado, vamos. Dios sabe quién habrá llamado porque a mí no me ha llamado. Porque vamos a ver. Entonces miro al móvil y sí me había llamado. Digo, vamos a ver qué ha pasado aquí. Estabas en el sueño. Esto como es. No. Que el muy bardito, yo estaba leyendo, estaba medio tirada en el sofá y estaba leyendo tranquilamente y el reloj decidió que yo estaba... Que estabas echado de la siesta. Claro. Y entonces él decidió que se ponía en modo descanso, que no es lo mismo que no molestar. Y entonces las llamadas de teléfono no entraban, no sonaban. Digo, pues muy bien. Eso que has decidido tú que estoy en modo descanso, ¿vale? Pero... Pero hablando de esto del sueño es fundamental, por ejemplo, darse cuenta para las personas que tenemos TOC, que a mí me viene bien. Yo cuando he visto que dormía tan poco he empezado a coger distintas cosas que me recomendaba el reloj, como por ejemplo, poner un horario de que a partir de las 10 de la noche todo se desactiva. Todas las notificaciones se desactivan. Todo. Me llega una notificación. Oye, son las 10. Te tienes que levantar a las 6. ¿Quieres dormir 8 horas? Vete ya a la cama. Y a partir de ahí pues se empezaron a monitorizar cosas como deja de tomar cafeína a partir de las 4 de la tarde. Eh... No te desactivo todas las cositas. Y mi sueño ha mejorado de 46 minutos a 1 hora 30. A mí parece una tontería, pero es casi el doble de sueño. Profundo, profundo. Porque te lo divide en distintas cosas. Profundo, ligero, REM. Eh... ¿Cómo es el otro? El fundamental creo que es. Y vas teniendo una serie de datos que no eras muy consciente de ellos y... Es mejor en la salud. Y aparte del sueño... Chicos, ya te coges tanta cantidad de datos que te vas a poner en el sueño. Y te vas a poner en el sueño. Y te vas a poner en el sueño. Cuando yo hace un año empecé a hacer deporte, cuando me han dado el informe ahora de la evolución del año, la gráfica de donde estaba, donde estoy es increíble, pero un montón de cosas que no te dice Apple directamente, pero que tú lo haces desde la aplicación salud, es increíble. Pero otra cosa que a mí me pasa, que yo sé que te pasa a ti, Emi, porque lo hemos hablado cuando llegaba el Apple Watch, el Apple Watch tenía lo de los anillitos. Este tiene una cosa parecida, pero bueno, viene a ser lo mismo. Yo todas las... puñeteras horas de mi vida me levanto, porque es que a menos 10 me dice te faltan 100 pasos. Me cago en la... Sí, bueno. Rosario en la día de la noche un día me mandó un mensaje diciendo aquí me tienes dando sarto porque me faltan 5 minutos para terminar el anillo de ejercicio. El anillo, exactamente. Pues tú pasas con el reloj, con el... Este te pasa igual, ¿no? Este te pone horas de actividad y te pone el... Bueno, te pone... No, lo puedes poner tú, ¿no? Lo que pasa es que yo no se lo he modificado. 250 pasos todas las horas. Entonces, en el trabajo, tú muchas veces me sentaba en el trabajo y me levantaba cuando me iba. Pues ahora no. Ahora me ves andando por el pasillo. Hola, buenos días. ¿Qué pasa? ¿Cómo llevas la mañana? ¿Dónde vas? No, a por un café. Los cojones. Lo que voy es... A hacer tu tracito de anillo. Para los oyentes, si me preguntaseis cuáles son las aplicaciones más fundamentales que deberíamos de conocer para el reloj, os recomiendo dos. Una es la aplicación Salud del iPhone. La congeláis, la configuráis y le dais todos los permisos que podáis. Y otra es la aplicación Fitness también de iPhone. Con estas dos aplicaciones vais a coger Salud y Deporte. Creo que junto con la aplicación Watch son las tres aplicaciones que más vais a utilizar con el reloj. Después podéis utilizar Notas, podéis utilizar no nativas de Apple, pero Watch para configurar el reloj. Fitness para vuestro deporte y Salud por su propio nombre. ¿Y vuestra vida? ¿Vuestra vida? Sí. Si de verdad os lo tomáis un poquito en serio, va a mejorar completamente y no es un mensaje publicitario. Y da igual que sea Apple o que sea Pixel. Es decir, si compráis un relojito de estos y os lo tomáis en serio, vuestra salud va a mejorar. ¿En serio? Es que... Pero que es una tontería, pero que el Pixel tiene de objetivo 10 plantas. Yo subo 10 plantas todos los puñeteros días. O sea, si tengo que ir a la tercera para algo, voy a ascensor. No, que luego me están dando los coñazos el reloj que dice que no he hecho las plantas. Voy andando. Aunque sea por eso, tú vas todos los puñeteros días, las 10 plantas, todos los días los pasos que te has marcado, aunque sea porque el reloj no te esté dando la vara toda la mañana. Y eso al final, aunque parezca muy poquito, porque al fin de cuentas, vamos a ver, tampoco te matan, ¿no? Pero nada más que eso ya hace que te mejore un poquito la salud. Y si ya encima es el deporte, pues ya ni te digo. Parece ser que Apple Watch solo es compatible con dispositivos de Apple, ¿no? ¿Esto es así? Sí, eso es así. No existe ninguna forma... No. No es como los AirPods que sí que puedes utilizar un Android con ciertas funciones limitadas, ¿no? El Apple Watch, no. Alguien que no tenga un iPhone o un dispositivo con iOS que no se compre un Apple Watch. No. El Apple Watch solamente tiene lógica si tienes un iPhone. Ni siquiera un dispositivo con iOS, es decir, no un iPad. No un iPad. Si no tienes un iPhone, no. Porque para utilizarlo de forma autónoma, es decir, sin conexión a ningún dispositivo... ¿Tienes posibilidades pero tiene que estar sincronizado con tu iPhone? Es decir, ¿tiene libertad? Yo me lo puedo llevar al gimnasio y utilizarlo perfectamente, elegir los entrenamientos, la música, la ruta incluso del GPS. ¿Tiene esa libertad? Pero... La configuración inicial. La configuración inicial, la sincronía de datos, etcétera, etcétera. Aunque tengas un Apple Watch LTE, sigues necesitando tener sincronizado la cuenta con un iPhone. Y en tu caso es igual, con el Pixel Watch 3, ¿solo funciona en Android? Sí, solo en Android. Lo que pasa es que, en teoría, porque no lo he probado, ¿vale? Si lo dicen las especificaciones, digo yo que será verdad. Pero, en teoría, funciona con cualquier Android. Yo, como tengo el Pixel, pues lo he probado con el Pixel. ¿Con iPhone no se puede? Ajá. No. Pone Android y te da el Android mínimo. Con lo cual, no puede ser iPhone. Sobre iPhone, yo no sé muy bien cuál es el iPhone mínimo que necesitas para un Apple Watch. No lo he preguntado nunca, pero... Con S2020, el Apple Watch S2022 funciona. ¿Con cuál? Con el 2020, ¿no? Con el 2020, sí. Bueno, con un 8, yo lo tenía el Apple Watch también. Pues fíjate, sí, sí, no. Te puedes ir muy atrás. Y el Apple Watch también tiene esto que ha comentado antes Rosa, que cuando tocas la pantalla por accidente con la manga de la camisa o cosas así, que no te hable o... Lo puedes configurar para que solamente le hable. O cuando levantas, o cuando tocas la mano, o cuando tocas la pantalla, o cuando tocas la palla y levantas la mano, o cuando solamente toques la corona. Es decir, es muy configurable. Pero sí es verdad que a veces te da falsos toques si tú no lo tienes configurado para... Falsos positivos, ¿no? Exacto. Sí, eso me gusta a mí decirlo. Falsos positivos desde que hemos pasado la pandemia. Todos conocemos falsos positivos. ¿Y tiene algún inconveniente? ¿Algo que mejorarías? Vamos a ver. ¿Qué mejoraría en el Apple Watch? Yo, a día de hoy, lo que habéis hablado, la independencia. Si algún día el Apple Watch pudiese ser un iPhone en miniatura con un iOS en condiciones, yo me plantearía no tener un iPhone. Porque, como dice Rosa, a veces puedo pasarme mucho tiempo sin utilizar el iPhone, sin sacármelo del bolsillo, si tengo unos buenos auriculares con el reloj. Porque en algunos sitios, por muy buen... Y lo habéis dicho vosotros. Pero... Muy buena altavoz. Pero... Me llama la atención, aunque no me sorprende, porque es la tendencia de la tecnología wearable, ponible o llevable. Es decir, la gente quiere prescindir de su terminal móvil en cuanto pueda y llevar todo el sistema o en las gafas o en la muñeca o en... quién sabe dónde. Si en un pin o donde sea. Y tiene su lógica también. No está mal. Pero bueno, yo creo que, aunque da tiempo, para que esa tecnología llegue a ser tan autónoma y tan autosuficiente. De momento... Si las gafas... Si las gafas que vosotros estuvisteis hablando el otro día, las metas en este caso, cualquiera, tuviesen una capacidad de ser autónomas sin tener un móvil encima, si mi reloj fuera autónomo y que mejorase con el móvil, pero que tuviese una autonomía importante, como ya lo hace, que gracias al cielo utiliza muchas cositas, pero esa dependencia de un... móvil. Pues es lo que te... puede llegar a decir el momento en el que el móvil ya no se puede actualizar, ya tienes que cambiar el... Porque trasladar el terminal móvil, el móvil es incómodo, ¿no? Realmente es un... un dispositivo que hay que llevar y siempre molesta, ¿no? Lo lleves donde lo lleves, siempre molesta, ¿no? Mira, para hacer deporte es un iPhone mío en concreto, es el 16 Pro Max. Es un ladrillo. Es... 7 pulgadas de bicho. Es... una tableta de turrón. Eso depende también para que... para que... Porque nosotros la pantalla nos da igual, ¿no? Pero la gente cada vez... que cada vez quiere pantallas más grandes además, teléfonos más grandes, en un reloj se le queda pequeño, ¿no? En un reloj no puede leer una página web, leer un libro, leer... Pero... Pero fíjate que curioso que es lo que yo dije hace un rato, que yo también... O sea, yo tengo ahora mismo por cuestiones de trabajo me caen muchos móviles a la mano, distintos modelos. Y yo tengo ahora mismo un modelo de Samsung que yo cuando lo saqué de la caja dije se han equivocado, esta es una tablet. Claro. No, no. Es un móvil. Pero... Vamos, es un móvil porque cuando lo encendí me dijo el nombre del móvil con lo cual dije pues no se han equivocado. Pero esto es una barbaridad. Y ahora resulta que me encuentro que en el reloj de las aplicaciones que más hay son de mapa y tú dices pues se dejará la vista aquí. Lo entiendo. A lo mejor pueden tener sentido quizás, a lo mejor lo que decíamos si vibra y te pueden indicar si es para la derecha o para la izquierda por vibración. Por ejemplo, para los conductores de motos por ejemplo, pues a lo mejor puede tener sentido, ¿no? O verbaliza algo que te dé indicaciones. Eso también tiene sentido. Sí, sí verbaliza pero vamos. El volumen de esto ya habéis visto que tampoco es que sea... Tengo un amigo que hace el Camino de Santiago que hace maratones y me lo dice me voy a comprar un reloj con LTE Android porque lo tengo claro la maratón son 42 kilómetros esos 200 gramos de peso del móvil no son los que más me gustan pero si estás haciendo deporte o estás haciendo bici pues mejor que llevar una tablet encima pues es mejor un reloj pero el que va a todo el metro al trabajo pues prefiero una tablet muy grandota para poder ir si no tienes ningún problema visual no, Arturo si no tienes ningún problema visual quieres pantalla quieres ir en el metro viendo tu serie favorita entonces quieres pantalla grande pero cuando estás haciendo deporte estás centrado en otras historias no estás es tú te llevas atrás de ti las gafas para hacer perdona que cambie de un poco de tercio te llevas el móvil me has dicho y el reloj las gafas te las has llevado alguna vez para hacerte deporte no no las Ray-Ban Meta que son las que yo tengo como gafas inteligentes no no las uso para hacer deporte y muchas veces me planteo hacerlo lo que pasa es que yo sudo muchísimo tengo cuando me pongo a hacer deporte doy todo lo que puedo y más y sudo pero bueno que me he cargado auriculares IP IP 55 y me he cargado y tengo ya que ir a los IPX7 que son los que se pueden meter en un cubo durante media hora pero vamos más de un metro de agua o sea más de un metro de profundidad y eso es en lo que me están tirando bien y las gafas es que no tengo nada claro nada nada claro ni aunque me lo digan que esas sean aguanten una sudoración constante tengo amigos y tú tienes un amigo en común conmigo que sí quiere hacer deporte con ellos todos los días Marcos pero yo no me atrevo tío y serían genial porque estoy seguro que muchas veces cuando llevo un rato podría decirle que me dijese qué es lo que ve en la pantalla de la elíptica o a cuánto estoy poniendo de fuerza la bicicleta para no tener que estar preguntándole al chaval oye ¿me puedes cambiar el programa? mira ahora me da pie una pregunta que tenía ¿pensáis que en este tipo de relojes algún día incorporarán la cámara? porque es lo único que le faltaría ¿no? pero tendría que ser una cámara muy chica ¿no? bueno las hay más chicas que las que tengo que las de las Ray-Ban Meta hombre a ver a ver las aislas como las meigas pero si los videntes a ver para nosotros maravilloso ya porque ya no me digas que no molaría espérate que voy a ver que pone en la carta del bar un momento giro la muñeca claro ahí quería llegar pero claro el mundo está pensado para la gente que ve para la gente que ve hacer una foto con eso con una videoconferencia o algo así pero para hacer fotos o vídeos al mundo pues es incómodo ¿no? tiene que hacer una foto tienes que girar la muñeca para hacer una foto con vuelvo a vuelvo a esto lo hablé una vez con un amigo si por ejemplo pones la cámara no es que claro es complicado pero en un borde en lugar de en el que está también era incómodo la cámara de los iPad y hay gente haciendo fotos con un iPad pero bueno hay gente para todo también luego hay gente para todo pero si es verdad no es tan complicado ¿qué capacidad tenía de almacenamiento vuestro 64 gigas el mío 64 gigas el mío y 32 el tuyo ¿no? vale , vale el almacenamiento interno no se puede elegir ¿no? en el Apple el Apple Watch es de 64 y ya está no si según el el Series que tienes por ejemplo antes tenía el Series 3 que era de 16 y tuve problemas a la hora de actualizarlo tenías que formatearlo completamente para poder actualizarlo luego pasó a 32 y 64 pero que no hay varias opciones es como es y ya está no no hay ni tampoco hay ampliaciones con micro SD y nada ¿y en el Pixel? también es como es pues no lo he mirado si se puede los modelos que yo haya visto todos llevan 32 y que yo sepa no le puedo poner un SD porque no hay donde meterse es igual es como es y ya está como tienen que aprovechar todo el espacio pero vamos le meten la aplicación de Google Drive y tiene ahí ya tiene espacio le preguntaba antes a Rosa ¿qué servicio se le iba a preguntar ¿qué servicio de streaming puedes poner ahí? porque streaming de música en el Apple Watch Spotify va también en Apple Watch ¿no? sí y Apple Music y en el Android solamente en el Pixel solamente Spotify ¿verdad? ¿no tienes alguno de Google propietarios? bueno claro YouTube Music que ahora lo engloba todo eso está muy bien ¿verdad? los que tengan YouTube familiar también lo pueden disfrutar entonces que bien claro claro bueno pues entonces ya sabéis dos Spotify lo tiene todo los dos y el mío tiene Apple Music y el suyo YouTube Music bueno entonces a ver no deja de ser lo mismo pero cada uno con su ecosistema me falta una última cosita si nos importa las todo el negocio que tiene Apple realmente no es ni venderte el reloj ni venderte la música son las correas o sea Apple ha hecho un ecosistema de correas tanto compatibles como originales que son súper sencillas de cambiar con dos botoncitos en la base del móvil del reloj por debajo y tienes correas de todo tipo desde deportivas de flúor estómeno que es de goma a deportivas de velcro de distintos colores y después ya tienes cuero acero titanio magnéticas desde 10 euros por ejemplo en la casa la carcasa o en Amazon hasta cientos de euros en Hermes Hermes no se dice Hermes nunca sé dónde se le pone el acento Hermes creo que es Hermes no estamos hablando de la tienda esta de moda de la marca de moda es una marca muy exclusiva de firma de trabaja de cuero titanio y acero lo habitual una correa de acero o titanio entre 50 a 100 euros puedes elegir color estilo diseño y el tamaño te lo te dan normalmente un kit para hacerlo tú en casa o te vas a una joyería o relojería y te la ajustan porque excepto los enganches al reloj que son con esos pasadores de que os he dicho de los dos botoncitos en la misma en la misma caja del reloj el resto de correa son el resto de la correa son totalmente idénticos a los que puedes tener en un reloj habitual cierre de mariposa cierre de velcro eso lo hace bien Apple Rosa aparte de esparto macramé lona y pana ¿alguna correa más para el Pixel? pues yo me imagino ahí un Pixel con correa de pan estaría chulísimo la semana santa que hace juego con el tema pues el Pixel lleva dos correas distintas en la caja de distintos colores yo me puse la que primero pillé porque ¿para qué? más me daba mi color y resulta que acerté me pega muy bien por lo visto y bueno pues también también venden correa de Pixel y fuera de Pixel vamos fuera de pero no le he enviado el precio la verdad ¿qué sistema de anclaje tiene en Rosa? al reloj o o puesto en la muñeca al reloj al reloj tiene como dos pivotitos que están por debajo del reloj digamos y se encaja y ahí se queda encajado no son las las normales de un reloj normal ¿no? no sé si lo has visto como un muellecito que tienen como dos pinchitos chiquititos a los lados tú colocas el los dos pinchitos a los lados y saltan como dos muellecitos y se ajustan y no hay quien lo mueva de aquí vamos que esto no esto no se suelta solo ¿eh? sí el sistema seguro Rosa los usuarios de Android que se lo están pensando ¿qué les dirías? que no se lo piensen que sí o que no que no se lo cumplen ¿para qué sí o para qué no? que sí que sí que sí que sí que sí que sí que sí que sí que se lo cumplen como me dijo cierto amigo mío en su momento que está aquí ¿verdad Emi? te quiero yo también te quiero cariño se puede se puede vivir sin reloj pero el día que te lo pones y lo configuras y llevas un día con el puesto y vivías sin él de verdad ¿cuántas lucas cuesta? ¿lo podemos repetir? este el que llevo yo puesto ahora mismo ahora mismo el día que se está grabando esto anda por los 300 el mío al día que estamos grabando unos 559 y bueno bueno si tenéis relojes antiguos por casa Apple suele hacer un trading de te cambio el reloj antiguo si entra dentro de cierta valoración Apple Watch no cualquier reloj pero sí, sí, sí Apple Watch Apple Watch no, no, no un Apple Watch antiguo y no todos el de los chinos del bazar no el que se ha perdido que para eso Apple es lo suyo vamos a ver sí por lo demás pues yo sí que he recomendado a mí me gustaría ampliamente a aquel que quiera tener un reloj y que esté dispuesto a pagar el precio este reloj está mucho más Scandinavian este reloj está mucho más completo que uno que simplemente te da la hora como el de pantallita que habéis dicho antes que se levantaba que mi padre lo tenía yo tenía uno bueno, tenía y tengo que también funcione el día que se me rompa puedo llorar muchísimo lo tengo mucho el de mi padre lo tiene mi hermano y lo sigue utilizando y mi hermano no ve perfectamente pero gracias a eso como era también de abuja pues lo utiliza y el reloj el de botoncito el talking watch son las 15 horas 35 minutos y si dejabas presionar el botoncito salteaba el gallo eso lo he sufrido yo y nunca he podido disfrutar de un reloj en condiciones hasta que no te dio un Apple Watch yo tenía uno de plastiquero que le dabas a la hora y eran son las 8 de la tarde yo decía pero que se ha tomado y mi madre me obligaba a llevarlo y como yo no lo quería llevar el pobre reloj tuvo un accidente irreparable y yo me decía vaya por Dios y yo me decía del cual ahora que mi madre no me oye evidentemente no fue sin querer y se acabaron los relojes parlantes para mí mi madre me llamó cafre y todo lo que os podáis imaginar pero es que aquello no es soportable efectivamente estos relojes son más caros pero dan muchas más funciones que los relojes que tenemos hasta no hace mucho tiempo sí, lo que ocurre es que para la gente que el Apple Watch que es el reloj que tiene Emilia no tiene un precio importante igual que el Ultra que ha dicho que varía 900 euros pero por ejemplo yo conseguí una oferta por la compañía de teléfonos de un S2022 por 200 euros es decir y básicamente tiene lo mismo lógicamente es más pequeño y no se oirá tan fuerte ni nada pero el sistema operativo es el mismo bueno, eso que dice Ricardo eso que dice Ricardo es verdad Apple cada X tiempo tanto en iPhone como en Apple Watch saca una versión SE Special Edition le suelen llamar que tiene el procesador del año a lo mejor la carcasa o la garlinga o como le queréis decir la estructura del año anterior y demás y con las funciones básicas es como el modelo de entrada pero es que realmente lo que os he enseñado de oxígeno en sangre electrocardiograma y monitoreo del ritmo cardíaco primero el ritmo cardíaco creo que lo tiene también el de Ricardo pero esto no lo he utilizado casi nunca una vez lo utilizas cuando lo sacas bien no, este no te hace electrocardiograma lo tiene el tuyo este no lo tiene lo quita y también lo de oxígeno creo que también el oxígeno también te lo quita, ¿no? o sí que lo tienes no, tampoco lo mide tampoco este tiene frecuencia cardíaca frecuencia respiratoria exacto pasos te contabiliza también tiene bastante cuestiones de salud pero estas dos especificas de oxígeno y electrocardiograma no, y creo que ninguno tiene aún porque no lo han aprobado la cuestión de la tensión eso no no hay ninguno que tenga oh, y el día que hay dos hay dos habéis dicho antes que mejoraría sí el monitoreo de la tensión y del azúcar el día que alguien consiga ¡guau, por favor! el día que eso lo hagan en un reloj ya me, vamos me ganan para siempre yo le pondría algo que no me hagan yo creo que es más sencillo que es el termómetro pero el termómetro sin tener que ser el basal sino el termómetro cuando yo quiera eso porque ahora también tengo termómetro para mi ciclo menstrual por lo cual pues ¡ay, qué bien! ya vas con la luna ya vas con el cambio de luna esos días que me siento un poco hinchado esos días que me siento un poco hinchado y enfadado pues ahora que lo estás diciendo, Emi el reloj mío también lo tiene lo que pasa que como te hubieran hecho un mes con él no no puedo es que es es identico es identico es identico se supone que está mal pensado sí, pero sin idea es lo mismo este también tiene este también tiene doble GPS la diferencia entre el Ultra 2 y el mío ese y el mío es que el Ultra 2 tiene mejores especificaciones para el buceo este sí que puede bucearse en aguas profundas hasta 100 metros el Ultra 2 la caja es de titanio mucho más grande un doble altavoz un doble micrófono y un botón para activar una especie como de bocina ¡wow! muy bestia y el cristal de zafira es muy bonito el guarde y el diseño Apple que es una maravilla también da gusto y yo ahora hablando medio en serio hay una cosa que me deja muy tranquila de los relojitos estos que son estas funciones que ojalá nunca nadie tenga que usar pero que te puede salvar la vida que es que te llama en urgencia si él ve que te pega que te pasa lo que sea te dice oye que te has puesto a 200 por minuto ¿estás bien? pues a lo mejor te has puesto a 200 por minuto por algo tocas el reloj y ya está y estás bien pero si no es que llama urgencia y es que llama ¿eh? correcto por ejemplo bueno de hecho yo estaba es que eso te pasa yo estaba en casa el otro día pisé un hueso de cuarip pegué un guarrazo al suelo y automáticamente mientras me estaba levantando me estaba diciendo el reloj he dicho te has caído ¿estás bien? si no respondes en menos de X tiempo llama a urgencia pero es que pero que llama ¿eh? que no juguéis que llama en una situación personal hablando con una persona que quiero muchísimo y que es familiar mío me dijo que si mi padre en paz descansa si hubiese tenido que irme si hubiese tenido un reloj de esto no es que le hubiera salvado la vida ni mucho menos pero mi padre murió de un ataque al corazón y él no sabía que le estaba dando un ataque al corazón porque no le dio el dolor del brazo él simplemente se sentía más cansado el reloj detecta que en X tiempo tienes el corazón muy alterado y no te estás moviendo entonces te saca una alerta y dice oye he notado que en los últimos 10 minutos no te has movido y tienes el corazón muy acelerado ¿estás bien? o quieres que haga un aviso a urgencia y incluso el mismo reloj tiene el botoncito alargado con lo que ha dicho Rosa que si lo aprietas durante 3 segundos te llama a urgencias y sale urgencia directamente por el reloj yo tuve un accidente me atropelló un vehículo hace unos años y al lado estaba un policía pero yo no sabía que estaba el policía al lado yo lo que estaba haciendo era dándole al botoncito urgencias porque yo solamente sabía dónde tenía el reloj en la muñeca él no sabía ni en qué calle me había pasado eso en ese momento cuando una persona tiene un accidente de ese tipo pierde un coche y ya el reloj estaba llamando dice exactamente en el punto en que está para que te localice calle número e incluso ellos ya lo reciben la llamada con esa información sabes lo que te quiero decir es muy útil este lo que hace es que te llama urgencias con la ubicación pero además le manda un mensaje a los contactos que tú hayas configurado exacto igual oye que Rosa está en tal sitio y que estoy llamando urgencias y tú ya pues tus contactos ya a lo mismo aplauden bien o lo mismo van a por ti unos amigos que tenía yo me pasó eso no me di cuenta que le había dado al botón de urgencias ¿vale? llamó urgencias y dije ay disculpe disculpe cuelgo y a los cinco minutos me empiezan a llamar mi hermano mi amigo Javi mi amigo Mario ¿qué te ha pasado? que vemos que estás en dos hermanas y que has llamado urgencias y es que cada cinco minutos nos está llegando el mensajito de que estás porque hayan llamado urgencias y por favor contactos de emergencia se le llama en la pinta interesante es lo que dice Arturo accidente en coche también te lo detecta caídas por la calle esa esa lo que no nos damos cuenta que está haciendo es cuando tiene la magia estos relojes ese monedero constante de que estás haciendo ejercicio y te dice como nota que hay más defectancia entre un latido y otro con lo cual eso se llama recuperación cardíaca te lo da en milisegundos y es una es un dato perfecto para saber si has mejorado en el estrés en el esfuerzo la calentanza la respiración a vivir un poco pendiente de los números y antes has hablado que tenías lo que tenemos toxi entonces si te obsesionas con eso yo tengo tox puede ser un poco para tu salud mental peligroso ¿no? es como todo si tu vida es un tox y tienes algo que te puede ir dando datos pues cuanto mejores datos tengas mejor es tu vida este también tiene una cosa que tenía el Apple Watch que es lo de respirar haz respirar una sesión al día de relajación y yo dije para mí mira me tiene aburrida o hago la sesión de relajación o te iré por la ventana y será la oye pues ya hago mi sesión de relajación de dos minutos que no es gran cosa pero la hago los entrenamientos si tienes compañeros que tienen relojes de este tipo le llegan los entrenamientos puedes competir se va diciendo quién va ganando la competición los puntos que se pueden conseguir hay un máximo de puntos al día hasta mandarte cincarios ¿no? cincarios para paralizar cerrado el anillo sí sí sí de hecho yo vas a permitir que te gane me cago en la leche ¿no? horrible horrible horrible o sea es buenísimo porque es otra forma de entretenerte con tus amigos y bueno yo te voy a agregar a ti Ricardo y a partir de ahí ya vas a tener ya te voy a tener aburrido de deporte por cuestión de actividad que se llama eso porque me tenía machacado y le dije o tú o yo o tú o yo y entonces como tenía otra alternativa yo soy más de ver el sueño por la mañana y quejarme también cuando veo que el sueño profundo no llega a madre mía sí sí sí ah que sí pero es curiosísimo digo yo el día que me dijo una hora veinte digo bravo bravo yo bravo ¿por qué? si a mí el otro día me dijo que había dormido nueve horas era un fin de semana obvio porque si no olvídate pero además es que es una tontería yo reconozco que esto son tonterías pero que te pueden cambiar la vida es lo que ha dicho Emi yo el otro día me iba a levantar era sábado quería hacer cosillas en casa tecnológica eran las siete de la mañana me despertaba y levanto y cuando me estoy empezando a levantar digo no que el reloj te va a decir que has dormido poco y dice es una tontería bueno sí pero era tontería eso que dormía dos horas más tenemos que ir terminando si queréis alguna última conclusión muchas gracias por haber estado con nosotros que ojalá no volváis a llamar que lo hayamos hecho suficientemente bien y que repitamos pronto os lo agradecemos mucho yo me lo he pasado muy bien espero que os lo paséis también escuchándonos nuestro lema ya sabes que es aprender y divertirnos y hoy sí hemos aprendido mucho y nos lo hemos pasado muy bien esperamos que la audiencia también eso es pues para ir terminando Ricardo cuéntanos los medios de contacto pues bueno voy yo con la dirección de correo electrónico gasbotas arroba segatos punto es y Arturo el teléfono de contacto por whatsapp tenemos el teléfono para mensajes de texto incluso de audio de a través de whatsapp si son de audio pues podremos ponerlos también aquí en el podcast a través del teléfono con el prefijo más 34 de España y el número muy bien ahí además de escucharnos por esta plataforma vamos a ver donde estáis ahora también tenemos más plataformas donde nos podéis escuchar que son pues estamos yo creo que en todas o en casi todas estamos en Apple Podcast en Evox en Youtube Spotify y no sé si me dejo alguna por ahí estamos en todas las posibles pues muy bien pues muchas gracias por llegar con nosotros hasta aquí os esperamos en el próximo episodio hasta luego hasta luego Godamy AG me APPLAUSE y sus aparatos ú y sus aparatos uón ? Podcast, podcast, podcast. Podcast, podcast, podcast. Podcast, podcast, podcast. Podcast, podcast, podcast.
Gafotas, cegatos y sus aparatos #16
Fecha: jueves, 3 de abril de 2025, a las 00:00:00
Hablamos de GPS, Galileo, GLONASS, Michibiki y otras constelaciones.
Descubrimos cómo un móvil puede saber dónde estamos con precisión... y cuándo
falla.
Recordamos dispositivos míticos como el CAPTEN, las antenas Bluetooth y los
mapas de Tele Atlas.
Analizamos aplicaciones como Lazarillo, VoiceVista o Blind Explorer, y sus
enfoques distintos: desde rutas con miguitas de pan hasta cotilleo auditivo
urbano.
Reflexionamos sobre errores, apagones satelitales, y cómo no fiarse ciegamente
(nunca mejor dicho) del GPS.
Un episodio lleno de historias, humor, anécdotas y mucha tecnología para que no te pierdas… o, si te pierdes, al menos sea con estilo y bien informado.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
GPS (Global Positioning System - Sistema estadounidense de posicionamiento global por satélite).
Galileo (Sistema europeo de navegación por satélite).
GLONASS (Sistema ruso de navegación por satélite).
Michibiki ()QZSS - Sistema japonés de posicionamiento por satélite (Quasi-Zenith Satellite System).
BeiDou Navigation Satellite System - sistema de navegación chino BDS.
IRNSS / NavIC - Sistema de navegación regional de la India.
Magellan Marca de dispositivos de navegación GPS, especialmente conocida en senderismo y automoción.
VOICEVISTA, UNA APP de iOS PARA EXPLORAR el entorno CON EL SONIDO – TifloEduca.
Lazarillo App - Navegación Inclusiva y Mapas Digitales (iOS y Android)
Vídeo promo Sistema de asistencia a la movilidad EasyWalk – Symbian – Italia.
Sendero Group (sitio web consultivo sin actividad).
Créditos:
Duración: 01:40:10
Descripción detallada del logo de Episodio 16. Sistemas satelitales de navegación para orientarse de oído.
En la imagen, hay dos personajes principales: un hombre y una robot humanoide. El hombre, que es el personaje de nuestro logo, está a la izquierda. Lleva un traje marrón que incluye una chaqueta, un chaleco y pantalones a juego. Su camisa es blanca y está complementada con una pajarita de color rojo oscuro. Su cabello está peinado hacia atrás, con un estilo clásico y bien cuidado. Tiene un bigote grueso y bien definido, que le da un aire retro. Lleva gafas de sol redondas con montura negra, lo que añade un toque de misterio y sofisticación. A la derecha, la robot humanoide tiene un diseño elegante y futurista. Su cuerpo es completamente dorado, con un acabado metálico que refleja la luz. Las articulaciones están bien definidas, mostrando un diseño detallado y articulado. La robot también lleva gafas de sol redondas, similares a las del hombre, lo que crea una conexión visual entre ambos personajes. Sus manos son metálicas y sostienen un teléfono móvil, al igual que el hombre. Ambos personajes están mirando sus teléfonos móviles, lo que sugiere una conexión o comunicación entre ellos, posiblemente a través de la tecnología. El simbolismo de la imagen parece centrarse en la interacción entre humanos y tecnología, representada por el hombre y el robot. En el cielo, hay una serie de satélites flotando, cada uno con paneles solares visibles. Están conectados entre sí por líneas de luz azul, formando una red que simboliza la interconexión global y la comunicación a través de satélites. El cielo tiene un degradado de colores que va del azul profundo en la parte superior al naranja cálido cerca del horizonte, sugiriendo un atardecer o amanecer. El conjunto de la imagen transmite un mensaje sobre la coexistencia y la interacción entre humanos y tecnología avanzada, destacando cómo ambos pueden estar conectados a través de redes de comunicación modernas.
Mostrar transcripción de Episodio 16. Sistemas satelitales de navegación para orientarse de oído.
Transcripción de Episodio 16. Sistemas satelitales de navegación para orientarse de oído.
y sus aparatos podcast Bienvenidos al decimosexto episodio de tu podcast favorito. ¿Qué tal estás Ricardo? Pues muy bien, con 16 episodios, muy contento y encantado de estar aquí ante los oyentes. Estupendamente, y otros cuantos que tenemos ahí ya en cola, preparados o cocinando allá a medias. Estupendamente, esto va sobre las ruedas. ¿Estamos súper ubicados o no estamos ubicados? ¿Cómo vamos ahí de ubicación? Bueno, no sé, yo estoy geoposicionado relativamente, no exactamente, pero creo que puedo mejorar mi posición si utilizo tecnología. Pues a ver si con nuestro invitado nos cuenta estas tecnologías y aprendemos todos un poco más de todo ello. Pasamos a presentarlo. Pues sí, no es un nuevo invitado. Es un invitado colaborador que repite y estamos encantados. De que esté aquí con nosotros. Y nosotros que Enrique Varela. Enrique, bienvenido. Hola, buenas. Yo encantado también de estar con vosotros y de no ser nuevo. Porque yo mayormente soy viejo últimamente. Es lo que me pasa. Pero bueno, no sé en cuál otro episodio estuve, pero me alegro de repetir. Y ya sabéis que yo contar lo que sé es mi afición vital. El mismo episodio que el mamá. El mambo. En Number 8. En Number 8. Pues 8 y 8, 16. O sea, muy bien. Pues nada, así contando lo que uno sabe, pues todo el mundo sabe lo que uno. Parece una tontería, pero está muy bien. Muchas gracias, Enrique, por acompañarnos otra vez y esperemos que sean muchos más. Y hoy el episodio va de GPS. Cuéntanos, ¿qué es esto de GPS? Global Positioning System. Bueno, más que de GPS, vamos de sistemas de geoposicionamiento. Que todo el mundo conoce. Todo el mundo conoce de GPS. Hace tiempo yo no había alguno cuando los típicos negacionistas de la tecnología o que cuando no lo entienden decían que era el gilipollas que se pierde siempre. Que es justo lo contrario. Pero vamos de eso, de todos los sistemas de geoposicionamiento. De saber por medio de tecnología dónde demonios está uno en la Tierra, pero con errores de lo más mínimo posible. Y si lo aplicamos a las personas ciegas y con definitiva. Con baja visión, yo creo que a todo el mundo le sirve bien, pero a nosotros mucho más. Cuanto más situados estemos, o sea, cuanto menor sea el error, estamos aquí y es aquí, pues más mejor. Y entonces eso ha ido avanzando y efectivamente antes era menos preciso. Cuando en la época de lo que digo yo de los taxistas, pues era eso. Era que los taxistas, por lo menos, no sé, supongo en todas las ciudades, pero en Madrid la gente recordará que iban con... Sus guías aquellas kilométricas, eran libros enormes, gordísimos, para buscar las calles. Y bueno, depende de dónde cayera y tal. Y no les gustaba nada el GPS porque parte del taxímetro se iba mientras buscaban y todo eso. Y entonces les caía muy mal el GPS. Y uno me dijo, eso es una mierda, esos gilipollas que se pierden siempre, eso no sirve. Yo no lo pondré nunca. Y así, pero bueno, cosas, anécdotas. Este es el más llamado GPS porque GPS son dos partes, ¿no? Por uno está el posicionamiento. El punto en sí que te dice única y exclusivamente dónde estás, el punto en el espacio en el que te encuentras. Y luego está la cartografía, cómo llevarte de un punto a otro y todo eso, que eso ya es otra cosa, ¿no? Lo que pasa es que a todo le llevamos GPS. Pero bueno, para empezar por el principio, cuéntanos técnicamente en qué se basa el GPS, cómo llegan en nuestros dispositivos que tenemos en la mano, en el bolsillo, cómo pueden llegar a saber en qué posición estamos. Porque, bueno, he explicado un poco para civiles, para el Común de los Mortales, porque esto puede complicarse un poco porque es una de las aplicaciones prácticas, ¿no?, de la teoría de la relatividad de Einstein. Decimos mucho GPS porque es el más popular. Es como cuando decimos un tupper, ¿vale? Porque es una marca de, ¿cómo se llama?, de recipientes herméticos. Pero GPS es el sistema de posicionamiento, es verdad que fue el primero, norteamericano o estadounidense, o como dicen ellos, americano. Yo prefiero decir norteamericano porque hay mucha más América, pero bueno. Y entonces le llaman GPS a ese, pero está bien llamado, además, yo creo que de los nombres de todos. Pues está el japonés y sí, sí, bueno, hay más, incluso el de la India. Después si eso lo repasamos, pero GPS sí que está muy bien llamado porque, aparte de que pudiera ser un nombre comercial, pero sí que es Global Positioning System, que es sistema de posicionamiento global. Es decir, en cualquier parte del globo que es el mundo, te puede posicionar. ¿Y cómo funciona? Pues bueno, se lanzan satélites. Sabéis que hay satélites por ahí dando vueltas cada vez más alrededor de la Tierra, bueno, alrededor o no alrededor, eso sería bueno que lo conocierais, como dices tú, los civiles, que hay satélites que siempre están en el mismo punto, encima de nosotros, con un azimut concreto, es decir, a unos grados concretos, es decir, si miramos por la ventana y lo vemos, puede estar a 30 grados, en nuestra cabeza haría un zoom, de un ángulo de 30 grados, o de 60 si está más alto, como si estuviera el Sol un poquito más alto, o de 90, o de levantar la cabeza del todo y está en el Zenith, arriba, justo como cuando el Sol en el Ecuador a las 12 de la mañana, pues arriba, arribota del todo como una lám Roberta en el techo. Eso es un poco el azimut, también, bueno, no es exactamente eso azimut, pero sí que es los grados a los que está el satélite. Y puede estar geoestacionario o no, es decir, dar la vuelta a la vez que la Tierra, es decir, siempre, siempre, siempre, siempre, siempre, siempre, siempre, siempre, por lo menos Celaí. Siempre, siempre ahí, o puede tener una órbita, puede ser elíptica, o puede ser, bueno, puede tener una órbita que pase, pase por encima de nosotros, a la inclinación que pase, pues con una frecuencia concreta. Bueno, como había satélites que se lanzan con muchos propósitos, sobre todo militares, que llevan cámaras, que llevan cosas, que llevan un montón de historias, unas cosas de las que llevan, las que nos vamos a fijar para este tema, son relojes atómicos, que son relojes, que, bueno, otro día podríamos hablar de ellos, muy complicados, pero son muy exactos, de mil millonésimas de segundo, son los que miden el tiempo de la forma más precisa posible, y por otro lado saben dónde están, con respecto por su órbita y tal. Entonces, hay satélites que, generalmente, bueno, algunos están dedicados y otros, ahora mismo ya, están para otras cosas, pero también hacen eso, nos están diciendo constantemente, soy el satélite tal, estoy aquí, y te mando esta señal a las tal, no a las 4 y 10, no sé qué, es una medida atómica, pues es un tiempo, una cifra única, que representa un momento en el tiempo, una cifra atómica, no, una ciframas concreta, un número, que significa el tiempo atómico, que no son las 4 y 10, ni las 5 y 20, sino a lo mejor es 7000, no sé qué, etcétera. Eso es, sólo esa vez se va a producir en la vida, y es ese momento. Bueno, y eso es todo. Bueno, nos vemos en el próximo vídeo. Hasta luego. Entonces, van diciendo eso constantemente. Y entonces, hay receptores abajo, ahora mismo nuestros propios teléfonos móviles, etcétera, que tienen receptores de esa señal, es una señal de radio, muy precisa, y que reciben esa señal, y dicen, coño, este satélite no sé qué, me ha mandado, que está ahí, en tales coordenadas, y que ha mandado una señal en tal momento. Mi reloj, que es de cuarto, y que es mucho menos exacto, tiene más error, aunque es mucho más exacto que los demás, y que es mucho menos exacto, y que es mucho menos exacto, y que es mucho menos exacto, y que es mucho menos exacto, y que es mucho menos exacto, y que es mucho más exacto, y que es mucho más exacto, y que es mucho más exacto, y que es mucho más exacto, que los relojes de antes, pero bueno, tiene su rollo. Pues dice que han pasado no sé cuánto, no hablemos de, bueno, si queréis lo pasamos a minutos, ha pasado tres segundos. Ostras, pues esto es que el satélite está a no sé qué distancia. Bueno, pues ya sabe a qué distancia está un satélite. Si esto lo recibe de uno, no se puede hacer nada con ello, porque sabes que estás, bueno, a tal distancia de un satélite y ya está. Si lo recibes de dos, ya se puede trazar un círculo, porque los dos, como no se puede, porque están en el mismo sitio, no te van a mandar la misma posición. Te van a mandar un tiempo distinto y una posición diferente. Y dices, ah, caramba, pues estoy en un círculo que tiene este radio, pues tengo que estar entre Málaga y Santander. Yo creo, joder, son muy grandes, bueno, vale. Si recibo tres, ya puedo calcular más y puedo ya saber que estoy en un punto más o menos con bastante error. Pero ostras, dices, no, no, joder, estaba en Málaga. Málaga, no, no, no. Bueno, bueno, bueno, bueno, bueno, bueno, bueno, bueno. Y más o menos, y muy aproximado. Porque lo que se calcula es la velocidad de la luz, claro. Y la velocidad de la señal. Y dices, bueno, pues ya, pum, estoy aquí. Y si ya recibes cuatro, que es lo mínimo que se puede recibir, hace lo que llaman la trilateralización, que es, con el cuarto ya se puede ajustar el error de tu reloj, del reloj del receptor. Es un poco difícil de explicar, pero con la cuarta y con una ecuación ya de cuatro incógnitas el tipo ya calcula, o sea, el tipo que es, en este caso, es tu teléfono. Ya calcula y dice, si tengo estos tres que me han dicho que están donde están, con esta distancia, y además mi reloj tenía una deriva no sé qué, pero el tiempo atómico exacto es tal, ostras, no hay más narices de que estoy en, no en Málaga, sino en Málaga, en la calle no sé qué número tal. Ah, caramba. Y ahí ya lo ajusto. Eso es un poco incomplicado. Las máquinas son muy complicadas hablando, ¿no? Pero es un poco incomplicado. O sea, pero simplificando un poco lo complicado que es, si lo pensás que son las máquinas, cómo te sitúan, cómo tu propio teléfono puede saber dónde está recogiendo señales de al menos cuatro satélites. Esto ocurre igual en todos los sistemas. Tres es menos exacto, dos es muy inexacto, uno no sirve para nada. De hecho, un teléfono que viera uno solo ni siquiera te daría posición, te diría que no tiene cobertura. Hoy por hoy, antes, cuando empezaron a salir estos sistemas, habrá gente en la audiencia que recuerde, pues no sé, el Capten o los primeros TomTom, que eran, que eran GPS, bueno, vamos a llamarle como se le llaman vulgar GPS para guiarnos o para saber dónde estábamos, pues te hablaron de cobertura. Ah, pues veo tres satélites. Ah, pues no puedo porque, puh, pues es que ahora, pues no hay, ¿no? Entonces, hoy ya esas cosas se obvian y o la hay o no la hay. Y si la hay, es que hay algo. Y al menos cuatro satélites que se están viendo y que te dan una precisión, pues mira, yo ahora navego mucho con el Voice Vista por la calle, con mi perro por medio del bosque, y se dan precisiones de dos, tres, cuatro metros que, bueno, todavía para una persona ciega, chocarse con un poste no llega ni llegará nunca porque el sistema de aproximación final no tiene que ser GPS, sino algo que te diga, ¡eh, cuidado!, pero vamos, para saber dónde estás perfectamente o marcar puntos te da perfectamente. Y claro, si vas en movimiento, como los satélites constantemente, no sé a qué frecuencia, pero están mandando esa historia, ¡oye, soy el satélite y dale, estoy aquí, lo he mandado en este tiempo! Y te lo mandan cuatro y estás viendo al menos siempre cuatro, pues tu aparato sabe calcular dónde estás. Lo demás viene después por añadidura, dónde estás, bueno, después habría que hablar dónde estás, acaba siendo una coordenada, grados, minutos, segundos, longitud y latitud. Sabéis los que eso, latitud. Los que eso, la Tierra dividida en cuerdecitas, es decir, tenemos meridianos y paralelos. Los paralelos van paralelos al ecuador, el ecuador es la raya del medio, y los paralelos hacia el polo norte, hacia el polo sur. Y los meridianos, pues en el otro sentido, en el sentido de arriba a abajo. Hay uno que pasa por, dicen que por Cádiz, pero no sé, bueno, pasa por Valencia, por la provincia de Valencia, por Castellón, creo. Ahí sería probablemente el cero. Y Greenwich, por supuesto, lo llaman meridiano Greenwich porque sí que pasa totalmente en esa ciudad. Y esa marca, aparte de la parte horaria, el cero, pues es el cero. O sea, si uno se mueve hacia la coruña, hacia el oeste, pues van siendo números negativos. Y si se mueve hacia el este son números positivos hasta que llegas al 180. Y en vertical, pues igual, el ecuador es cero y si vas hacia los polos, pues más o menos. Hacia el polo sur menos y hacia el polo norte más. Y al final acaba siendo en grados, minutos, segundos. Pues cuanto más líneas traces, claro, los normales es el ecuador, los dos paralelos, el trópico de cáncer, el de Capricornio, que son los trópicos que van paralelos al ecuador. Y en meridiano no sé si pasa algo parecido. Está el de Greenwich y yo no conozco calles así limitadas. Pero bueno, son líneas imaginarias y puedes trazar todas las que quieras, cuanto más preciso seas, más sabes dónde está. Entonces una coordenada es eso. Yo estoy en la tal de Greenwich. Yo estoy en la tal y tal en longitud y en la tal y tal en latitud. Y eso es lo que te acaba dando es que tienes que estar aquí. Cuando yo era hippie pequeño y paseaba por Menorca sin nada, porque no había nada, lo hacíamos con mapas militares, una brújula y el sentido común. Y encontrabas un pozo, que era lo que se buscaba cuando andabas por ahí de rule, pues con un error de 100 metros o por ahí. Y tenías que buscarlo. Y ahora, pues la verdad es que se encontraría con nada, porque la precisión es mucho más grande. No sé si lo he explicado bien, pero un poco el meollo de la parte técnica está ahí. A partir de ahí es donde ya se pueden hacer guías, o sea, cómo guiarte o en la montaña saber en qué accidentes geográficos estás, o en el campo, en el mar, pescar. En fin, a partir de ahí, sabiendo dónde estás y a dónde quieres ir, también se puede hacer una ruta, etcétera, etcétera. Eso viene después. La base es un poco eso que entiendo que es un poquillo complicada. Pero no sé, yo creo que he tratado de explicar lo mejor que me ha salido. Está bien explicado, Enrique. Vamos, por lo menos yo lo he entendido, con lo cual supongo que lo habrá entendido casi todo el mundo. Porque es una circunstancia que no se conoce, pero explicada como tú lo has explicado, pues tiene todo su sentido. Yo solo me quedó una duda. Vamos, sé que el sistema o la constelación de satélites GPS se están emitiendo. Soy tal satélite, estoy en tal punto, es tal hora y es una información. Son captadas por receptores. Supongo que irán drones, irán vehículos en todo tipo de, bueno, de dispositivos. Pero me voy a centrar en los terminales móviles. ¿Tú cómo distingues y cómo recibes la señal del satélite o de los distintos satélites? Porque ahora estamos hablando de GPS. Pero parece ser que existen otros sistemas. Existen otro tipo de satélites de otras naciones, de otros continentes y demás. Y son compatibles, es decir, en muchos casos pueden convivir. ¿Cómo el receptor distingue eso? Primero, son distintas frecuencias. Son frecuencias de radio y en principio un receptor, una antena que va dentro de tu teléfono. Ahora ya no se ven, ¿no? Como en los móviles de antes que tirábamos de la antena. Ahora ya sabéis que a la física se la engañan. La antena está dentro. Pero es una cosita de... ...pequeñísima que ni la ves. Bueno, pues si la antena de nuestro receptor está preparada para las frecuencias de GPS, recibirá solo la constelación de GPS. Y la constelación de GPS no recuerdo ahora cuántos satélites tiene, porque esta es otra historia que, bueno, que habría... ...que yo ni me he documentado porque creo que no es exactamente... O sea, lo que es interesante de esto es... ...no que yo me sepa de memoria cuántos satélites tiene la constelación GPS. Y cuántos la Galileo. Y cuántos la China. Y cuántos la rusa. Las GLONASS. Y, pues, pero... ...cuantos más se tengan, lógicamente... ...la precisión va a ser... ...no la precisión, sino la posibilidad de que en cualquier parte del mundo tengas señal... ...tengas señal de al menos cuatro... ...va a ser más grande, ¿no? Entonces, bueno, pues... ...GPS me parece que tenía treinta y tantos. Unos son geoestacionarios y otros tienen órbitas. Porque también están dedicando satélites que sirven a otros propósitos... ...a también emitir señales GPS. Y entonces se juntan. Y después, si lo ponemos a complicarlo... ...también está que las aproximaciones ahora también se hacen... ...los teléfonos. La hacen con las antenas de los repetidores de la señal 4 o 5G. Porque una antenita de 4G o 5G con la que tú te comunicas por teléfono... ...también te está diciendo... ...le está diciendo a tu teléfono... ...constantemente, oye, antena tal y estoy aquí. Y entonces, si eso lo juntas también con lo que está recibiendo el satélite... ...más precisión tienes. O... ...y perdón un paréntesis, ahora vuelvo... ...no voy a dejar de contestar creo bien a la pregunta... ...o te pasa lo que en mi barrio que han puesto un repetidor de GPS... ...de mierda, perdón que lo diga así... ...y todos los coches y todo el mundo se pierde en un círculo en mi barrio... ...o no hay cobertura GPS en determinada parte de mi barrio... ...porque no se sabe a quién se lo va a dar. Y bueno, si no hay que pedir que lo arreglen... ...los taxis no pueden llegar a tu dirección y no sé qué por qué... ...porque a veces los teléfonos y los programas de teléfono... ...prevalecen. La antena con el satélite puede haber errores... ...también la antena de aquí de Santa Eugenia... ...y les lleva a otra calle. Y pasa hace tres años, antes de la pandemia... ...pasa y no la arregla nadie. Pero bueno, antes había una antena en un cerro... ...cuando había 4G y 3G... ...y esa la quitaron porque dijeron que la de 5G era mejor... ...y la han puesto encima de una casa o no sé qué... ...y bueno, todo el mundo en aquel círculo... ...vamos, hasta el punto que tú quieres salir de mi casa... ...y poner el GPS... ...y el Google Maps no te coge... ...o sea, no sabe llevarte hasta... ...le tienes que ir tres manzanas más para allá... ...y pedir la dirección y eso ya funciona. O sea que... ...y bueno, volviendo a lo que preguntaba... ...que cómo lo recibo... ...bueno, recién por radio... ...¿qué ha pasado? ...que cada vez... ...por unas señales de radio... ...cada vez los sistemas están cooperando más... ...y haciéndose compatibles... ...y cada vez los teléfonos ya tienen... ...por ejemplo, a partir de... ...ya ni se dice, pero a partir de no sé qué modelo de iPhone... ...la antena que llevan también recibe la constelación Galileo... ...que ese es el nombre de la constelación europea... ...Europa tuvo su propio proyecto también... ...tiene su propio proyecto de... ...cuando ya existió el GPS después... ...cada... ...ha habido gente que ha dicho... ...¿y por qué vamos a depender sólo de los norteamericanos? ...¿quiénes? ...por cierto... ...hasta los años 2000 se introducían errores... ...a posta... ...porque era un sistema que se suponía militar... ...y entonces no querían... ...y en determinadas zonas y en determinados momentos... ...pues no querían... ...que la gente se pudiera meter en determinados sitios... ...o lo que fuese... ...la cosa que... ...que hasta que ya se pusieron de acuerdo... ...y ahora dan los datos exactos... ...los propios satélites mentían... ...claro, porque si un satélite dice soy tal... ...y estoy aquí... ...pero no estoy aquí... ...que estoy un poquito más al lado... ...pues ya los cálculos empiezan a fallar... ...bueno, ahora esto ya se está... ...vamos, está bastante arreglado... ...entonces se hacen más compatibles por un lado las constelaciones... ...por ejemplo el sistema japonés es muy compatible con el norteamericano... ...el japonés tiene una peculiaridad muy curiosa que... ...que bueno, puedo hacer un paréntesis y contaroslo... ...que es eso, que es que... ...uno de los problemas de los satélites... ...hablábamos antes de los grados a los que puede estar... ...un satélite, es decir, uno mira por la ventana... ...si está despejado porque no hay casas enfrente... ...y el satélite, imaginaos un sol... ...está ahí como a la altura de nuestra nariz... ...pues muy bien, pero si estás en Nueva York... ...son señales que van... ...son de onda muy corta y van... ...van muy... ...muy direccionales... ...y hay 40.000 edificios... ...ese satélite no le ves... ...y es muy fácil que en las estaciones... ...muy fácil que en las calles muy estrechas... ...o muy anchas pero con edificios muy altos... ...y pasadas siempre, hay rebotes de señal... ...que despistan y que influyen en los cálculos... ...y Japón una de las cosas que ha hecho es poner... ...satélites geoestacionarios... ...o sea que van, siempre están encima de Japón... ...o de un punto de Japón... ...giran a la vez que la Tierra, pero además en el Cénit... ...arribota del todo... ...con lo cual la señal baja y aunque estés... ...en Osaka, allí debajo de la calle... ...con edificios no sé cuántos, esa señal si te llega bien... ...y precisa... ...entonces, bueno esto ya son detallitos... ...pero... ...pero muy importante porque cuando hay sombra... ...por ejemplo en este caso la altura de los edificios... ...las calles estrechas sería otro... ...problema ¿no?... ...el tener un satélite... ...geoestacionario... ...trabajando para ti en conjunto... ...con el GPS... ...pues te da valor y te da sobre todo precisión... ...que en este caso es lo que ellos buscarían... ...porque andarían algo perdidos... ...Mitsubiki se llama el sistema... ...Mitsubiki sí... ...significa guía... ...y bueno pues... ...ya digo cuanto más... ...acuerdos hay entre todos... ...está por una parte la compatibilidad de las antenas... ...de tu receptor... ...en este caso si queréis nos ceñimos a los móviles... ...para ir yéndonos a lo que usamos todos los días... ...cuando ponemos que me quiero ir para allá... ...y o que dónde estoy... ...ojo que eso también a veces lo utilizamos poco... ...pero yo donde estoy se lo pregunto al reloj muchas veces... ...donde estoy... ...donde estoy... ...donde estoy... ...donde estoy... ...donde estoy... ...y... ...si a veces que estás perdido por ahí paseando... ...y dices ostras... ...y entonces dependen las antenas del receptor... ...y también de la compatibilidad... ...los acuerdos que van haciendo... ...entre todos los sistemas, todas las constelaciones... ...para estar de acuerdo entre ellas que cada vez... ...en principio son más... ...pues bueno, pues puede venir la política... ...y se pueden pelear... ...y a lo mejor ahora me desconecto yo de GLONASS... ...pero vamos de momento no ha pasado... ...porque ahora está mejor esa parte... ...y la de los... la del hardware... ...nuestro que tenemos en la mano pues también... ...claro, o sea cada vez se... ...se pueden leer digamos más señales de más satélites... ...con lo cual ya no nos importa... ...tanto si recibimos de GLONASS... ...o de GPS o de... ...sabes o de... ...sino que sabemos dónde estamos... ...pero si nuestros receptores son mejores ¿no?... ...nuestros móviles y demás son... ...más inteligentes y... ...tienen mejores relojes internos y demás... ...y somos capaces de... ...captar más satélites... ...con más precisión... ...y más sistemas... ...porque la... ...precisión no mejora porque solemos andar por unos 5 metros... ...en el mejor de los casos suele decir... ...no debería bajar esto hasta unos... ...centímetros, sería mucho más útil... ...bueno, de hecho... ...de hecho en aplicaciones militares... ...sí que se baja eso... ...o sea ahí sí que hay diferencia entre... ...entre civil y militar como suelen decir los... ...los informáticos... ...no, esto es para civiles, esto es para militares... ...no, sí se puede... ...de hecho se puede, pero... ...pero no se quiere... ...en la campaña de promoción de Galileo... ...eh, uno de los slogans que decían era... ...que podía ser 5 veces más preciso... ...que GPS... ...no, y lo es, de hecho, y lo es... ...¿5 veces más preciso?... ...sí, sí, en ese, sí, sí... ...con menos esfuerzo, con menos... ...con sólo 4 satélites... ...es 5 veces más preciso que... ...según sus estudios, que GPS con... ...satélites, ahora, después lo que... ...te dan... ...de precisión, eso ya es otro externo... ...pero no se nota para nosotros en la práctica... ...no, no, no se nota, no... ...hombre, no se nota, que a lo mejor... ...si estás conectando Galileo... ...recibes antes... ...hombre, los GPS esto... ...no se suelen perder, porque después, bueno... ...ya si vamos bajando a lo cotidiano... ...montado todo este sistema... ...¿qué podemos hacer con esto?... ...y diría yo, ¿qué se puede hacer con esto?... ...pues eso, saber... ...primero, hacer cartografía digital... ...eso, para la gente que no os lo hayáis... ...planteado, pues es... ...mapas, que en vez de estar en un papelico... ...están metidos en ficheros... ...y se sabe cada punto... ...de cada calle, de cada montaña... ...de cada accidente geográfico, de cada meandro... ...de cada río... ...se sabe en qué coordenada está... ...con precisión, entonces... ...leyendo lo que te dice... ...tu teléfono... ...que ha visto 4 satélites... ...y te dice que estás aquí, y comparándolo con... ...el mapa, dice... ...ostras, esto es Betanzos, o sea, no puede ser otra cosa... ...tiene que estar en el Ayuntamiento de Betanzos... ...no hay otra, eso sí que es lo que hacía... ...yo en Menorca, vamos... ...coges una vez que tienes las coordenadas y la brújula... ...y no sé qué... ...pues esto, recorres el mapa y dices, esto tiene que ser esto... ...nosotros nos equivocábamos más... ...porque el cálculo era más vasto... ...lógicamente, pero... ...pero es eso... ...te sitúa ahí, y entonces... ...sabe dónde estás, eso ya sería... ...la cartografía digital... ...hay una cosa muy bonita de cartografía... ...digital, que bueno, había antes... ...aplicaciones mucho más divertidas, porque ahora... ...lo que llamamos popularmente... ...GPS, se dedica mucho a la conducción... ...afortunadamente, últimamente... ...se está orientando más ya a lo pedestre... ...pero era muy a la conducción... ...y se perdieron mucho... ...yo cuando empecé a trabajar en esto, a final de los 90... ...eh... ...cosas para... ...para personas... no, había mucho Magellan... ...y muchos, muchos receptores... ...que tendían más... tú ibas por ejemplo... ...en el tren de Coluña a Madrid... ...o de Madrid a Coluña, y te contaban más que dónde... ...estabas, que también... ...que está el cerro no sé cuántos... ...que habías cruzado el río no sé qué... ...que te contaban más los accidentes... ...geográficos, que a la gente... ...de montaña y eso le sigue interesando mucho... ...y a la gente que es de senderismo... ...y ha desaparecido mucho... ...porque se dedicó más como a las guías... ...de conducir, que te tienes por la calle... ...y tal y cual, pero ir por encima de la tierra... ...y saber dónde estás... ...o qué cosas hay, o que está la cuevecilla... ...del fantasma... ...pues es interesante... ...y eso sí se puede saber... ...y entonces una cosa muy bonita que... ...yo hice alguna vez, no me acuerdo con qué aplicación es... ...proyectar un mapa de... ...del siglo... ...no me acuerdo qué siglo era... ...siglo XVIII así de Madrid, del centro de Madrid... ...sobre una... ...aplicación GPS, entonces tú ibas... ...en un taxi y sabías lo que había en el momento... ...en el siglo XVIII donde tú estabas andando... ...muy divertido... ...porque... bueno... ...es un juego que se puede hacer... ...los sitios están localizados, la Puerta del Sol... ...o el Palacio de Cibeles... ...o yo qué sé, o cualquier sitio... ...un punto, era claro y a partir de ahí... ...tú trazas el mapa que había... ...y efectivamente... ...puedes saber qué había ahí... ...cuando hace tres siglos... ...hombre, pues un viaje en el tiempo, ¿no?... ...sí, sí... ...el tiempo y el espacio en este caso, porque sabrías... ...exactamente dónde estás... ...eso depende ya de la cartografía y de los mapas que se utilizan... ...en cada momento para... ...se da esa señal GPS... ...esa geolocalización... ...la cartografía y los mapas que se pueden utilizar... ...para este tipo de cosas, ¿no?... ...y además esto ha ido evolucionando una barbaridad... ...yo me acuerdo con los más viejos del lugar... ...hace mucho tiempo... ...me acuerdo con mi Nokia N70... ...que no tenía GPS todavía... ...y que había una aplicación que te... ...geolocalizaba por... ...como he dicho antes, que iba triangulando por las antenas... ...de telefonía móvil, se llamaba GeoMinder... ...que era para ponerte recordatorios... ...y cuando llegabas a lo mejor... ...no tenías mucha precisión... ...y era muy curiosa... ...pero para decirte dónde estaba... ...una parada de autobús o cosas así... ...tenía su utilidad, cuando te acercabas... ...te saltaba un aviso... ...y me acuerdo que le escribí al autor de la aplicación... ...dije el uso que... ...le estaba dando y yo creo que se le dieron... ...los ojos como platos... ...porque nunca se lo imaginaba... ...además era muy accesible la aplicación en Symbian... ...y me dijo que le pasara a todos los... ...contactos de decir... ...que les regalaba la licencia gratuita... ...a todos ellos... ...y estuvo muy bien durante un tiempo... ...cuando estaba aquella aplicación estuvo muy bien... Yo jugué con aquello sí, porque no leía... ...satellites, leía sólo... ...las celdillas, bueno los repetidores... ...los repetidores de telefonía móvil... Repetidores y luego hubo... ...otros que integraron aquellos... ...puntos wifi que tenían... ...era como un sistema que había donde también... ...georreferenciaban el punto wifi... ...particulares... Realmente se podría hacer... ...el problema de esto también... ...que no lo hemos citado vamos donde pierdes... ...todo es en túneles... ...en cuevas y en el interior... ...dentro de los edificios... ...porque no hay señal GPS... ...o es... ...no es suficiente porque lo que te esté entrando por una... ...ventana como comprenderéis... ...no llega para cuatro satélites a lo mejor... ...el horizonte de una ventana ves uno... ...o uno y medio o dos... ...o dos o tres pero para ver cuatro... ...y además tendrías que estar pegado a la ventana... ...pero en medio del salón... ...el impacto es enorme no ves nada... ...si la señal de Bogotá y demás pues tampoco... ...es una señal incuble... ...y los que hayáis ido en coches... ...que sois todos... ...sabes que en los grandes túneles... ...pues ahí se acabó la historia... ...una oscuridad... ...la cuestión es ¿es transparente o... ...o no es transparente... ...el número de satélites en el que te conectas... ...si tú sabes en cada momento si estás... ...a tres, cuatro, cinco... ...es lo que te digo eso antes que era... ...más de moda... ...era más antiguo... ...es un poco como ahora con la... ...sin pasarnos eh... ...como ahora con la inteligencia artificial... ...que estamos todos jugando con siete... ...ocho, nueve cosas a la vez... ...que qué modelo es... ...estamos en el despegue de la... ...llegará un momento que nos dará... ...exactamente igual... ...que cogeremos el teléfono y... ...tú inteligencia chati dónde estás no sé qué... ...y te dará igual y con qué me he conectado... ...bueno pues esto era igual... ...sistemas como por ejemplo el Captain aquel famoso... ...esos ciegos recordarán que fue el primero... ...que por cierto traje yo a España... ...a raíz de... ...de anécdotas que os contaré ahora... ...de trabajar con estos temas de... ...interfaces para personas ciegas para cómo guiarlas... ...pues... ...si que te contaba cuántos satélites... ...veía... ...es que ahora es irrelevante porque si no hay... ...si no hay condiciones... ...para que te guíe te dice que no hay señal... ...para qué te vas a andar preocupando... ...esto es lo de siempre... ...ahora mi pareja pues... ...que tiene un Toyota Corolla pisa... ...y no tiene marchas y anda y no sé qué... ...conduce muy bien porque conduce desde hace muchísimos... ...años y sabía conducir... ...pero a ella le da igual y sobre todo no abre el capó... ...jamás si no sabe lo que hay dentro del motor... ...yo sí porque soy un friki pero ella no... ...y ya da igual y aquello funciona... ...si en los primeros GPS esto... ...se sabía se conocía más... ...los primeros eran incluso en estos Nokia... ...N70 en estos antiguos que no tenían... ...receptor de GPS había unas cajitas externas... ...que se conectaban por Bluetooth... ...por Bluetooth... con la PDA... ...y teléfonos yo también tenía varios... ...y... ...y ahí sí que te decían... ...con cuántos satélites estabas conectado y tal... ...yo los ponía en la guantera del coche... ...era todo más artesanal... ...y te decía cuántos satélites estaba viendo en cada momento... ...tardaba un rato además en conectarse... ...no era ni mucho menos el mi dato... ...me costaba un poco... ...un rato... ...claro es que esta labor... ...que tenías que hacer y esos... ...tiempos y esa información ese feedback... ...que te iba ofreciendo... ...pues en el fondo te hacía... ...coparticipar... ...en ese proceso... ...ahora que es todo maravilloso... ...que no es transparente pero funciona mejor... ...que antes... ...yo siempre tenía la sensación como si... ...mi móvil no tuviera un GPS... ...como aquel... ...porque para mí no existe... ...es que no lo tiene como aquel... ...ya te dice dónde estás y tú ya no te preocupas... ...ya ya... ...dentro pasa lo mismo o mejor... ...y él sí que... ...sabrá cuántos satélites ve para decirte si... ...tengo o no tengo cobertura pero tú ya... ...no te enteras... ...es como lo de Apple que dice... ...hoy el teléfono me ha gastado mucha batería... ...los entendidos en Apple te dicen que ha habido... ...una no sé qué y te están... ...haciendo unos procesos de actualización... ...no es transparente al usuario pero Apple te cuida... ...bueno pues el GPS también... ...el GPS también te cuida... ...incluso las aplicaciones de navegador... ...probablemente ni tengan acceso a esa información... ...es una API del sistema operativo que... ...te dice las coordenadas y ya está. Y se acabó, sí, sí, sí... ...por cierto... ...¿hay alguna forma de llevar el terminal... ...móvil para que... ...sea más efectivo a la hora de captar señales... ...porque habitualmente lo llevamos en un bolsillo... ...o dentro de una funda... ...o en una maletita... ...donde sea... ...ahí supongo que estaremos quitándole mucha fiabilidad... ...¿no? Yo creo que es bastante irrelevante... ...salvo que lo envuelvas en Albal... ...pero quiero decir si no... ...es bastante irrelevante porque... ...porque ahora ya digo, no es sólo el GPS... ...es que también está mirando las antenas... ...es que también... ...mira tu movimiento... ...porque los teléfonos están llenos de... ...acelerómetros... ...saben en qué posición están... ...tienen la brújula... ...y todo eso combinado... ...la verdad que te da una precisión... ...basándose en lo que le manda el GPS... ...pero después aproximando mucho más... ...porque está viendo cosas como eso... ...como las propias celdas... ...de transmisión de... ...de datos de los teléfonos... ...y también sabe cuál es tu movimiento... ...y no sé qué... ...hombre, sí, puede influir... ...pero yo creo que no es relevante... ...hombre... ...que lo lleves en una mochila en la espalda... ...o lo lleves en un bolsillo... ...en la camisa, en la teta izquierda... ...así como son muy direccionales... ...y efectivamente tienen ese problema en las ciudades... ...pero lo van a tener, lo lleves donde lo lleves... ...y si llegan... ...así se reciben... ...y si se reciben se interpretan... ...y si se interpretan... ...se calculan... ...quiero decir que no... ...puede tardar no sé qué medio segundo más en calcular... ...pero vamos, yo desde luego... ...creo que ahora no se nota... ...con sistemas como aquel CapTem... ...pero sí que era muy... Sí, en plan orden Enrique... ...porque nosotros lo conocemos y creo que lo hemos tenido los tres... ...tú supongo que por centenas... ...aunque no era el último... ...estaban todos tuyos... ...almacenaos sí... ...y bueno... ...explícanos un poco qué era aquello de... ...CapTem porque igual hay... ...personas que escuchan y no saben lo que es... ...bueno, yo lo que... ...quizá para llegar ahí... ...sin ir muy largo... ...yo hacia el año... ...99... ...empecé a interesarme en este tema... ...hablé con gente que también estaba... ...interesada, digo en este tema... ...como siempre, yo cuando sale una tecnología... ...digo, jo esto a mi gente... ...que mi gente pues es... ...la gente mayor o la gente que no ve y tal... ...en este caso la gente que no ve... ...como podemos utilizar esto para guiar bien a la gente... ...que no ve... ...y para darle más autonomía, entonces empiezas a pensar... ...qué tipo de interfaz, porque claro... ...había o los que... ...dije antes, los Magellan y todos estos... ...que sí que te dicen que estás por el cerrillo de no sé qué... ...pero bueno, eso está muy bien... ...saberlo, pero... ...y por cierto es una pena que ahora no lo digan algunos... ...que podrían tener una capa ahí... ...además de decirme, por dónde voy... ...dime cositas... ...pero no que hay una mercería y tal, si voy por el campo... ...dime el cerrillo... ...eso se ha perdido como dije, pero... ...había o eso o los de conducir... ...que eran más o menos buenos... ...y muy malos en pedestre... ...y entonces lo que queríamos era pensar algo para guiar... ...a personas que no ven... ...una de las cosas que tenía problemas... ...todavía hoy, pero ya hoy... ...más subsanado, que era... ...el satélite era mucho más preciso... ...perdón, el GPS... ...el objeto, porque... ...entre dos mediciones... ...habían pasado bastantes metros... ...y entonces le ayudaba... ...a calcular que tú te habías movido en esa dirección... ...a la velocidad a la que andamos la gente... ...era, y todavía lo es... ...pero ahora está más corregido... ...muy difícil determinar tu posición... ...de hecho, todavía hoy pasa... ...lo habréis notado todos, es una... ...cuando coges un coche... ...y antes de salir le pones el Google Maps y te... ...dirígete hacia el norte por la calle no sé qué... ...y dices, joder, ¿dónde estoy hasta el norte?... ...y lo que es, porque... ...el GPS, el sistema, no sabe para dónde tienes... ...el culo y para dónde tienes el morro... ...entonces hasta que no te mueves... ...no lo puedes ir determinando, porque no es sólo... ...no es sólo saber que estás ahí, sino que... ...estabas ahí y en el segundo siguiente... ...estás ahí, pero hay... ...más N hacia el norte... ...o hacia el sur, y a partir de ahí te sabes que... ...eso andando... ...a velocidad de paseo o más... ...era mucho más difícil, era ahí, lo ves... ...bueno, ahora está más... ...más pulido eso... ...por precisión de los... ...satélites y las señales y por... ...y por precisión de los cálculos... ...pues, pues era muy difícil... ...entonces... ...¿cómo se podía guiar a gente ciega, no?... ...y entonces empezamos a trabajar en... ...la entonces UTT todavía... ...yo cuando me vine, me fui a Madrid... ...en el año 2000, después de estar un tiempo en Coruña... ...y tal, y empecé a trabajar con Bernabé... ...con gente así, nos fuimos a... ...bueno, Bernabé, José Luis Fernández Colla... ...José Luis Lorente... ...fuimos además a la... ...a la gente esta de... ...de Boecillo, a GMV... ...de donde proviene... ...el famoso astronauta este español... ...que se me ha olvidado el nombre, Pedro Blanco... ...que trabajaba allí... ...y... ...Pedro Duque... ...Sí, Duque, joder, digo yo Blanco, Duque... ...trabajaba en GMV, sí... ...que es una empresa que... ...que ha tenido sobre su peso... ...bastante, bastante peso... ...tecnológico, pero muy alto de Galileo... ...y eso, es una gente muy especializada... ...y yo aprendí allí mucho de... ...pues todo esto que estoy contando así... ...en cristiano, en militar... ...lo aprendí allí, y bueno... ...y lo que queríamos era... ...cómo, te digo, cómo hacer... ...una interfaz para que a una... ...persona ciega le valiera y le guiase bien... ...y bueno, se hicieron... ...varias cosas, entonces... ...entonces había un PC hablado... ...y un sonobraje, que eran PCs... ...metidos en cajas... ...que había hecho la UTT en su día y llevaban... ...el sistema operativo MS2 y tal... ...y bueno, pues... ...empezamos a pensar... ...y por interfaz, yo tenía una teoría, por ejemplo... ...por decir algo... ...porque las discusiones que hubo y cómo... ...yo tenía una teoría de que una persona ciega... ...cuando tú le dices... ...si quiero ir del punto A al punto B, en una ciudad... ...de aquí a acá... ...no le es muy importante que una calle... ...sea perpendicular o que haga medio corte... ...o sea, hay que decir, para un ciego... ...todo es Barcelona... ...en el sentido que todo va paralelo, no sé qué... ...digo, si tú vas y a la tercera calle... ...giras a la izquierda... ...ya sé, a la vista yo, que esa calle... ...no es exactamente perpendicular, que está un poco... ...inclinada, bueno, qué más da... ...tú tiras por esa y después a la cuarta... ...era mi teoría, otra gente decía que no, que era bueno... ...porque cuando llegas a una rotonda y la gente... ...bueno, tuvimos discusiones muy interesantes... ...y hubo cosas muy bonitas... ...y al final acabamos haciendo... ...una interfaz que se llamó Orienta... ...que nunca... ...yo no creo que nadie de los oyentes la conozca... ...porque yo creo que no se llegó a comercializar... ...porque el Sonobrayen... ...pues fallaba mucho y... ...y bueno, había que llevar un antenón... ...yo recuerdo llevar por mi barrio... ...que sigue siendo mi barrio actual... ...el carro... ...el carricoche de mi hijo que tenía... ...un año o dos, con una antena... ...con el Sonobrayen... ...encima, en el toldito... ...y llevo un cable y llevaba... ...una antena, que era bastante larga... ...de central de GPS... ...con imán de sardecoche, pero claro, como yo no era un coche... ...qué hacía, me ponía una gorra... ...una tapa, una lata de sardinas... ...una lata grande para que se me pegara... ...y parecía la brujavería, iba por allí andando... ...iba por allí andando... ...y hacíamos, bueno, para ver la precisión y todo eso... ...yo mi barrio me lo conozco... ...de centímetro al milímetro... ...porque bueno... ¿Habrá futuro de eso para ponerlo en las notas del episodio? Pues no, creo que nadie me hizo fotos... ...pero debía ser... ...la gente abría la boca y decía... ...este ciego está loco... ...pero bueno, hacíamos cosas... ...y entonces intentábamos guiar... ...qué interfaz sería... ...incluso teníamos una parte que siempre yo creo que fue útil... ...de hecho algunas... ...aplicaciones ahora lo tienen, que es... ...la simulación... ...yo quiero ir de aquí a aquí, entonces era con cursores... ...y lo que hacíamos era decir... ...el paso de cuánto lo quieres... ...pues de 100 metros... ...más o menos, cuánta precisión, entonces tú cogías la calle... ...yo qué sé, la castellana de Madrid... ...pum, pum, pum, y cada cursor que das adelante... ...eran 100 metros, entonces cuando había un cruce... ...te avisaba, vas a cruzar... ...aunque estuviera menos, vas a cruzar la calle... ...y lo podías simular... ...o sea, hubo... ...allí estábamos trabajando en todo aquello... ...que después, ya digo, no salió... ...parte por la parte tecnológica... ...que era todavía muy atrasada... ...parte porque el propio Sonobrai aquel... ...pues no... ...falló un poco y no se vendieron mucho... ...y en aquellos interims yo trabajaba... ...también conocía... ...a un tal Rafael Gil Casares... ...apello ilustre de aquí de Galicia... ...que... ...que era el director de toda la parte... ...de Teleatlas, que ahora... ...ya viene, por eso conectamos... ...Teleatlas es una empresa belga... ...que todavía hoy le suministra los mapas... ...a Google, bueno, ahora Google ya hace cosas por su lado... ...pero que hacían... ...cartografía digital, de hecho yo recuerdo... ...gente de Teleatlas en La Moraleja... ...y por ahí intentando entrar a las casas... ...de la gente, intentando entrar... ...por el buen modo, decir, mire que estoy... ...cartografiando, y luego... ...por a mí mi casa no, entonces... ...y se empezaba ya con coches... ...a cartografiar, bueno, estos... ...cartografiaban todo... ...y este era el jefe de todo aquello para... ...para África, Europa... ...y África... ...y era gallego, yo también, entonces hablando... ...gallego, coño, pues tal, joder, pues tío... ...nos hicimos amigos, y lo somos... ...y un día me dijo, oye... ...hay un tal Filipe de Oliveira ahí que te quiero... ...presentar porque está en... ...tío que está loco, que se perdió... ...un día en Hong Kong y quería hacer un aparato... ...para que le guiase... ...porque ya estaba bien, porque no entendía las letras... ...la gente tampoco la entendía, nadie... ...había hablado inglés y se perdía... ...y dice, me cago en la leche, tengo que hacer algo... ...que guíe a la gente y tal y cual... ...y de ahí salió el capten, o sea... ...yo lo conocí muy al principio por este hombre... ...y por aquellos trabajos... ...y empezamos, y hablé con el CEO... ...de que todavía está, el CEO de Capsys... ...pero él... ...el primer capten, o sea el capten que hizo... ...no pensó en un puñetero... ...os digo, para nada, quería... ...él se encontró un día perdido efectivamente en Hong Kong... ...o no sé dónde, en algún sitio asiático... ...y no sabía qué hacer... ...y con su cuerpo, y no sabía leer... ...porque eran todo pictogramas de estos... ...hasta kanji de estos... ...de esas cosas que escriben estos, y no entendía... ...y dice, bueno, pues... ...¿y cómo me entero yo aquí? y entonces bueno, dijo... ...voy a hacer algo además sin pantalla, que no moleste a la gente... ...que se pueda escuchar música y tal... ...metió un montón de tecnologías de aquel tiempo... ...porque tenía reconocimiento de voz... ...tenía una voz humana bastante buena... ...en lo que es una cajita cerilla metió... ...metió... ...antenas receptoras de GPS... ...mapas... ...y bueno, pues aquello iba... ...y fue el primer GPS que... ...que estamos haciendo todo esto... ...toquía muy bien, y además era para pedestre... ...para pensar en pedestre... ...e hicimos el captain... ...y bueno... ...el captain... ...tardaba... ...mucho en buscar señal y todo esto, pero fue... ...fue una cosa interesante... ...y lo que es curioso es la historia de la persona... ...y de la empresa, porque él como os digo... ...no pensaba para nada en personas ciegas... ...pero tuvo muy... ...mala aceptación entre los videntes esa cosa... ...una caja que te guía, que no ves un mapa... ...que no sé qué, ya estaba tontón... ...que... ...que era una cosa que tenía cartografía de... ...teleatlas, de la que os he hablado... ...y tenía... ...y ya se veían mapitas y calles... ...y todo eso... ...no gustó... ...y a los ciegos nos gustaba mucho... ...y entonces el señor pensó y dijo... ...no, pues hay que hacer cosas para ciegos... ...el problema a mi juicio de este señor... ...es que las empresas tienen cosas buenas y cosas malas... ...es que abandona los productos... ...entonces después empezó a hacer teléfonos... ...teléfonos con teclas en competencia... ...con los teléfonos sin teclas como tenemos ahora... ...toda la gente, los iPhone y todo esto... ...le ha dado resultados, ha seguido vendiendo... ...y ahora anuncia una cosa nueva para... ...para guiar... ...el CapX... ...no para guiar a la gente sino para... ...decir obstáculos y tal... ...no tiene nada que ver con GPS sino con lo que estamos hablando ahora... ...pero como que abandona las líneas de los productos... ...pero al tío le cambió la vida... ...porque acabó trabajando... ...solo para personas ciegas... ...cuando su historia vino de Hong Kong... ...y de ahí viene el... ...el CapX... ...y todos los trabajos que estábamos... ...haciendo en aquel tiempo... ...para intentar guiar... ...a personas ciegas basándonos en... ...bueno, GPS por un lado... ...y la cartografía digital por otro. ...y en aquel momento... ...¿cuáles eran las dificultades que... ...estos dispositivos os presentaban? ...porque supongo que sería un momento... ...complicado, concretamente hablando del Capten... ...el otro día... ...al presentar el producto este nuevo de Capsys... ...que es esta la misma empresa que hizo Capten... ...que se llama CapX... ...que lo has nombrado tú... ...alguien comentó en un grupo que... ...bueno, que mal funcionaba... ...Captain... ...que mal se cogían las señales... ...y curiosamente salió un grupo de usuarios... ...diciendo... ...que para lo que había en aquel momento... ...era una maravilla... ...porque estaban criticando con el pensamiento de hoy... ...lo que es una cuestión que... ...pues puede tener más de 17 años... ...o... ...¿cuánto puede ser lo del Capten, Enrique? ...eh... ...si no 20... ...si no 20... ...si no 20... ...porque yo me fui a Madrid... ...en el 2000... ...me vine de Galicia... ...a Madrid en el 2000... ...la última vez que estuve en Madrid... ...ojo, que sigo allí... ...bueno, hablando de un lado para otro... ...y fui a trabajar a UTT... ...y era el 2000... ...y ya estábamos trabajando en eso... ...yo no creo... ...probablemente sea del 4 o del 5... ...habría que mirar por ahí documentación... ...si, si, pero bueno, estamos hablando de hace 20 años... ...eh... ...que también, pues igual tiene un poquito... ...más de antigüedad y a mí me suena... ...a algo muy vintage, muy antiguo... ...pero que tuvo... ...bueno, una penetración y un impacto... ...muy potente... ...todo el mundo tenía TomTom... ...desactualizado el 95%... ...pero todos lo tenían... ...porque había que actualizarlo pagando... ...y eso como que la gente no lo llevaba muy bien... ...decía yo compré un TomTom... ...y es para toda la vida... ...y bueno... ...pues en aquel momento... ...si nos estamos trasladando a cuando estabais haciendo... ...todo este tipo de pruebas como pioneros... ...exactamente... ...¿qué dificultades encontrabais? ...hombre, a ver, yo... ...primero en cuanto al... ...tema del... ...que funcionaba bien o mal... ...yo ya en aquel momento recibí... ...alguna crítica... ...lo traje yo y lo empezamos a vender... ...la empresa a Tenius... ...por lo cual probablemente, ahora que lo digo... ...vamos a vender con Tenius... ...si que sea del 2008, o sea tendrá 18 años... ...efectivamente... ...y la... ...la gente pues eso... ...ya sabes que hay gente para todo, pero yo estoy convencido... ...de que en aquel momento... ...trajimos para las personas ciegas algo que no... ...había habido nunca... ...era mucho más, era lo que era... ...efectivamente funcionaba así de mal... ...tenía esos problemas, tardaba en coger señal... ...y depende de donde pues fallaba, pero... ...fue lo mejor que había habido hasta entonces... ...y sobre todo lo primero... ...el primer sistema de guiado para personas ciegas... ...EVER, que hubo así que... ...que se podía usar, llevar en el bolsillo... ...y, pero en cuanto... ...a los problemas que teníamos nosotros, aparte del... ...Captain, yo los problemas técnicos de Captain pues... ...bueno, me los sé como usuario... ...que yo no he trabajado en Capsys nunca... ...entonces no lo sé, pero los que teníamos nosotros... ...cuando diseñábamos todo aquello... ...yo creo que los he ido más o menos relatando... ...un poco, primero que la... ...bueno, primero en aquellos años... ...todavía el GPS... ...todavía era solo con GPS... ...no había Galileo... ...ni otros sistemas a los que mirar... ...a mirar en el mejor... ...de los sentidos, mirar los satélites... ...y ver sus datos, segundo... ...ellos, me parece que ha sido... ...hasta el 2007, 2008, no me acuerdo... ...por ahí en la documentación está... ...no dejaron de meter esos errores... ...que metían, con lo cual... ...pues también daba errores... ...tercero, la precisión... ...de andar despacio... ...o sea, guiar a un peatón era... ...dificilísimo en aquel momento, lo dije antes... ...por la velocidad, por el cálculo de dónde... ...estabas en un momento A y en un momento B... ...y en un punto A y en un punto B... ...y yo creo... ...y después el hardware, es decir... ...las antenas para ser mejor... ...en coche todavía se guiaba... ...bien, porque había, de hecho los tontones... ...aquellos tenían una toma, los de coche... ...tenían una toma de antena para conectarlo a la antena... ...de FM para que... ...recibiera mejor todavía los satélites... ...porque no era una antenita... ...y la gente, como dijo... ...antes Arturo, teníamos conectados a los... ...teléfonos, yo digo, tengo varias... ...antenas que eran separadas de los teléfonos... ...era una caja como una... ...hombre, más que una caja de estrellas, no era... ...pequeña, una caja que... ...era como un polvorón... ...correcto, pues eso, y era una... ...antena, entonces todo eso... ...la tecnología estaba a esa altura... ...en aquel momento, entonces... ...y las cartografías en aquel momento... ...¿cuáles utilizabais? ...pues se utilizaba teleatlas mayormente... ...porque era la que dominaba el mundo, creo, de hecho... ...que hay mucho copyright que ves en mapas... ...de Google todavía hoy... ...que son de teleatlas, ellos ya recorrían... ...con coches, y hacían... ...fotos con coches, y iban fotografiando... ...esto que hace ahora Google, teleatlas... ...lo hacía antes, o sea, lo que es ir... ...con una furgoneta y... ...un montón de cámaras... ...fotografiando todo el tema... ...pues eso se hacía hace mucho tiempo... ...ahora es alucinante, yo he estado... ...ayer, estuve paseando por aquí... ...por Oleiros, donde estoy ahora... ...y con el... ...Google Maps, en modo peatón... ...que ahora es la leche... ...lo bien que lo hace, tienes una modalidad... ...en que tú levantas el teléfono... ...si en vez de llevarlo como hacia abajo... ...y tú lo consultas para mirar el mapita... ...por dónde vas, lo levantas, lo pones a... ...paralelo al suelo... ...o sea, perpendicular al suelo... ...se te pone el Street View... ...real... ...de lo que ellos han sacado, y estás viendo... ...más o menos lo mismo... ...las mismas casas, los mismos árboles... ...en la pantallita del teléfono que tú ves... ...delante de ti, con lo cual para una referencia... ...eso es la leche... ...ya lo ves, o sea, ves el Street View... ...y eso es porque han ido durante años y años... ...y años fotografiándolo todo, todo y todo... ...y de hecho, una cosa muy curiosa... ...que se sigue haciendo es la línea de tiempo... ...tú ahora coges Google Earth... ...que es una aplicación, para los que no lo sepan, que es... ...todas las fotografías que se han hecho... ...también por pequeños cuadrículas... ...hablábamos antes de los... ...meridianos, los paralelos, pues las cuadrículas... ...entre esas líneas, a nivel muy pequeño... ...los satélites las han ido fotografiando... ...fotografiando... ...absolutamente toda la Tierra... ...pues ver la muralla china o lo que sea, eso habréis oído alguna vez... ...reportajes, ah pues se ve y tal... ...todo cenital, desde arriba... ...como a vista de, si tú te cuelgan y están... ...mirando para abajo... ...y en eso hay una cosa muy divertida... ...que es la, por ejemplo aquí en este barrio que cambia... ...porque hay casas que hacen eso... ...es una zona medio rural, vas hacia atrás... ...en el friso del tiempo y ves hasta las obras... ...que yo he hecho en mi casa, en la terraza... ...vas viendo el tiempo hacia atrás... ...porque hay fotografías de hace mucho tiempo... ...pero en aquellos tiempos, volviendo a la pregunta... ...es que había mucho menos datos... ...pero sí, ya cartografía digital había... ...y cada vez... ...más precisa, ya te digo que... ...este hombre a veces... ...Gil Casares contaba anécdotas de eso... ...que iban por los barrios, sobre todo... ...los barrios ricos... ...es que tengo que cartografiar este, que número es... ...y pregunta, es que soy de Teletras... ...y eso cae, y esto para acá... ...y bueno, ahora ya se hace de otra manera... ...se hace más mecánico... ...pero sí, sí... ...se cartografía un poco pedestremente... ...pero sí, supongo que iban a pie también... ...en los barrios... ...pues podemos también contar alguna cosa... ...un poco de la historia... ...de cómo ha ido evolucionando todo esto... ...y alguna anécdota... ...de problemas, porque esto tampoco... ...parece que todo es muy bonito, pero también ha habido... ...problemas y esto no siempre ha funcionado bien... ...pues sí, fue un proyecto militar... ...de los Estados Unidos, así comenzó el GPS... ...y creo que... ...se basaba, bueno, ellos vieron que el Sputnik... ...de los rusos... ...era capaz de... ...ser localizado y seguido desde tierra... ...y fue cuando... ...pues lógicamente los ingenieros... ...americanos dijeron, bueno, y si... ...utilizamos en sentido inverso... ...algo que nos mande una señal de allí... ...y nosotros la recibimos en tierra... ...y así comenzaron a hacerlo... ...creo que pusieron en marcha... ...un proyecto que se llamaba Transit... ...que era para el seguimiento de submarinos... ...y luego a partir de ahí ya pues todo lo que es el... ...GPS, que poco a poco... ...fueron implantándolo hasta lanzar un... ...número de satélites, yo creo que en la actualidad... ...hay unos 35 o por ahí... ...de todas formas esto es muy relativo porque... ...van cambiando, van implementando... ...y lógicamente también van... ...jugando con otras... ...flotas de constelaciones de satélites... ...de otros países... ...y demás, pero bueno, básicamente... ...todo comenzó así... ...y fue bueno, fue un... ...proyecto militar, hasta que un día... ...¿sabéis lo que pasó? ...fue un avión que se estrelló precisamente por... ...por falta de geolocalización... ...el vuelo 007... ...del American Airlines o algo así, ¿no? ...Korean Airlines... ...y se estrelló... ...y lo atribuyeron a falta, vamos... ...o alguien pensó, si hubieran tenido... ...GPS, que el GPS no fuese... ...se estrelló con la colaboración de la Unión... ...Sovietica, que lo derribó... ...porque invadió... ...y entonces... ...creo que el asaltador... ...el presidente de la URGAN... ...y dijo... ...muy buenamente, vamos a desmilitarizar... ...esto y a dárselo a la gente... ...un poco como la Internet, ¿no? que era una cosa de universidad... ...y después se nos fue pasando... ...a los civiles, pero vamos, eso cuenta la historia... ...y debe, hombre, debe haber algo de verdad... ...en eso... ...murieron casi 300 coreanos, ¿eh? ...no, no, el accidente sí, joder, quiero decir... ...que fuera el accidente el que motivase... ...que Ronald Reagan dijera... ...no sé... ...como historia altruista de un presidente... ...tan humanitario, pues no queda mal... ...pero bueno, será la verdad... ...en los tiempos que corren, dice... ...ojalá volviese, pero sí... ...efectivamente... ...sí que dicen que pasó... ...eso y que fue la... ...vamos, el hecho de que... ...se pudiera ya compartir... ...eso, y por eso lo tuvieron mucho tiempo... ...dice, sí, pero le metemos... ...errores, ¿no? hasta aquí... ...que fue la deriva esa de medición... ...que era más o menos 30 metros... ...¿no? de... ...y casi... ...le metemos errores para que... ...claro, lo que pasa es que aún contó con eso... ...con ese margen de error, pero cuando utilizas... ...luego la cartografía y luego... ...pues se supone que vas en coche y tienes que... ...posicionar el punto en una carretera, pues... ...más o menos es más fácil ese margen de error... ...puedes deducir dónde... ...dónde estás, más o menos... ...en una carretera, sí... ...después los demás... bueno, países o... ...continentes... ...o lo que fuera, bueno, en el caso de Europa... ...porque vamos, lo dije antes... ...porque vamos a depender de los norteamericanos... ...solamente, pues vamos a crear el nuestro... ...y crear un Galileo y los... ...y los rusos crearon el suyo y... ...y los japoneses... ...el suyo y... y bueno... ...recuerdas el de la India, ¿no Ricardo? ...que está solo hecho para India o algo así... ...sí, el de la India es curioso... ...porque, bueno... ...es una herramienta también... ...o arma que se utiliza... ...en geopolítica, ¿no? ...cuando un país entra en confrontación... ...con otro y tú tienes... ...la luz del GPS... ...apagas al que no te cae bien... ...pues lo has dejado fuera de juego o con menos... ...herramientas, ¿no? que al que están... ...atacando y esto le pasó a India cuando... ...tuvo un conflicto con Pakistán... ...no sé ya si era Gartik... ...o Bark... Garvik, esto no lo recuerdo bien... ...pero bueno, en aquel momento... ...Estados Unidos apagó el GPS... ...y bueno... ...los indios se dieron cuenta de esto... ...y dijeron que no podían depender de una... ...potencia exterior... ...y que deberían tener su propio GPS... ...y así lo hicieron... ...de forma regional, territorial... ...y esto sabrás tú... ...más que nosotros, Enrique, porque ahí sí que... ...utilizaron, ¿no? satélites geoestacionarios... ...creo que son... ...sí, creo que sí, ahí son estacionarios... ...sí, a determinados grados... ...y que sólo cubre el territorio de la India... ...y poco alrededor... ...yo estaba pensando en sugerirle aquí al alcalde de Betanzos... ...de hacer uno sólo para nuestro pueblo... ...pero... ...fue algo parecido, sí, ¿no? que querían... ...y cubrir por lo menos... ...su territorio, estar seguro... ...y los apagones que decías antes, también ha habido grandes apagones... ...sí, Galileo se apagó, me parece que... ...dos semanas una vez... ...pero en 2019 no hace tanto... ...que sí... ...es decir, primero fue... ...un fallo que puso en alerta al sistema... ...hasta un apagado... ...de una semana, estamos hablando... ...que menos mal que existía GPS... ...y había compatibilidad... ...porque si no hubiera dejado a Europa... ...bueno, y a todos los que dependieran de esta... ...concelación de satélites, que se llama Galileo... ...los hubiera dejado fuera de juego... ...y fue un fallo en tierra, ¿eh? ...en la actualización de la información... ...y aún así debieron pasar cosas, porque hay muchas... ...máquinas que... ...yo ahora mismo no sé qué ejemplos decir, que no sean... ...coches o personas andando... ...o aviones o... ...drones especializados... ...pero sí que hay mucha máquina que sí que... ...requiere de posicionamiento... ...hombre... ...hay una anécdota... ...que se cuenta, que es que en unas... ...maniobras americanas... ...utilizaron un inhibidor de señal... ...GPS cerca de... ...San Diego, creo que era... ...y dejaron pues... ...en eclipse... ...de GPS a todo lo que fuera... ...ciudad, y llegaron a tener problemas... ...los hospitales, los cajeros... ...automáticos, muchos medios... ...de transporte, es decir, que... ...en aquel momento, y creo que estamos hablando... ...de principios... ...de este milenio, cuando ocurrió... ...ya había mucha dependencia del sistema... ...a... ...para que funcionaran cosas... ...y esto sí que ha hecho que la gente... ...bueno, pues... ...un poco distribuya los huevos... ...en distintas testas... ...para que cuando haya un apagón de GPS... ...no dejen de funcionar las cosas... ...que lo consigan será otra cuestión. Lo que sí que parece básicamente... ...hacia el futuro, que yo no... ...bueno, he leído, pero no he visto... ...a nadie que se atreva a decir mucho hacia el fondo... ...parece que esto... ...no es que haya llegado al tope, sino que va a ser así... ...o sea, que eso tendrán que ser señales... ...puede haber más o menos constelaciones... ...puede haber los privados, a lo mejor... ...a alguien más se le ocurre hacer un GPS propio... ...yo qué sé, pero vamos... ...la historia es esa... ...es satélites mandando señales... ...relojes atómicos cada vez más... ...precisos, receptores cada vez... ...más precisos, para... ...posicionarte, cada vez de forma más precisa... ...pero ya, como decíamos... ...antes, la precisión militar es bastante... ...más grande que la nuestra, que anda... ...con los 3, 2 metros, 3... ...la agricultura ha demostrado... ...con sus máquinas de trabajo... ...que dar un soporte... ...al satélite, con una infraestructura... ...de georreferenciación... ...y emisión... ...de señales en tierra... ...hace que las máquinas vayan con una precisión... ...de centímetros, y lógicamente... ...si están labrando un surco... ...vayan por ese surco... ...entonces, yo siempre he pensado que... ...el futuro estará con... ...lo que nos dé de sí... ...lo que es la constelación de satélites... ...desde el cielo... ...y el esfuerzo en lo que es en tierra... ...con otras señales fijas... ...que hagan una cosa que se llama... ...train mapping, que es el ajuste del mapa... ...dependiendo de la señal... ...que tú estás enviando, que esa señal... ...también está diciendo... ...yo estoy aquí y soy la señal... ...georreferenciada... ...XXX, lo que sea... ...eso lo que hace es que el mapa... ...se mueva a esa posición... ...porque sí que es un anclaje real, es un anclaje en tierra... ...y entonces pues... ...el navegador... ...que es el GPS, sea más preciso a la hora de... ...interpretar la cartografía. Yo trabajé un tiempo con un agente... ...de una empresa que se llama, de hecho... ...se llama Digita Animal... ...y... ...que lo que hacen es... ...si tú no eres en el campo y en el GPS... ...no sólo seguir a los animales... ...que eso por supuesto, les ponen... ...a las vacas y a todo esto un collar... ...con una cosa muy grande... ...no como nuestro, por ejemplo, actual... ...todos los relojes, ¿no?... ...por ejemplo el Apple Watch... ...que pues sabe un montón de cosas de nuestro... ...estado de ánimo, las pulsaciones... ...eso también se sabe de las vacas... ...y de... ...y por constantes vitales se puede saber... ...si una está embarazada... ...que a lo mejor está pariendo y tienen que ir a atenderla... ...y ahí interviene el GPS... ...aparte de todas las cosas que pueda dar el equipo... ...sí que da su... ...posicionamiento exacto... ...por ella, o si se escapa de un sitio... ...bueno, ahora están vendiendo incluso... ...para perritos, que lo dicen para la gente... ...yo creo que es un poco tipo porque... ...los perros corren que te mueres y como se pierde... ...a veces tú al GPS a buscarle... ...no puede estar, pero yo creo que a tardar menos... ...legándole tres silbidos, pero bueno... ...es una pena, ¿no?... ...que no sean todo lo accesibles que deberían... ...porque parece ser que el que ve... ...y ve la pantalla y ve el punto... ...si que tiene una idea bastante clara... ...de dónde está su animalico... ...que ha echado a correr... ...pero... ...que a las personas ciegas es difícil que se les escapen los perros guías... ...pero sí se puede dar, claro... ...y eso es lo que yo digo, para que tengan un poco de libertad... ...que pueden ir... ...y es muy curioso que pasamos a depender... ...de estos sistemas... ...muchas veces con demasiada... ...dependencia y que también pueden... ...fallar o también pueden... ...tergiversar, pueden... ...manipular de alguna forma o... ...también pueden modificar esa señal... ...porque parece que... ...es una señal que viene del cielo y parece como que... ...nada podría interferir... ...esa señal, pero sí se puede... ...pero bueno, esto daría para otro episodio... ...sí, sí... ...yo cuando han salido las noticias de gente que han salido... ...algunos típicos... ...una calle no sé dónde de escaleras que se han metido... ...más de un coche... ...porque además la gente como se lo crea prejuntivo... ...que hay que meterse, pues me meto y bajo... ...pom, pom, pom... ...asi rompo el coche, me da igual... ...yo me acuerdo hace... ...eso sí serían los 2000 y algo... ...trabajaba yo más en el W3C... ...y había las reuniones en... ...Sofía Antípoli, en Cannes, en Mandelí... ...en Mandelí es un pueblo... ...con un montón de calles así... ...de dalitos, de calles muy estrechas... ...y en el W3C se hacían unos bollos... ...que no sabía por dónde estaban... ...te perdía más que te encontraba en aquellos tiempos... ...porque ahora irá bien... ...así que sí, sí, hay mucha gente que ha cogido... ...rutas extrañísimas... ...hay una historia, en teoría el de unas escaleras... ...que las visitaban los coches... ...como si no hubiera un mañana... ...y... ...sí, sí, la gente tiraba por las escaleras... ...y era una escalera de bajada y les daba igual... ...todos los coches acababan abajo... ...porque se reportaban los vecinos, ¿no? Pues esto es un problema más bien de la cartografía... ...que a lo mejor la cartografía, el mapa no estaría... ...correctamente, y a veces también pasa que... ...con señales de... ...calles de sentido único, que las cambian y cosas de esas... ...y la gente se mete... ...fiándose ciegamente... ...que mejor dicho del GPS... Creo que le dijeron a uno que no era el único... ...que ya iban diez o no sé qué... ...a lo mejor uno se mete... ...que no es el único... ...que se mete... Pues hablando de esto, a mi hija... ...le ha pasado una cosa similar, porque no hemos hablado... ...de la configuración del GPS... ...ni las preferencias conforme lo... ...predetermines, pero tú puedes decirle... ...que vaya por la ruta más larga... ...la más corta, la más tal, la más cual... ...la que menos consumo... La más ecológica... ...todo eso lo puedes hacer, entonces te pueden pisar... ...menos carbono, ahora tienen ya de todo... ...sí, sí... este fin de semana estaba en una boda en una población de aquí de Málaga ahora es costumbre coger lo que son así como cortijillos y montar ahí toda la boda el fin de semana y bueno, están en el campo que es un sitio maravilloso para hacer una boda bueno, pues ya el viernes llovió aquí en Málaga hubo alerta naranja y todo, llovió bastante y luego sábado y domingo nada, pero lógicamente después de haber habido un poquito de torrencial y haber pasado la lluvia el domingo cuando cayó el coche y encendió el GPS porque quería salir de aquella zona el GPS lo llevó por un camino no por una carretera secundaria, sino para salir por un camino, que ocurre que el camino lo cruzaba un arroyo que lógicamente ya no era arroyo pero sí que había dejado como zona de asiento de lodazal de barro y bueno, y es que encayó se le hundió el coche en el barro, tuvo que sacarlo un paisano de allí con un tractor y realmente la carretera era otra pero el GPS la sacó por un camino que era más corto estaba, como tampoco especificaría que discriminara este tipo de caminos, pues el GPS hizo su cálculo y dijo, pues por aquí vas a salir antes, ¿sabes? Eso pasa a veces también con las aplicaciones de personas tías que bueno nos hemos quedado el captain o sea, en el 2008, pero sí que afortunadamente han pasado muchas cosas, si queréis que retomemos volviendo al mundo ciegueril que nos ocupa cuéntanos, cuéntanos ¿descambió y estas cosas? Hubo y hay cosas, vamos después de nosotros que no triunfamos y del captain que medio triunfó, pues sí que hubo proyectos que intentaron guiar bien a la gente, de hecho yo con las experiencias de eso os mandé hoy un vídeo en el 2008 también hicimos unos italianos, yo no sé por qué me conocieron a mí, pero están haciendo un proyecto de guiado de personas ciegas por GPS y todavía en Symbian el iPhone acababa de salir pero vamos, no, no está todavía Nokia en poderío y quieren hacer un sistema GPS basado, o sea en GPS guiado, pero también en la comunicación que el teléfono podía tener con una central para ayudar a personas o sea, de momento que te encontrabas en una obra con cualquier cosa, dar asistencia se llamaba Easy Walk, que era como caminar fácil y lo llegamos a llevar al mobile, yo ahí sí que me vamos me exprimieron, yo me dejé, vamos, me pagaron o sea que sí, me exprimí y con toda la experiencia que tenía, porque ellos tenían mucha idea, no sé qué, pero no de interfaces para decir, yo más que tener mucha, tenía mucha experiencia en errores con lo cual, lo que me iba saliendo, me iba saliendo mejor, la verdad que no era malo, no guiaba mal pero como muchas empresas de estas, no sé si italianas o de otros lados, pero de repente un día el tío se cansó y desapareció y no se llegó a hacer el producto y estaba muy bien, porque Vodafone lo quería comercializar se llevó al mobile, vamos en el señor alcalde de Barcelona, al rey o sea, cuando, en el 2008 cuando pasaron por el pabellón de España y fue, lo flipaban, pero bueno de esos proyectos que se van bueno, ese no, yo fue ¿Has compartido con nosotros el reportaje donde se presentaba este proyecto? Sí, era como una promo Sí, era una promo, si os parece, vamos a escuchar como era además de que vamos a dejarla también colgada aquí, en audio pero vamos a poner el vídeo para el que quiera verlo, porque sale Enrique también, en lo que son las notas del episodio, y para que veáis lo hablábamos antes, off the record que no han cambiado mucho las cosas es decir, el vídeo parece muy actual así que, adentro vídeo y y y y y y y y y y y y y y y y us los y y un ta las a poreler son perfectamente interpretadas por el usuario, en forma de voz o braille. Estas son algunas características del servicio. Descripción detallada de las acciones a tomar, giros, distancia entre puntos, etc. La función Donde estoy da información sobre los nombres de las calles, sus números, los cruces y los puntos de interés en los alrededores. Gracias a esta función, los usuarios pueden darse cuenta de dónde están y de los puntos de interés, incluso cuando viajan en un autobús, tren o en cualquier otro medio de transporte en superficie donde exista señal GPS. Información de puntos de interés. Información del rumbo. Velocidad, altitud, latitud, longitud y estado de la señal del GPS. Por medio del uso de la función de análisis de la ruta, el usuario introduce un punto de salida y otro de destino y la aplicación EasyWalk. EasyWalk genera de forma automática las instrucciones relativas a cómo realizar la ruta. Luego de elegir estos puntos, los usuarios pueden bien navegar por la ruta en modo local, sin moverse de su sitio, bien dejarse guiar por la aplicación o bien preguntar sobre el estado de la ruta. El centro de atención al usuario es la interfaz humana del sistema. Si se genera una alarma desde él, un operador contestará inmediatamente a la llamada. ¿Y si Walk le atiende Pati, en qué puedo ayudarle, Pedro? Sí, por favor. Mira, es que oí ayer en las noticias que había obras por aquí cerca, ¿es cierto? Pues sí, tienes razón. Un usuario de la comunidad lo indicó ayer como un punto peligroso. Está a unos 200 metros. Mire, cruce al otro lado de la calle, en la próxima manzana, y luego vuelva a cambiar en la siguiente. Los servicios web ofrecen muchas posibilidades a los usuarios que tengan acceso a Internet. En principio, todos ellos están basados en las demandas de la comunidad, por lo que no solamente están creciendo en cuanto a la cantidad de datos almacenados en las bases, sino también en las funciones y prestaciones que demandan los usuarios. Easy Walk es verdaderamente un nuevo concepto en servicios para personas ciegas y deficientes visuales, que aunque no sustituye al perro guía ni al bastón, es una herramienta de gran utilidad para ayudar a la movilidad y al transporte de la comunidad. Es un sistema de transporte en ciudades y en medios de transporte variados. Pues eso era, ¿no? Más o menos. Porque pretendía dar asistencia, como ahora se pretende. Efectivamente, como has dicho antes del vídeo, Ricardo, pues eso no hay... Parece que no hay nada nuevo bajo el sol, hay nuevo hardware, hay mejores cálculos, etc. Pero bueno, que las ideas siguen siendo las mismas. Guiar a alguien con asistencia, pues un poco una cosa entre MIMA y ICE, y profesionalizado en el sentido de que te guíen y tal. Hoy por hoy se podría hacer con cámara, que el sistema no sabía dónde estabas y podían hablar contigo por el mismo teléfono, pero nada más. Y ahora se podría hacer mucho mejor. Sí, sí. Se atendían las necesidades con atención. Sí, sí. Y no sabía la tecnología del momento, pero básicamente se sabía que hacía falta gente también para que te pudiera orientar en humana. Nadie hizo back office. Sí, sí. Está claro. Pues ese fue uno de los proyectos que no salió. Después estuvo la gente de Sendero Group, que yo les conocí... Bueno, estos desde el año 95, por ahí, los conozco yo. Que hacían... un tío tal Mike May. Michael May de Sendero Group, pues sí que lleva trabajando un montón. Muchísimos años, desde los principios de GPS, en hacer sistemas de guiado. Y llegó a hacer un buen acuerdo con la empresa de HumanWare, nombre que me encanta. Me encanta. Bueno, de hecho yo... La Tenius, que ahora es empresa de mi ex y sigue funcionando, se llama SocialWare y es una pura copia. O sea, igual que hay software y hardware, pues se coja el HumanWare. Bueno, HumanWare en sus Victor, Stream, no sé cuál de modelos, metía en el Sendero este, que era un... Era un guiador, bueno, y no es. Bastante majete. O sea, sí ha habido. Y esta misma gente están haciendo una en interiores. Después hay otros proyectos muy curiosos. Seguramente de estos habrá más, de los primeros, ¿no? De los que guían. Así que yo no conozco muchos más, o no recuerdo en este momento. Pero recuerdo con cariño y están ahí. Y sigue funcionando. La gente de Lazarillo, que son de Chile, fue un proyecto fin de carrera, pero hecho. Como siempre decimos. Hecho con personas. Hecho con personas ciegas también desde el principio. Por tanto, sabían lo que querían. Hicieron en Lazarillo que no es algo que te guíe. Aunque después todo el mundo acaba metiéndole guía. No sé por qué. No sé por qué. Porque lo que hace bien Lazarillo es decirte, como los puntos están marcados y sabe por dónde vas, pues aquí hay una mercería, a la derecha tienes el banco no sé qué. Habrá muchos oyentes que conocen e incluso estén usando Lazarillo, ¿no? Y... Y Lazarillo, pues no... No está mal. Proyectos parecidos a esos. Microsoft hizo su Sound Escape, que es como un paisaje sonoro. Que a mí me encantaba el proyecto porque además se basaba precisamente en hacer lo que es Lazarillo. Pero de una forma un poco más... Es decir, decirte por dónde vas, qué cruces hay y cosas de estas. Si hay una mercería, si hay un banco, si hay tal. Pero además haciéndola 3D con el estéreo, situándote un poco más en el centro de la ciudad. Y así, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues. Pero además haciéndola 3D con el estéreo, situándote un poco. Si no querías que te diga la izquierda o la derecha, tú puedes hacerte el paisaje sonoro sabiendo a dónde te queda una cosa por el sonido. Que lleves unos auriculares. Hoy por hoy. con los auriculares que hay, que no te tapan la oreja y tal, eso es divino. Y bueno, eso, no sé por qué Microsoft se cansó del proyecto, no lo quiso seguir, pero lo dejaron en abierto. Y hubo varia gente que lo cogió, pero lo fueron dejando. Y al final se ha quedado con ello una persona china que vive en Los Ángeles, que tenemos un grupo de gente que hizo Voice Vista, que muchos de los oyentes seguro que usáis y conocéis, y que yo traduzco afanosamente para que tenga una traducción, la parte de español, para que tenga una traducción coherente y no diga en un sitio intersección, en otro cruce y en otro no sé qué, sino que al usuario le sea familiar el lenguaje, aunque no sea a lo mejor el que más le guste, pero que diga lo mismo en todas partes, refiriéndose a lo mismo. Y ese está muy bien porque Microsoft Soundscape ha avanzado más, coge datos de OpenStreetMaps, que es una especie de Waze, vamos, bueno. Bueno, esto también estaría curioso contarlo en los programas de guiado, como Google Maps y tal, se hace su propia cartografía, pero el software libre también es de las suyas y de las buenas, por supuesto. Hicieron Waze, dirá mucha gente, que es una aplicación donde, aparte de estar los mapas y de guiarte, la comunidad pone cosas. Aquí hay un policía, cuidado que adelante hay una obra, que no sé qué, no sé cuánto, y puede meter información. Entonces eso es útil, tiene su sesgo, porque se puede hacer mal, pero bueno, está ahí y al final, de hecho, aunque Google no lo reconozca mucho, la compró y ahora Google Maps, cuando te dice radares y eso, muchas veces, sobre todo si son cosas temporales, muy temporales, pues vienen de Waze, que la está viendo también. Bueno, pues OpenStreetMaps tiene esto, marcan cosas, a veces están bien marcadas, a veces mal, tú también puedes hacer marcadores y voy a decirles que es un buen trabajo, que es un buen trabajo, que es un buen trabajo, y cuando lo tienes vista, obtiene datos de ahí, con lo cual ya no solo te dice mercería, no sé qué, sino pasos de cebra, papeleras, bancos para sentarte, parolas, fuentes, estatuas, culturas, un montón de cosas. La gente se sigue empeñando y eso yo creo que es un problema de hacer grupos de usuarios de ciegos, queremos que esté todo, todo en una aplicación y entonces quieren que le metan guía. Yo les quiero convencerles, vamos a ver, si Google Maps guía ahora muy bien y son competentes, entonces, ¿qué pasa? Entonces, si Google Maps guía ahora muy bien y son competentes, las dos porque no podemos caminar del punto a al ve guiados por google maps mientras voy vista nos cuenta el cotilleo lo que hay la gente tiene como tendencia no critico simplemente es lo que pasa a mí no me gusta evidentemente pero no pero no lo critico pues debe ser una cosa muy humana o que nos pasa todo lo que tenemos toda una aplicación y yo creo que es mejor una buena aplicación que guíe y desarrollar todo ese esfuerzo de desarrollar que te guíe o me cagará no es tanto esfuerzo porque google más tendrá su app y que se podrá meter en no sé dónde y bueno pero pero o sea la misma aplicación pero yo prefiero llevar la aplicación de guía que yo prefiera por ejemplo google maps o apple maps y voy vista que ese tiempo el chino se dedica a desarrollar mejor si lo permite no activar apple maps o google más si lo permite para referencia cartográfica y ahora como los usuarios lo han pedido también te hace rutas y te dice las cosas pero es peor pero es peor haciendo eso es peor que cualquiera de las dos que va mucho mejor llevar google maps o apple maps y tú llevar por también puesta también abierta voy vista y que hemos visto te vaya diciendo que a la derecha hay una papelera o lo que sea aunque y cuando tú en los grupos especializados que estáis trabajando con esta app con voice vista planteas esto esto mismo que acaba de comentar ahora que te contestan la gente está por la labor o no no no es una conversa de su grupo de usuarios que le sugieren cosas al chino o y donde estamos los traductores el chino es una pasada porque es un dedica un montón de tiempo de forma altruista a esta aplicación y Porque él se dedica a otras cosas. Él es un especialista en economía y en aplicaciones. Sí, sí, pero le debe gustar esto. Y la aplicación, de hecho, te puedes pagar. Hay gente que paga suscripciones, pero no hay diferencia. Si no pagas, tiene la misma. Es totalmente voluntario. A mí me gusta mucho y yo creo que es lo último que yo conozco que se está haciendo. Pero vamos, insisto, no era en inicio una aplicación de guiado, pero sí de cotilleo. Vamos, cotilleo. De cualquiera que va por la calle vidente, de una farmacia. Alguien que me lo diga, pues voy vista. Y lo que pasa es que la gente acabamos pidiendo y que me dicen no, es que yo tampoco trato de influir. Yo digo mi opinión, pero yo estoy más que nada como traductor. Y además, la gente cuando no quieren decir nada, o sea, lo siguen pidiendo y no te hacen caso. No discute. No, no, pero que me guíe. Pero no es que sea mejor. Oye, ponle una guía. O sea, como que no te hacen caso y siguen pidiendo lo suyo. También hubo otras partidas hasta así, en plan de cotilleo, de ver lo que tenemos alrededor, como el Blind Square o estas. Ah, sí. Bueno, es verdad que está basado en Foursquare. No sé si os acordaréis, Foursquare era una aplicación de la que sacaron muchísimos... Estas son estrategias comerciales buenísimas. Aunque aparentemente era libre, eso estaba Google por detrás y mucha gente, porque lo que se hacía era el juego de las cuatro esquinas, decir, tú vas ahí y donde estoy... ¡Ah! ¡Joder, estoy en un barbo, sé que cojonudo! Y ficho ahí, ¡pum! Y ponías una... Con lo cual, la gente iba haciendo acopio de datos. Que decías, ¡qué mal, no! Es lo que están haciendo ahora con nosotros cuando entrenamos los modelos de LM y todo eso. Muy bien, pues claro. Yo me di cuenta un día después de 20 meses usándola, porque sí que fui acérrimo del Foursquare. Y ponía ahí un montón de cosas y digo, ¡me cago en la leche! Llevo 20... Estaba haciendo el trabajo gratis a Google. No, no, no, eso no me importa. Eso era consciente. Pero me di cuenta de una cosa peor. Llevo 30 años de mi vida cagándome en todo... Cabreado por fichar en el trabajo y voy y cada vez que llego al sitio, ficho. Se ve tonto. Y de ahí sacaron un Blind Square de los datos de esos. Pero es una aplicación que no me gustó nunca. Y a la gente le gusta mucho. Parece que sentó cátedra porque mucha gente en el grupo de Voice Vista quieren que tenga lo mismo. Para mí tenía una interfaz que la quisieron hacer tan simple para ciegos que era complicada. Es que lo que... Como has nombrado antes, esto viene de un proyecto de Microsoft que se llama Soundscape. Y la traducción realmente es paisaje sonoro. Es un nombre perfecto. Pues verdaderamente, como tú has dicho, no es de guiado. Es decir, tú vas caminando, tú llevas tu perro, llevas tu bastón, sabes por dónde te mueves. Y lógicamente es como si tú estuvieras echando una ojeada alrededor tuyo y viendo exactamente dónde está cada cosa. Ese es un concepto. Y en lo suyo, yo creo que Soundscape funcionó muy bien. Tenía luego la posibilidad de poner balizas virtuales, sonoras y demás, bueno, donde tú querías ponerlas para marcar, hacer un marcado sobre la cartografía. Y fin. Ya no hacía nada más. Es la aplicación típica, perdona, en la que yo pediría, volviendo al pasado de nuestra conversación de hoy, donde yo pediría que el chino, Juan Zengu, metiese de mapas cartográficos de montañeros y eso, que sí que metiera, el cerrillo, no sé qué. Y todo eso, si lo querías, como una capa más, que yo siempre lo digo, mi deformación informática, mete lo que quieras, pero siempre configurable. ¿Lo quiere el usuario o no? ¿Quieres accidente geográfico? Y entonces, aparte, que vas y te diga que hay un poste, te diga, pues estás pasando cerca de la cueva de la Virgen del no sé qué. Claro, ¿por qué no? Sería ideal que no dijese el voicemail. A mí, no lo voy a pedir porque igual me crucifican. Porque era lo que había, o sea, cuando teníamos los Magellan, ellos y todo eso, bueno, yo creo que hay gente que los sigue utilizando. Es que yo el GPS ya de senderismo y eso no tengo ni ideas, pero tiene que seguir habiendo, ¿eh? Y la marca sigue existiendo, Magellan, esta de Magallanes. Hubo una aplicación, ¿no?, que era también a través de sonidos para ciegos, que creo que... El proyecto europeo, es verdad. Sí, que era Blind... No sé si la llamaban una gente asturiana. Tú, Arturo... Sí, sí, conozco al tío. Sí, sí, conozco al tío. Fue un proyecto europeo que mi fundación estuvo a punto de meterse y después no nos metieron. Ariadne GPS. Bueno, Ariadne también, pero esa no era Ariadne. Esa era italiana, ¿no? Esa era italiana y esa, yo la usé mucho porque era una buena chivata. Yo la usaba en el tren y marcaba puntos y te decía por qué pueblo andabas, a qué velocidad, que por cierto son datos GPS, ¿verdad? Cuando hablábamos de lo que sabemos del GPS, esta sí te contaba. Bueno, sigue, ¿eh? Hace mucho tiempo que no la actualiza, pero funciona. Sí, sí. Hace pocos días. Yo la puse así por vintageismo y estaba. Y sí te dice la altitud, longitud, la altitud, la velocidad y por dónde andas. La localización, la ubicación. Y eso cuando vas en tren y eso es muy divertido. Y puedes tocar el entorno en los mapas estos que tiene así curiosos. De eso no se ha hecho nada mejor. No se ha hecho nada mejor desde entonces. Si vas tocando... Apple lo ha hecho, lo de ir tocando una calle con el dedo y grabar moviendo, pero esto será lo mejor. Pues el proyecto europeo este, que no me acuerdo cómo se llama, Blind Algo. Blind Explorer. Sí, Blind Explorer. Y ocho pruebas con ella. Eso venía de un proyecto europeo. Eso tenía una cosa muy curiosa. Y yo les he servido de cieguecillo de indias alguna vez. Y lo que tienes con auriculares, lo que haces son rutas y lo que haces es llevarte recto. O sea, tú tienes que mantener un sonido siempre en el centro. Es un sonido que nos molestó. Pero en el centro. Y no sé qué pasó con esa gente. Hombre, llegaron a hacer cosas con 11 y creo que yo las últimas que les vi habían hecho el Camino de Santiago entero. Que, por cierto, el Camino de Santiago, la fundación que yo presidía en el 2010 hicimos el Camino francés entero, que le llamamos en honor a todo esto. Pues se me había olvidado. Le llamamos el Camino de los Satélites porque, ¿sabes qué es eso? El Camino de las Estrellas. Pues ahora Satélites. El Camino de los Satélites con Serafín y con más gente. Algún famoso hubo por ahí Indurain, que hizo un par de etapas y tal. Pero bueno, la gente que lo hicimos entero el Camino francés con los GPS que había en aquella época. Y bastante bien. Sí, sí. Es Rafa Olmedo. ¡Olmedo! Y siguen en activo y la empresa sigue funcionando y están ahí buscando clientes y siguen teniendo clientes. Y bueno, no sé si algún día las tenemos también por aquí. Yo tengo la aplicación. Hay rutas que puedes hacer y eso. Y esa se basa en eso, en irte guiando. Y sobre todo tiene una cosa muy interesante que otras no tienen, que es otra aplicación que no se hace mucho en GPS, ahora que lo estamos tocando, las miguitas. Es decir, yo voy de aquí a aquí porque me lo sé o voy con una persona que ve y conoce el camino y yo esto me lo marco y me hago una ruta. Los waypoints o puntos de camino o que siguen siendo las miguitas. Que tiras, ¿no? Como pulgarcito. Y entonces ya esa ruta la puedes hacer tanto en un sentido como en otro y además puedes ponerle marcas después, pero que ya no te pierdes del camino y encima compartirla con la humanidad. O sea, que eso sí que lo hace Blind Explorer y no otras. Bueno, es que es muy buena aplicación. Voy vista sí. Voy vista puedes grabar rutas. Por cierto, también. Aparte del cotilleo, sí que puedes grabar caminos que tú hagas. Y de hecho hay gente, me parece que es César Puente o alguna gente así muy está loca, en el buen sentido, que sí que me dijo que la usaba por el campo, en senderismo y eso. Voy vista. Porque se grababa las rutas. Muy bien. Bueno, si os parece, hacemos un resumen y vamos terminando. Bueno, pues yo creo que hemos dado un muy buen repaso a muchas cosas. Algunas las dejaremos por ahí en el tintero, pero bueno, también tenemos que dejar algo para otro día, ¿no? Y podemos ir haciendo un resumen y podemos ir terminando por ahí. Que hemos hecho un resumen histórico de cómo empezó toda la historia del actual GPS y otros sistemas parecidos. Y hemos visto un poco cómo ha ido evolucionando desde los Nokia N70 y cómo nos conectábamos a través de las antenas de los teléfonos móviles y con receptores externos que se conectaban por Bluetooth hasta hoy en día que lo tenemos enterrado en nuestro smartphone de forma completamente transparente. Yo creo que Enrique también nos ha explicado para civiles y lo hemos entendido muy bien cómo funciona todo el sistema GPS que ha resultado muy interesante y hemos visto también peculiaridades del mismo en distintos dispositivos y funcionalidades y bueno, ha estado muy bien. Hemos aprendido incluso la tierra, los meridianos, los paralelos, el meridiano del language, el ecuador, cómo está la tierra dividida, cómo nos podemos situar y hemos hecho un histórico aunque casi se me olvidan algunos pero al final los hemos ido recordando de cosas, los intentos que hemos hecho todos con todo esto hacer algo útil para las personas ciegas tanto en guiado como en cosas como Sound Escape o Voice Vista o Lazarillo o cosas que nos cuenten lo que hay alrededor más que guiarnos que eso también las hay y también nos pueden servir las debilidades. Pero todo como ha ido evolucionando esto, el GPS y la cartografía digital aplicada al mundo de las personas ciegas y con baja visión. Sí, ese punto de intercesión es interesante, que aunque la tecnología es generalista en este caso, el GPS que en este caso parece que no se inventó precisamente pensando en personas ciegas, pero como pues le hemos podido sacar bastante provecho. Y luego hemos aprendido una gran lección que es que aunque la tecnología es muy útil y nos presenta un servicio maravilloso nunca hay que depender ni tener fe ciega en ella, pese a que estemos hablando de dispositivos para ciegos ni confianza plena porque nos puede situar y poner en circunstancias muy comprometidas y realmente pues dejarnos fuera de juego si ponemos toda nuestra intención en lo que es sólo tecnología. Hay que aplicar también el sentido común y tener nuestros recursos como los tenía Enrique cuando era hippie y andaba por Ibiza con su mapa con su brújula y su forma de calcular. Era Menorca, eh que yo siempre he sido pobre. Ahora Menorca ya no está como estaba, pero vamos. Era preciosa, era preciosa Menorca es preciosa Menorca, vamos. En los 80 era salvaje. Sí, sí. Pues damos los medios de contacto y nos despedimos. Bueno, pues nuestra dirección de correo electrónico la que esperemos que nos escuche es en el sitio web de Enrique y nos escribáis y nos contéis cosas nos preguntéis y nos critiquéis es gapotas arroba cgatos punto es y nuestro número de WhatsApp para mensajes de audio y de texto en el más 34 Pues nada, muchísimas gracias Enrique otra vez es un placer el estar contigo hablando de estas cosas que nos gustan tanto a los tres. Y esperemos que también a la audiencia y muchas gracias a todos por llegar hasta aquí y acompañarnos y os esperamos en el próximo episodio. Hasta luego. Adiós. y sus aparatos y sus aparatos y sus aparatos ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! Y era... Bueno, siempre que digo eso, me acuerdo una vez un catedrático de universidad, cuando se hizo la conferencia, no voy a decir quién ni de qué universidad, pero sí se hizo la conferencia del W3C de 2009, que se hizo en España, en el Campo de las Naciones, ponía bastante dinero la Fundación 11, y el tío estaba hablando en un inglés bastante deficiente, pero es que además empezó a citar los patrocinadores y cuando llegó a la 11, le decía, bueno, Fundación 11, bueno, Eleven Foundation, dijo él. Así se quedó. Así que se quedó ancho. Pues Miguel Mayo, igual que Mike Oldfield, que al final se queda en Miguel Campoviejo. Estamos hasta hablando de Sendero Luminoso, no Sendero Club. Bueno, si os parece, hacemos un resumen y vamos terminando. Vale, pues dilo tú. Resumen lo tengo que hacer yo. ¿Por qué empezaba? Entre todos. Pero ahora tiene que decir algo Arturo para introducirnos, ¿no? Porque esto hasta que estamos grabando ahora no... No. Damos el pie y no te lo vamos a... Que me lo cogéis y vamos.
Gafotas, cegatos y sus aparatos #15
Fecha: lunes, 24 de marzo de 2025, a las 00:00:00
En este decimoquinto episodio titulado “Matemáticas sin ver y tecnologías para facilitarlas”, Arturo y Ricardo conversan con José Enrique Fernández del Campo, profesor y Doctor de matemáticas ciego, sobre los desafíos y estrategias para el aprendizaje de las matemáticas sin resto visual funcional. Se analizan metodologías inclusivas, herramientas tecnológicas y la importancia de una enseñanza adaptada.
Temas destacados
-Trayectoria de José Enrique: cómo superó las barreras para estudiar y enseñar matemáticas.
-Matemáticas y accesibilidad: ningún concepto es inaccesible para una persona ciega si se utilizan los métodos adecuados.
-Los 4 lenguajes en el aula: manipulativo, gráfico, oral y simbólico, esenciales para una enseñanza efectiva.
-Tecnologías de apoyo: ábaco, cálculo mental, notación Braille, láminas en relieve y software accesible.
-Geometría y perspectiva: retos para los ciegos de nacimiento y cómo desarrollar la comprensión espacial.
-Didáctica y motivación: la enseñanza de las matemáticas debe ser creativa, práctica y estimulante.
Un episodio muy interesante para conocer cómo debería ser la didáctica del aprendizaje de las matemáticas en el aula con alumnos ciegos. Acompáñanos en un viaje trepidante entre números, símbolos, algoritmos y representaciones en relieve. ¡No te lo pierdas!
Intervienen:
Jose Enrique Fernández del Campo.
Enlaces a Sitios referenciados en el episodio:
Sitio Web de DISVIMAT – Matemática y estudiantes con discapacidad visual.
Canal de Youtube de José Enrique Fernández del Campo.
EDICO (Editor Científico ONCE).
LAMBDA, editor matemático para personas ciegas - Compartolid.
Juego de matemáticas “Accessible Math Match” de Jonathan Chacón en App Store.
Grupo ACCEDO - ONCE Educación inclusiva.
Blog - Pensamiento computacional con Scratch.
Scratch Jr Tactile: el proyecto que enseña pensamiento computacional al alumnado con discapacidad.
Código Nemeth Braille – Wikipedia.
Créditos:
Duración: 01:45:13
Descripción detallada del logo de Episodio 15. Matemáticas sin ver y tecnologías para facilitarlas.
La imagen representa una escena de un aula con un ambiente retrofuturista, en la que un profesor y varios alumnos participan en una clase de matemáticas con un enfoque visual y manipulativo. La iluminación es cálida y proviene de la luz natural que entra por la gran ventana de la izquierda, complementada por lámparas colgantes que aportan un brillo tenue pero acogedor al aula. El profesor Ubicado en el centro de la imagen, el profesor es un personaje carismático y peculiar. Lleva un traje marrón oscuro con una camisa blanca y corbata negra. Tiene un peinado voluminoso y peinado hacia atrás, lo que le da un aire elegante pero algo excéntrico. Lo más llamativo de su apariencia son sus grandes gafas de sol redondas con cristales oscuros y unos auriculares de gran tamaño con un diseño retro, lo que refuerza la estética futurista y enigmática. Está sosteniendo un objeto geométrico tridimensional dorado, que parece un modelo de estructura matemática o un poliedro, mostrando entusiasmo mientras lo presenta a los alumnos. Los alumnos Los estudiantes, sentados en sus pupitres, están absortos en la clase y muestran interés en los materiales que tienen frente a ellos. Cada niño es diferente y presenta una estética única: 1. Niña en primer plano, de espaldas: Lleva un jersey verde oscuro y está concentrada en su ábaco de madera con cuentas de colores, mientras observa atentamente al profesor. 2. Niño de su derecha: Viste un suéter anaranjado y también tiene un ábaco sobre su pupitre. Su cabello es corto y oscuro, y parece estar atento a la explicación. 3. Niño pelirrojo con camisa blanca: Más al fondo, parece escribir algo o hacer cálculos en su cuaderno. 4. Niño rubio con gafas y auriculares: Lleva un suéter verde y parece utilizar una tablet, lo que aporta un contraste tecnológico al ambiente clásico del aula. 5. Otros niños en el fondo: Algunos miran al profesor, otros interactúan con modelos geométricos en sus mesas o usan ábacos similares. El aula y su mobiliario El aula tiene un aire nostálgico con toques modernos. Las paredes están decoradas con gráficos matemáticos, ecuaciones y diagramas de colores. Destacan varios elementos: - Pizarras: Hay dos pizarras, una central y otra lateral, repletas de ecuaciones matemáticas, gráficos y operaciones. En la principal se lee un gran número "3455" en tiza, lo que sugiere un elemento clave de la lección. - Ábacos: Hay numerosos ábacos de distintos tamaños y diseños, algunos montados en la pared y otros en los pupitres de los alumnos. - Gráficos y diagramas: En la pared derecha hay un gráfico con una curva ascendente y otros carteles con representaciones matemáticas, incluyendo un círculo cromático. - Reloj de pared: Muestra la hora en un estilo clásico, reforzando la ambientación tradicional del aula. Ambiente y estilo La imagen tiene un estilo artístico detallado con una fusión entre lo clásico y lo futurista. La paleta de colores es cálida, dominada por tonos marrones, dorados y naranjas, lo que aporta un aire acogedor. La iluminación natural de la ventana crea un juego de luces y sombras que refuerzan la profundidad de la escena, mientras que las lámparas colgantes complementan con un brillo tenue. En conjunto, la imagen transmite la sensación de una educación innovadora pero con raíces en métodos tradicionales, uniendo la tecnología con la enseñanza manipulativa.
Mostrar transcripción de Episodio 15. Matemáticas sin ver y tecnologías para facilitarlas.
Transcripción de Episodio 15. Matemáticas sin ver y tecnologías para facilitarlas.
y sus aparatos podcast Bienvenidos al decimoquinto episodio de tu podcast favorito. ¿Qué tal estás Ricardo? Muy bien Arturo, pues muy contento como siempre que grabamos un nuevo episodio y hoy de nuevo la temática me resulta apasionante pero es que el colaborador también es una persona que debemos conocer porque nos va a hablar de un tema que probablemente no conozcamos profundamente como son las matemáticas. Y toquemos como es mi caso de oído. Siempre hemos pensado que las matemáticas son aritmética, cálculo y poco más aunque muchos también hayan tenido lo que es conocimiento de matemática conceptual y demás pero bueno es una materia que tenemos poco conocimiento de la misma y lógicamente bueno que en este siglo XXI probablemente sea una de las disciplinas más potentes junto a la física y la astrofísica. Y que más se requiere para los nuevos trabajos que están surgiendo. Así que nada, lo importante es conocer esto y no solo esto como tal sino como las personas ciegas también pueden aprender matemáticas. Sí, ¿qué tal se te daban las mates en el cole? Pues mira, yo en la cuestión calcular y mético y eso muy bien. Yo tenía un gran profesor de matemáticas pero bueno, un gran conocedor de las matemáticas. Una persona que tenía muchos conocimientos pero como profesor era excesivamente elitista para mi gusto. Entonces a mí que me... explicándome un poco mejor lo comprendía. Te lo digo porque repetí y me di cuenta que el segundo profesor sí que lo entendía. Pero bueno, en principio no las aborrecí y de hecho creo que de adulto, bueno cuando dejé ya de estudiar la bachiller o en todos los estudios, que hice pues es cuando he tomado más interés. He leído algún tipo, algunos libros y bueno, realmente sí me resultan apasionantes. De hecho, todo lo que rodea las matemáticas me resulta muy interesante y muy enigmático porque yo no sé si tú sabrás que las matemáticas tienen mucho de creatividad. Sí, sí. Y son más abstractas de lo que en un principio puedan parecer. Pero creo que aquí es lo más importante como muy bien has dicho. Es el profesor, ¿no? Cuando alguien te lo sabe explicar, te lo cuenta bien, cambia la percepción completamente. Las matemáticas tienen muy mala prensa pero yo creo que porque no nos las han sabido enseñar adecuadamente. No sé si será un mito o no pero dicen que todo es matemáticas, todo se puede explicar e interpretar por las matemáticas y realmente es como un lenguaje universal. Pero bueno, esto más que divagar aquí. Lo importante es que se lo preguntemos a nuestro experto. Sí, vamos a preguntárselo directamente, José Enrique. Muy buenas, ¿cómo estás? Muy buenas, queridos amigos, compañeros de este podcast tan interesante. O sea, lo de Cegatos no me gusta mucho. No es políticamente correcto, pero bien. O sea, estamos entre gente que nos conocemos y amigos y si no nos conocíamos bien, pues nos vamos a conocer mucho mejor después de esto. Nuestra idea era no ser políticamente correctos y sacudir mentes. Lo estáis consiguiendo. Pues bien, pues entonces prueba superada. Estamos orgullosos. Bueno, José Enrique, estamos encantados de que estés aquí con Gafota, Cegatos y sus aparatos. Es un lujo, un honor tenerte. Una persona tan conocedora de lo que son las matemáticas y sobre todo también su aplicación didáctica y metodológica de cara a lo que es la enseñanza. ¿Quién es José Enrique Fernández del Cegatos? Campo, cuéntanos que nadie mejor que tú tienes una auto percepción tuya y sobre todo actualizada y que quieras mostrar a los oyentes. Bueno, José Enrique Fernández del Campo es un profesor de matemáticas ciego, nacido y viviendo en Madrid. Estos son los carne y dentira, digamos. Perdí la vista a los 10 y 12 años, un glaucoma, y yo tenía un problema. Tenía una ilusión de pequeño, de pequeño con mis 8 años. Bueno, en aquel momento en Madrid mi padre era maestro y la ilusión de la clase media y la clase baja es que los hijos fueran universitarios. Y yo quería ser universitario. Y se me daban bastante bien las matemáticas a mis 8 años, el cálculo y cosas de estas. Y dije que quería ser ingeniero de caminos, canales y puertos. Como es largo, debe ser una cosa muy importante. Cuando fui perdiendo la vista, es más, cuando llegué, en el colegio de la ONCE como interno, que se hacía entonces, pues me preguntaban, ¿y tú qué vas a estudiar? Ya tenía yo, pues eso, mis 12 años. Yo voy a estudiar, voy a ser ingeniero de caminos, canales y puertos. Y como eso es muy difícil y no voy a poder porque no veo, voy a estudiar ciencias matemáticas. ¡Hala! ¿Un ciego no puede estudiar matemáticas? Bueno, pues claro, aquello fue un jarro de agua fría. Un ciego no puede estudiar matemáticas ni carreras de ciencia. Bueno, yo había conocido a un profesor de matemáticas, compañero de mi padre, aunque era licenciado en matemáticas, en ciencias exactas entonces, se decía. Pues no obstante, era profesor de primaria y luego en una academia daba clases de problemas de matemáticas. Y como me invitaba a tomar café en los recreos, cuando yo estaba con mis operaciones de los ojos, iba acompañado de mi padre y tal, pues yo quería ser profesor de matemáticas. Bueno, pues ahí quedó la cosa. Un ciego no puede estudiar matemáticas. Y cuando un compañero de clase abandonó el colegio al hacer cuarto, bachillerato después, para estudiar bachillerato, entonces era obligatorio en el colegio de la UCE hacer magisterio, ser maestro, pues le preguntaron si, por qué no se iba a ciencias. Se le daban bien las ciencias a Tomás. Y dijo, no, eso se queda para la gente joven como José Enrique. Así que dije, ah, pues puede ser. Y se me planteó la posibilidad, se me planteó en mi cabeza, y yo lo dije en mi familia, voy a intentar hacer ciencias. Y mi padre, con gran sentido común, dijo, ah, muy bien, eso te va a costar bastante por no ver el tablero y esas cosas, pero no te preocupes, eres joven y puedes perder uno, dos o tres años, lo que quieras. Y así empezó mi carrera en el campo de las matemáticas. Y en la enseñanza, desde los 18 años, pues tuve la oportunidad de unas oposiciones, unas pruebas, para ser profesor de primaria en la ONCE, y empecé a trabajar como profesor de primaria en el colegio de ciegos de Madrid. Y hasta hace, ¿cuánto?, ocho años que me jubilé, pues he ido pasando de profesor de primaria, luego de secundaria cuando terminé la carrera, luego me fui dedicando a cosas variadas, como fue la publicidad, en el caso de la ONCE puse un pie en política en el Ayuntamiento de Madrid como concejal de la oposición. Y cosas de estas, hasta que en un cierto momento, bueno, empecé también a estudiar, a aprender informática de forma autodidacta, ¿no? Bueno, y a programar un poquito, Pascal, estas cosas, porque empecé a dar clase en la escuela normal. Llamada entonces Facultad de Educación, que se dice hoy. Y el jefe de departamento, el profesor Leith Poon, estaba empeñado en que iniciáramos el campo de la informática. Se compró incluso un ordenador para el departamento, un abstract de aquellos antiguos que luego fueron, fue Apple, y bueno, pues empezamos con diagramas de flujo y programación. No grababa los programas, ¿eh? O sea, había que teclearlo todo completamente, probarlo, correrlo, ver que funcionaba, y se acabó, ¿eh? Se imprimía en papel, eso sí, el programa, pero se perdía. Bueno, pues esto hasta que en un cierto momento, en el departamento de educación de la ONCE, la directora en aquel momento, Luz Dainé, me propuso ir a trabajar allí, precisamente para la formación del profesorado en materia de didáctica de la matemática. Yo acababa de terminar el doctorado, estoy hablando de los años 90, hice el doctorado en el siglo pasado, 1999 fue el momento en que lo defendí. ¿Cuál fue tu tesis? Mi tesis, Iniciación al cálculo aritmético con estudiantes con deficiencia visual. Muy bien. Y deficiencia visual grave, para más datos. Bueno, y a partir de entonces dejé la enseñanza directa en secundaria, es decir, los adolescentes se libraron de mí, de alguna forma, y me dediqué sobre todo a la formación de profesores que tenían un estudiante con discapacidad visual en el aula. Y fui por esas ciudades de España y alguna del extranjero con el tema este, didáctica de la matemática. Y en aquella época que estabas en un centro neurálgico donde podías tener información de todos los estudiantes de España que estaban estudiando matemáticas, ¿sabes si alguno de ellos llegó a hacer también estudios superiores de matemática? Algunos de mis alumnos del colegio se licenciaron y están haciendo ahora mismo las matemáticas. Puedo recordar a Rubén Domínguez que trabaja en GMV desde nada más terminar la carrera, yo creo, pero en informática fundamentalmente, como informático. Y luego después, pues, algún otro, pero no se ha dedicado concretamente a las matemáticas, o sea que en matemáticas solamente se puede decir que tengo ahora mismo un activo este. Pero sobre todo me dediqué sobre la formación de los profesores de apoyo de los equipos de la ONCE o de las autonomías para atención a alumnos de la universidad. Y luego también me dediqué a estudiar en el régimen de educación integrada o educación inclusiva, que empezaba ya a llamarse. Bueno, pues comencemos hablando de matemáticas, pero de matemáticas sin apellidos. Todo lo que dicen sobre la matemática, ¿tú crees que es así, José Enrique? ¿La matemática es un lenguaje? ¿La matemática está en todo? Una precisión primero. Cada vez se habla menos de matemáticas y se habla más de las STEM, Science, Technology, Engineering and Mathematics. STEM es decir que la matemática como tal aislada de las demás, de las ciencias más próximas a las que prestan los servicios, la matemática, la reina y esclava de todas las ciencias, pues se tiende a dar en un conjunto de actividades que incluyen aspectos de trabajos en física o en química o en biología, que precisan tecnología, llegar a diseños que se necesitan para hacer un trabajo. Y modelos que funcionen, ingeniería, incluso algunos incluyen el arte. Antes que tú hacías, me parece Ricardo, referencia a este aspecto, lo que pueda tener de arte. Y esto era una expresión que tenía, quizás que ha sido el pionero en didáctica de las matemáticas en España, Pedro Puchadán, en los años 1940 y 50. Él mismo era músico. Él mismo era músico. Él mismo era músico. Era pintor y era profesor de matemáticas. Profesor en la escuela de ingenieros, profesor primero de instituto, se han ido en Madrid, luego en la escuela de ingenieros industriales. Pero lo que más le gustaba era dar clase a los niños pequeños, a los párvulos de 6 y 7 años, porque decía que ahí es donde se consiguen fijar los conceptos fundamentales de matemáticas. ¿Y por qué tienen tan mala prensa las matemáticas? ¿Por qué tienen tan mala prensa las matemáticas? Porque los profesores no saben transmitirlo correctamente. ¿Realmente son un tostón o hace falta proactivamente que el alumno ponga especial énfasis más que en otras materias? ¿Por qué tienen esa mala fama? Yo diría porque las matemáticas se han presentado siempre como algo abstracto. Es decir, alejado de la realidad cotidiana. No se ha visto la faceta de aplicación cotidiana. La aplicación cotidiana de las matemáticas en nuestra vida, en la vida diaria. Y la matemática está ahí. Y está en todas partes, ciertamente. Antes decíais que ser las matemáticas es un lenguaje. Vamos a ver. Para empezar voy a ser un poquito agresivo. Yo también quiero ser prácticamente incorrecto en algunas cosas. Y como estamos hablando de ciegos, la matemática son difíciles y aburridas para todo el mundo. Así que para los ciegos no es así. No digamos. Primera afirmación contundente. Soy consciente de lo que voy a decir. Lo lanzo como un reto. La matemática, cualquier aspecto de la matemática actualmente, es accesible para una persona ciega. No hay ningún concepto ni ninguna técnica matemática que no pueda ser alcanzada y manejada con destreza. Por una persona que no ve. Otra cosa son las actividades concretamente, que pueden ser más o menos complicadas y hacerlas más difíciles. Difíciles, trabajosas, pero no imposibles. No inaccesibles. Eso por una parte. Por otra parte, que las matemáticas se enseñan bien, se enseñan mal. Bueno, hay un aspecto. Para mí, yo no me gusta hablar de enseñanza. Durante unos años se hablaba de enseñanza-aprendizaje. La reforma educativa de los años 1970 y después 1980 se hizo más hincapié todavía. Es decir, lo importante no es lo que enseña o cómo enseña el profesor. Lo importante es cómo aprende y lo que aprende el estudiante. Es decir, un profesor puede ser un profesor excelente y sin embargo, pues los estudiantes en un aula, pues no lo hacen. No le siguen. No le siguen porque, en primer lugar, es que el aprendizaje es algo libre. Estamos hablando de personas, de animales racionales, no solo, sino sobre todo personas libres. Si no se quiere aprender, no se aprende. Se puede domesticar a base de palos, como los animales, ¿no? Sobre todo los animales que vienen de un mundo salvaje. Se les puede engañar con comida, con golosinas. Se les puede domesticar. Pero no aprenderán. Simplemente responderán a estímulos. Pero bien, en el caso de la enseñanza ocurre eso. Es decir, si el estudiante no quiere aprender, no aprende. Haga lo que haga el profesor. Ahora bien, los profesores efectivamente, o sea, pueden funcionar a base de palos, o a base de golosinas, o de presentar las cosas de forma, por lo menos, no desagradable. Cuanto más agradable, mejor. Hablaba antes de Puig Adam. Puig Adam tenía una frase dedicada a la formación de profesores que era el profesor tiene que disfrutar dando clase. Y los profesores tienen que pasarlo bien. Tienen que salir del aula, de la clase de matemáticas, habiéndolo pasado bien. Si no, no aprenderán. Verán las matemáticas como algo, decía antes, abstracto, gris, aburrido, y bueno, clase y que hay que aprobar. Pero luego después no me lo voy a encontrar en la vida. Cuando en realidad es todo lo contrario. En cuanto ponga el pie fuera del aula, se va a encontrar con matemáticas. Es cierto que el alumno está en el centro, pero un profesor ayuda, para bien o para mal, ayuda mucho. Yo tuve un profesor en el instituto con temas ya un poco integrales, ya complejas y cosas de estas, que en cada aula le daba un resultado distinto. Es que era difícil seguirle. Te desanimaba, ¿no? Yo ahí tengo también. Mi criterio, que no es nada científico, pero bueno, por observación o reflexión de lo que he vivido, yo creo que un aula es un sitio muy ecléptico, tanto de personalidades como de traumas. Tanto del que ofrece la información, como es el profesor, como los que la reciben y asimilan. Por lo tanto, clarísimo. Ahora, sí que veo la parte de mago del profesor. Está bien que el palo muchas veces viene bien y ponerte a ser y demás. Pero la parte de ilusionista, de atraer la atención, ¿vale? Y luego lo que ha dicho José Enrique, es decir, ser carismático, divertido, mover esas energías del aula, de la clase, hacen que toda la información entre sin darte cuenta también. Hablo, hombre, si ya estás concienciado y te gusta y vas a aprender, no te hace falta todo eso. Tú vas a, te digo, para un poco atraer lo que es la atención y la atención. Y la receptividad de la clase. Ya digo que esto no es científico ni nada, pero creo, estoy convencido de que debe ser así. Claro, hay que motivar. Intentar encontrar ese punto que al alumno le interesa para que pueda enganchar. No, estoy plenamente de acuerdo con vosotros. Pero lo que no ha habido es formación en didáctica de la matemática. Formación de profesorado. Apenas unas cuantas horas al terminar la facultad de algún seminario sobre didáctica de la matemática. Y, bueno, ya empieza a haber buenos divulgadores y buenos profesionales en didáctica de la matemática. Incluso hay cátedras en algunas universidades, pienso aquí en España, en Granada, que tienen cátedras, departamentos y cátedras de didáctica de la matemática. Didáctica en el sentido de aprender. O sea, mientras que la metodología se refiere más al cómo enseñar, al cómo presentar, al cómo ir creciendo, avanzando en el campo de los conocimientos, en los conocimientos matemáticos, la didáctica es sentarse a pensar cómo aprendemos la matemática y cómo aprender mejor las matemáticas. De forma, si se quiere, más sencilla. La palabra divertida no me gusta por lo que tiene de dispersión. Y no se trata de dispersarse. Lo que se trata es de ir buscando eso, los aspectos donde se encuentra, los aspectos que son agradables. Al monte hay que subir de todas formas. Hay que subir. Se le pueden poner un paseo con arbolitos, con fuentes, con pajaritos cantando en los árboles, algunos bancos para sentarse y tal. Muy bien, pero hay que subir. ¿Qué es la didáctica? ¿Qué es la didáctica? ¿Qué es la didáctica? ¿Qué es la didáctica? ¿Qué es la didáctica? Porque para aprender matemáticas hace falta codos o si las entiendes bien desde el principio porque te las explican bien y tú estás receptivo, no hace falta echar tanto codo. Las matemáticas son difíciles porque son más difíciles que las ciencias de naturaleza, cualquiera que sean, la física, la química, la biología, incluso las técnicas. Estamos en un segundo plano. No estamos en el plano de la realidad tangible, de lo perceptible, de lo que entra por los sentidos y que se quiere experimentar, sino que hay que hacer una abstracción. Hay que entrar en un mundo que está dentro de la realidad física pero que sin embargo hay que extraerlo. Es un pozo en el que hay que echar el cubo y luego subirlo. Pero sabiendo que hay un agua cristalina y muy agradable y además que tenemos sed porque lo necesitamos continuamente. Lo que me parece interesante es que ese refuerzo o esa insistencia inicial en la primaria de enseñar la base, la aritmática, el cálculo, donde se ponen tantos esfuerzos y realmente el alumno toma un primer contacto con lo que son matemáticas, le hace un flaco favor a lo que es luego la matemática más conceptual porque somos como los que miramos el dedo del sabio como necios, ¿no? Diciendo, joder, ¿y esto qué es? ¿Es dos más dos? ¿Qué es? Y nadie nos explica ese tránsito. Es decir, todos pensamos que las matemáticas es cálculo al principio, la aritmética, y luego pasamos a otra cosa que como bien has dicho es muy abstracta y ahí muchas veces no tenemos un hilo de arianda para llegar hasta el final de todos esos conocimientos. Decimos, bueno, vale, ya está. Hasta aquí llego, pero esto ya se me va de las manos. Para empezar, ya el dos más dos es abstracto. Estamos en el campo de la abstracción. Y hay dos cosas. Una cosa es el cálculo concretamente, que es la primera fase de las matemáticas. Incluso históricamente los primeros pasos en la escritura fueron las matemáticas. Empezamos con marcas, con marcas en madera y en hueso, como ya me ha parecido, muy anteriores a la aparición de la escritura jeroglífica, logográfica o de, bueno, no digamos ya hasta llegar a la alfabética, o becedárica. Pero una cosa es encontrar las matemáticas en una realidad y otra cosa es la presentación de las matemáticas después. Y ahí voy a seguir, voy a ser uno correcto en una cosa por incorrecto en otra. Los lenguajes. Los lenguajes de presentación, de acceso a las matemáticas y luego para poder trabajar. Los cuatro lenguajes. Yo soy partidario de los cuatro lenguajes. No sé si la expresión me pertenece o la encontré en algún sitio y me gustó. Hay un lenguaje manipulativo de expresiones físicas, de tomar tres piedrecitas y otras tres y otras tres y otras tres y otras tres y cómo, primero, ir sumando, y tres más tres, hay una realidad. Ahora ya estamos hablando. Tenemos el habla común. Aunque no lo escribamos. Pero estamos manipulando y estamos hablando. Es muy fácil convertir eso en el habla, la lengua común, que es la lengua franca del aula. Fundamentalmente en el aula se habla. Bueno, se manipula. Si no se manipula, malo. Si directamente pasamos a decir, niños, repetir conmigo, tres más tres, tres más tres son seis. ¿Lo cantamos? Lo cantamos. Se puede cantar. Pero falta ese lenguaje manipulativo de encontrar la matemática en la realidad. Y luego tenemos, aparte del habla común, que sea hablada o pueda ser escrita. Me hace mucha gracia cuando he pasado algún podcast o alguna charla, la he pasado de voz a texto. Claro, no utiliza cifras ni cantidades. Utiliza el lenguaje, el lenguaje, el habla común. O sea, tres, T-R-E-S, más M-A-S, con acento, tres es, hace seis. Bueno, pues estamos en el habla común. Pero, por sencillez, y repito, esto también históricamente fue el paso inmediato, antes incluso posiblemente que en otras formas de escritura, la escritura simbólica, el lenguaje simbólico. Y ahí sí que las matemáticas tienen un papel fundamental. Tienen un papel fundamental porque el lenguaje simbólico, simbólico matemático, es decir, desde las cifras, los números, y luego ya las expresiones algebraicas o de expresiones geométricas o de lógica, ese hoy día es un lenguaje universal. Es decir, los chinos, en el chino tradicional, en el pequenés, por ejemplo, pues sí, había una escritura de los números, o en el caso de la escritura maya, que es una cosa, es un monumento a la razón humana, de los productos de la razón humana, es la escritura numérica maya. Pues es simbólica. Pero hoy día hay un lenguaje universal, simbólico para las matemáticas. Una sobrina mía y su marido pues fueron a trabajar a Múnich. Y de sus hijos, pues uno de ellos, en Zaragoza, estaban en un... en un colegio bilingüe, es decir, algunas naturas en inglés y otras en español, castellano. Pues había en Múnich una escuela que era bilingüe, pero inglés-alemán. Y yo hablaba con este, que tenía entonces 13 años y estaba desesperado, porque de la mitad de las cosas, o de otra parte, no se enteraba. Y le pregunto, bueno, ¿y el mate es qué tal? Y dice, ah, muy bien, tío, estupendo, porque eso sí que es todo igual. Se escriben exactamente igual en alemán que en español. Se escribe en lenguaje matemático, en lenguaje simbólico matemático. Pero hay otro lenguaje muy poco utilizado en matemáticas, y en el caso de los ciegos yo diría que todavía menos, porque se piensa que es imposible, que es el lenguaje gráfico. El dibujo. Que no es sólo para geometría. Es para teoría de conjuntos. Es para representación de las operaciones aritméticas, incluso del álgebra. Pero, muy bien, esos cuatro lenguajes, manipulativo, el habla común, el gráfico, que para mí es el específico de la didáctica de la matemática, y el simbólico matemático, esos cuatro lenguajes, continuamente hay que utilizarlos en el aula. Se deben utilizar esos cuatro lenguajes. Y todos ellos son accesibles con muy pocas modificaciones, con muy pocas modificaciones, con muy poco instrumental son accesibles para un estudiante o un adulto que quiere, ciego, con discapacidad visual grave, que quiere aprender matemáticas. A mí me han comentado varias veces, me resulta curioso, personas ciegas de nacimiento, que el tema de la perspectiva tienen graves problemas para entenderlo, incluso que no llegan a comprenderlo. Perspectiva me refiero a dibujar en perspectiva isométrica, perspectiva caballera, diferentes formas... de dibujar en un plano, en dos dimensiones, dibujar algo de tres dimensiones. Hay diferentes formas, diferentes técnicas. Y una persona ciega de nacimiento puede que tiene problemas con ello. Si os parece, podríamos ir por áreas dentro de la matemática y entonces vemos también las soluciones que hay y sobre todo cómo la tecnología, qué aparatos pueden utilizar los ciegos para acceder mejor a estas cosas. Porque precisamente si has tocado un punto, es un punto que es un poco escabroso, de alguna forma, que es la perspectiva, que ni siquiera la vista la percibe, perdón, la vista en la realidad sí la percibe. En un dibujo no la percibe, la construye. Si queréis, ya os propongo, si os parece bien, empezamos por lo que ha parecido siempre muy difícil y ha llevado muchas horas de trabajo y muchos ensayos, que es el caso del cálculo. El cálculo aritmético, que es lo primero que se aprende y es lo que se maneja más en la vida, habitualmente. O sea, si llegamos a una tienda de chuches, un estudiante o llevamos nosotros adultos, llegamos a una cafetería y vamos un grupo de cuatro amigos y pedimos cuatro cafés y sabemos que bueno, que son dos euros veinte, dice, ¿cuánto es esto? Hoy invito yo. Dos veinte por cuatro, cuatro por dos ocho, veinte por cuatro, ochenta. Ocho ochenta. Vale, muy bien. ¿Qué estamos haciendo? Estamos haciendo cálculo mental. En la vida se hace, sobre todo, cálculo mental. En cantidades pequeñas. Y en cantidades grandes, ¿qué se hace hoy día? Se coge el teléfono y sé que hay que multiplicar diecisiete coma veinticinco por bueno, vamos a poner otras dimensiones de una sala que hay que cubrir el pavimento. Hay que cubrir el suelo para alfombrarlo, poner una moqueta o poner un pavimento cualquiera. Y la habitación tiene cuatro con veinticinco por dos con ochenta y cinco. ¿Qué hacemos? A la calculadora. A la calculadora. Hoy día se le ocurre a alguien coger un papel y empezar a escribir aquellas multiplicaciones con las que nos torturaron. O sea, yo también fui víctima de las multiplicaciones y divisiones horrorosas. Pero bueno, sí, te obligaban a hacer esfuerzo. Y me llevo una. Y me llevo una. Y ponías la cometa arriba, ¿no? Y me llevo una. Una suma grande. Bueno, ahí está el primer escollo en el aprendizaje de matemáticas. En los cálculos largos, tediosos, aburridos y sin sentido. Sin sentido porque luego en la vida no se usa. Del cálculo mental a la calculadora. Hay que aprender los algoritmos. La forma escrita de hacer las operaciones grandes. Yo diría conocerlos como una antigüaya, como una curiosidad. Que por cierto, los algoritmos que se utilizan en España, bueno, yo creo que prácticamente en todo el mundo ahora mismo, bueno, suma y resta ya son más antiguos, pero lo que son los de multiplicación y división fueron construidos por un ciego, por Leonhard Euler. Leonhard Euler veía muy mal, ya a partir de los 32 años, no podía leer, sólo podía escribir. Y escribía y luego tenía secretarios, primero unos secretarios y luego un yerno y luego el hijo de un zapatero. Que pasó a la historia con un nombre, porque se dedicó a las matemáticas. Pues, pero a partir de los 50 años ya no podían escribir, no se entendía lo que escribía, lo dictaba. Pues bien, ¿por qué inventó los algoritmos de las operaciones aritméticas? Incluso el algoritmo de la raíz cuadrada. Cosa curiosa. Ahora bien, hoy no, hoy día no se usan los algoritmos escritos. Son inútiles en la vida ordinaria. Bueno, hombre, no todo el mundo tiene un teléfono a mano. Yo pienso siempre en los veintitantos millones de estudiantes ciegos, que hay ciegos totales, que hay, por eso, el mundo es de Dios. Personas ciegas habrá del orden de doscientos y pico millones. Personas que se puede decir, bueno, adultos, pero estudiantes, del orden de veintitantos millones. Bueno, es que esto no tiene ni instrumental para escribir en braille. Mucho menos instrumental que permitiera hacer las operaciones aritméticas pues de forma accesible para una persona ciega. No digo yo una máquina Perkins, que fue un gran adelanto, un salto en la educación de los ciegos. Bueno, primero, por supuesto, fue el braille, pero eso nos llevaría al lenguaje simbólico. Pero luego, como instrumental, la máquina Perkins, que acabó además... ¿El abaco no? El abaco es que era un instrumento, no ya para personas ciegas, sino de cálculo general, de tiempos remotísimos. O sea, los, por ejemplo, los romanos, antes los fenicios utilizaban los abacos. El abaco de diez cuentas. Y luego, el abaco japonés, chino-japonés, donde una cuenta vale por cinco y luego cuatro cuentas más, pues he dicho diez cuentas, no, nueve cuentas. El de diez cuentas era el de Montessori, que se utilizó para la educación. Pero para cálculo se utilizaba el abaco de nueve cuentas. Los mercaderes. El común de los ciudadanos no utilizaban el abaco. No sabían calcular. Se les podía engañar fácilmente. Confiaban a los mercaderes o no confiaban. Pero bueno, se vio que era accesible. ¿Es fácil explicar cómo funciona un abaco? Cómo funciona, sí. Pero cómo se hacen las operaciones con el abaco no es tan fácil. Tiene un algoritmo propio, distinto de la escritura. En realidad son una colección de varillas unidas por un eje longitudinal. Bueno, está normalmente en una cajita, una caja. Y entonces ese eje longitudinal, esa línea, lo dividen las varillas en dos segmentos. Uno más pequeño con una sola bola, una sola cuenta, y el otro con cuatro cuentas. De manera que si se acercan a la que está sola, se acerca a la línea de separación central, que es la línea de unidades. Si quieres escribir tres, lo que tienes que es separar. Esa tiene que estar alejada de la línea de separación. Y acercar tres bolas, que son unidades. Si quieres escribir siete, pues acerca la línea de cinco y dos de uno. Esto se puede hacer muy rápidamente con los dedos. La vista ayuda, pero las personas ciegas lo pueden hacer con gran rapidez. Eso es para escribir una cantidad. Para la suma, bueno, puede ser cuestión de ir sobre una cantidad ya escrita, ir haciendo lo mismo, ir reduciendo. Es decir, cuando llegas a más de diez, entonces dejas las que pasan de diez en esa varilla, y añades una unidad de orden superior a la siguiente. Hay que sumar de dos en dos las cantidades. Bueno, en cálculo mental también se hace así, de dos en dos. Bueno, puede llegar a ser muy rápido. La suma y en el caso de la resta. La multiplicación es suma repetida. Es bastante más, si llega a ser, bastante más complicado. Y la división es complicadísima. Hay que aprender las técnicas de manejo del abaco. Pero es que hoy día no me hace falta. Es que hoy día no hago cálculo escrito y tampoco utilizo instrumental específico. Bien, ya sé que hay personas que discrepan de este asunto. Bueno, yo también tengo derecho a discrepar, ¿no? Del cálculo mental en la calculadora. Bueno, perdón, cálculo mental se puede hacer cosas imponentes. O sea, claro, si decimos, hombre, si quieres multiplicar 83 por 77, digo, muy sencillo, 6391. Muy bien. Ahora cogemos nosotros la calculadora y lo comprobamos. Si quieres, si quieres. Pero, ¿por qué? Porque 83 es 80 más 3 y 77 es 80 menos 3. Suma por diferencia, diferencia de cuadrados. 80 al cuadrado menos 3 al cuadrado. 8 al cuadrado es 64. Y dos ceros, claro, 6400. Menos 3 al cuadrado que es 9. 6400 menos 9, Esto está al alcance de todas las fortunas. O sea, no hay que ser un Euler para hacer este tipo de cálculos. Se puede aprender hombre, pasito a pasito, eh. Pero el cálculo mental se pueden hacer maravillas. Pero, ¿se han despreciado? No se ha cultivado apenas el cálculo mental en el aula. Que, por cierto, José Enrique tiene un podcast muy interesante donde cuenta todas estas cosas. Ya lo pondremos en las notas del episodio. Por supuesto. Sí, sobre las operaciones y luego los juegos. Es decir, la motivación. Si en el aula hay que trabajar con la matemática abstracta, bueno, matemática abstracta no tanto, al iniciarse lo manipulativo. Lo manipulativo y servirse de algunos elementos de juego. Por ejemplo, yo en los últimos años me he dedicado sobre todo a diseñar juegos sobre todo de estrategia, pero también de contenido. Relacionado con las piezas y el tablero de ajedrez. No son propiamente juegos de ajedrez. Es utilizar las piezas y el tablero para juegos de estrategia. Pero bien, también juegos de contenido. Por ejemplo, el otro día lo hacía más a distancia con unos profesores en Níger. Bueno, para cómo iniciarse la multiplicación. Tenían por ahí ya el tablero y las piezas preparadas. Y iba muy bien. Cómo se dice en francés tres por cinco. Tres multiplicado por cinco. Se dice tres veces cinco. Me parece muy lógico. Tres veces cinco. Pues muy bien. Tres veces. Coloco tres piezas de ajedrez juntas en línea. Tres. Y debajo otra vez tres. Y debajo otra vez tres. Y debajo otra vez. Así. Cinco líneas. En total, ¿cuántas hay? Tres más tres seis, más tres nueve, más tres doce, más tres quince. Luego, tres veces cinco. Tres por cinco. Son quince. De acuerdo. Giramos el tablero. Sin mover las piezas giramos el tablero. ¿Qué tenemos ahí? Ahora tenemos tres filas con cinco piezas en cada una. Cinco más cinco diez más cinco quince. Bueno, lógicamente son las mismas de antes. Simplemente hemos cambiado la posición. Pero hemos descubierto que tres por cinco es lo mismo que cinco por tres. La propiedad conmutativa que va a ser importantísimo para el cálculo mental. Es mucho más fácil cinco por tres en cálculo mental que tres por cinco. El mayor delante. Por ejemplo, estos son problemas de didáctica. Es forma de presentar las operaciones. Es forma de iniciarse en el cálculo mental. De lo manipulativo al habla. Y del habla hay que terminar el cálculo simbólico. Y también se puede hacer gráfico. ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? Si hay un problema todavía que está por resolver. Que son las aplicaciones para aprendizaje del cálculo aplicaciones informáticas. Concretamente para móviles pero no sólo para móviles. También para ordenadores efectivamente o tablets. Una cosa es el ejercicio de cálculo mental como es la aplicación desarrollada para Jonathan Chacon. Y otra cosa son aquellas aplicaciones que son situaciones que inician el cálculo de forma semejante a las actividades manipulativas. Ya sea con pollitos o con peces o con pajaritos. Cosas agradables, llamativas y con mensajes sonoros también combinados para niños videntes de 5 años. No se han desarrollado no se han podido accesibilizar todavía ese tipo de aplicaciones. Hay algunos intentos el grupo Accedo de la ONCE que no sé si me refería antes de accesibilidad de contenidos educativos digitales y que se empezó a trabajar ya en el año 2005 me parece. 2004-2005. Pero sirviéndose de tabletas de tablets sobre todo para poder colocar láminas en relieve o manejar el punzón digital o bien mediante presión en algunos tipos de tabletas. Bueno, pues para ese tipo de actividades de carácter manipulativo con todo tipo de estímulos sonoros, llamadas o verbales. Y al mismo tiempo que fueran inclusivos, es decir, que pudieran utilizarlos indistintamente un estudiante ciego o un estudiante vidente. Esto hay que hacerlo extensible a todas las aplicaciones, no solamente del cálculo, de inyección al cálculo, sino de desarrollo de cálculo mental o de álgebra o de geometría o de esto. Es una asignatura pendiente y sí tengo que decir que en España en esto ha llevado la iniciativa y sigue llevando la iniciativa, porque han hecho algunas cosas en Países Bajos, me parece que también en Grecia se ha intentado en Estados Unidos, aunque no les preocupa menos. Tengo que decir una cosa que me molesta terriblemente terriblemente porque me parece una estafa. En muchos lugares del mundo hablo de prácticamente toda Latinoamérica también en algunos estados de Estados Unidos se dispensa al ciego de estudiar matemáticas porque son muy difíciles, porque no son accesibles para una persona que no ve. Bueno, no hablo ya de África y de Asia, donde es que la asistencia a las aulas es completamente pasiva. No es realmente inclusiva, no participa de la actividad grupal. Simplemente trabaja de oído o se utiliza braille también, tablet y tableta de punzón. No más allá. Raras veces un iPhone o un ordenador. Pues bien, me parece una estafa, una estafa. Es decir, y en algunos casos concretamente en Estados Unidos no recuerdo si fue en Michigan, no recuerdo el estado, pero una madre, profesora de matemáticas, con un niño de 9 años le dispensaron de la geometría. Entonces, reclamó y dijo, no vamos a ver, mi hijo tiene derecho a aprender geometría como los demás. Y la respuesta fue que es que en todo el estado no había personas especializadas en hacer dibujos en relieve. Ella dijo, bueno, pues si no lo hay en este estado, que lo busquen. O que la formen. Pero mi hijo tiene derecho a una formación completa en matemáticas como los demás niños. Y fue a juicio y lo ganó. Pero claro, habían pasado meses, si no decir más de un año, con lo cual el niño ya había pasado de curso y eso quedó así. Me he marchado de tema, hemos pasado del cálculo a la geometría, pero yo creo que el problema en este caso es semejante. Falta de formación del profesorado, falta de orientación a los padres, falta de orientación a los profesores. Pero ¿y otras técnicas para llegar a la pregunta esta de que por qué las personas ciegas de nacimiento pues tienen problemas para percibir una perspectiva? Bueno, las personas ciegas de nacimiento, como te digo también, los videntes. Los videntes que directamente se les presenta un dibujo plano en dos dimensiones, bidimensionales, no sabe que aquello es una perspectiva si previamente no ha percibido la realidad. Y sabe que aquello es una reducción, es una simplificación de lo que ven sus ojos. Aparte que tiene la ventaja de tener dos ojos. La visión es binocular y por tanto puede percibir el relieve. Y si percibe el relieve, percibe la profundidad. El tacto en ese sentido es mucho más exacto, adecuado que la vista. Pero hay que dárselo en relieve no de dos dimensiones, no un patrón realzado, sino quedárselo en 3D. Yo he puesto muchas veces el ejemplo al tomar un paquete de el epípedo, un prisma ortogonal. Puede ser una cajetilla de tabaco. Yo era fumador, no lo soy desde hace más de 10 años. Entonces, la vista, al percibir de lejos algo, no sabría distinguir, quien mirara con un solo ojo, no sabría distinguir si aquello es una lámina o es una cajetilla. Con el tacto, simplemente tocándolo, estás percibiendo el conjunto. Todas las caras puedes percibir con muy pequeña emoción. Puedes percibir la forma del epípedo, el prisma de Ortogonal. En alguna forma, es cubista. El tacto es cubista. Ve desarrolladas las distintas facetas del objeto. Pero esto para luego asimilarlo a lo que es la representación en el plano es complicado, porque el concepto sí pueden saberlo, pero lo que es la imagen, realmente estaríamos hablando de que para el sentido del tacto el plano no tiene ningún sentido. Valga la pena. El plano, o sea la representación en plano... Sí, de la perspectiva en plano. Perdón, de la perspectiva en plano. Yo recuerdo una experiencia que hice con los alumnos ya en bachillerato, que les gustaba además mucho el dibujo sobre lámina de caucho, pues de lo que era precisamente la axonométrica. O isogonal, como se quiera. Que era con un con un trihedral hecho en papel, o simplemente. Un corte plegado y una grapa, y me queda un trihedral, un rincón del aula, se puede decir. Y entonces allí colocar un objeto concretamente que eran paralelepípedos, en este caso en prismas de base rectangular en madera. Y entonces ver cómo coincidían con las paráides. Bueno, primero las tres líneas de los tres ejes dibujados de forma aproximadamente isogonal, porque no hace falta que sea exacto. El dibujo en matemáticas no es necesario que sea exacto. No hace falta regla y compás. Lo importante es que ayude a la imaginación, que sea representativo. Pero no tiene que ser preciso. Bueno, pues situado en ese rincón se veían las aristas como tocaban con los ejes y con las caras del trihedral, los tres planos. Con lo cual aparecían las paralelas y luego después las paralelas correspondientes a las aristas exteriores. Ahora bien, esto supone una formación, un ejercicio, un desarrollo de destrezas. O sea, esto no es inmediato. Pero insisto, para el vidente tampoco es inmediato. Pero el itinerario es mucho más rápido porque tiene la realidad al alcance de la mano, al alcance de los ojos, y puede percibir el relieve. Pero sería factible. Ahora bien, ¿esto para qué sirve? Porque solamente me va a servir para luego plantear otro tipo de problemas de cuáles serían las proyecciones. ¿Cómo serían? Pues entonces, mire usted, tengo un material manipulativo completamente accesible, prácticamente sin costo. Estoy hablando de simple papel, una grapa, un bolígrafo y para marcar concretamente los puntos de los vértices. Bueno, claro, esto es adaptado a la aplicación de material para que sea accesible. Pero no es un material que sea, vamos, muy sofisticado. O sea, que es un arte doméstico. Hay una cosa que no he tratado hasta el momento, que es el tema del dibujo. O sea, el dibujo en matemáticas. En matemáticas, en física, en química, para el caso de moléculas, en disposición de aminoácidos en proteínas, etcétera, etcétera. Bueno, pues el dibujo en matemáticas con la lámina de caucho, con la hoja de goma. Simplemente es un rectángulo de goma, caucho, que tenga capacidad de recuperación. Lo que ahora llaman resiliencia. O sea, colocando una hoja normal de la que se utiliza para impresoras y con un bolígrafo ordinario de bola, al dibujar, al hacer un poco de presión, además del trazo visual en tinta, se hace una deformación del papel. En principio hacia abajo, hacia la goma, pero la goma lo recupera hacia arriba. Si no, se da el trazo, los dos labios del trazo. Con lo cual, el dibujo queda en relieve. En relieve y en tinta. Lo puede hacer el estudiante para que lo vea un compañero, para que lo vea el profesor. Lo puede hacer el profesor o lo puede hacer un compañero para que lo vea el estudiante ciego. Bueno, dice estudiante, dice un adulto, ¿no? Bien. Ahí lo tenemos. ¿Cuánto cuesta ese dispositivo? Pues en España me parece que se consigue por 8 o 10 euros. En algún país de Latinoamérica están utilizando, no unas láminas en proceso para dibujo, pero son láminas de caucho de desecho de la impresión offset, por ejemplo. En otros sitios han hecho pruebas con algún tipo de cuero. De cuero ciertos animales y Skype, que tiene un, bueno, pues es un cierto mullido para poder, que se pueda producir la deformación del papel. Bueno, esto no cuesta nada y el ciego puede dibujar directamente. Yo en algunos cursos he llegado a utilizar este sistema con una tableta digitalizadora y dibujar para ser proyectado en pantalla. No recuerdo ahora mismo un programa de Microsoft, vamos, de grupo de Windows, ¿no? O sea, no recuerdo si es el Paint o cuál era, pero, bueno, previamente preparaba para que el color me apareciera en contraste adecuado, que sea un color morado y si hubiera algún momento utilizar verde, ¿no? Bueno, o sea que se pueden hacer muchas cosas. Falta disponibilidad de información, falta orientación y faltan horas de trabajo para desarrollar técnicas que faciliten el acceso a las matemáticas. Que faciliten el acceso, el lenguaje para representar las matemáticas. No es cuestión del acceso a las matemáticas como decía al principio, ¿no? Profesor, tengo que hacerle una pregunta. Tal vez sea de ignorante. Mi ceguera ha sobrevenido... Todos somos ignorantes, de lo que no sabemos. Pero no todos ignoramos las mismas cosas. Sí, sí. Pero yo esto sí lo ignoro y lo voy a preguntar. Así que mi ceguera ha sobrevenido a los 20 años. Yo pintaba acuarela anteriormente. Y lógicamente luego tuve que enfrentarme a este cambio, ¿no? De cómo representar las cosas. Entonces, vamos, enseguida me di cuenta que justamente la acuarela y la traslación de la acuarela a mi realidad como persona ciega era imposible. Pero sí que me interesaron mucho lo que es la representación de la forma y el dibujo. Y utilicé estas placas de caucho y demás, pero dices que el ciego puede dibujar en un papel con un cauchajo. Pues yo que he dibujado con vista y luego intento hacerlo sin vista, yo no tengo esa capacidad. Yo hago churros. Yo no sé realmente dibujar bien este tipo. Hombre, lo que sí que me ha venido bien muchas veces para entender, y lo he visto en ilustraciones, es con esta técnica también, que supongo que será muy similar en algún libro hablando de geometría o de algo. He visto una representación y recorrerla y tocarla sí que me ha dado datos. Pero hacerla yo, yo me siento un inútil, ¿eh? No soy capaz. Bueno, una cuña publicitaria. Yo tengo colgados en Youtube una colección de... parece que son 11 vídeos sobre el dibujo del alumno ciego en el aula de matemáticas. Hay que empezar por el principio, o sea, hay que empezar por saber sujetar el bolígrafo. O sea, tú habías visto y lo habías utilizado. No necesitarías eso. No. La mayoría de los estudiantes de corta edad que han perdido la vista en la temporada no saben cómo sujetar el bolígrafo, por ejemplo. Después tienen que entrenarse en la presión que tienen que hacer, las direcciones preferentes, lo que es la línea recta. Importa la decisión. Importa el control muscular anestésico. Es decir, hay que adquirir unas destrezas, unas técnicas de dibujo. Y bueno, si llega el momento de dibujar una circunferencia, siempre de la mano alzada, como dibuja el profesor en el tablero, no utiliza compás, ni siquiera reglas. Traza las líneas. Y ya he dicho que es que en matemáticas no me importa el dibujo exacto. Es más, el dibujo exacto no existe. Ni el mejor de los dibujantes con el mejor de los compases sería, no sería capaz de dibujar una circunferencia perfecta. No existe. No es posible. Si se mira con lupa, incluso no es un trazo continuo, son puntos separados. Y hay desviaciones. Bueno, lo que importa, me importa en matemáticas que para mí aquello sea una circunferencia, aunque parezca una patata. ¿A ti te servía lo que hacían tus alumnos? ¿Sí que realmente estaba el objetivo cumplido? ¿Dibujaban bien? A mí me importaba que sirviera a ellos. Yo podía... Tú lo corroborabas y decías, vale, perfecto. Claro, obviamente, esto es. O sea, si tus circunferencias eran tangentes, distinguir lo que son tangentes de lo que son secantes de lo que son concéntricas, por ejemplo. Es decir, pero claro, eso, ya digo, hace falta... Normalmente, a mí me ocurría con estudiantes que llegaban tercero, cuarto de eso, estoy hablando de 14, 15, 16 años. No habían dibujado en su vida. Se encontraban con la hoja esta de caucho y empezaban a dibujar. En 15 días eran capaces de hacer todo, mejor o peor. Ellos me decían, que bien te salen las circunferencias. Y decía, claro, claro que me salen bien. Y les contaba la anécdota del Bosco cuando alguien fue a contratarle. Y el Bosco estaba en su taller y le pidieron que le diera una muestra de su trabajo. Entonces cogió un pincel, con un pergamino, lo que fuera que trabajar, una tablilla, y simplemente dibujó una circunferencia. Toma, llévaselo a tu señorito. Y llegó a casa y entonces el señorito dijo, sí, no sé quién era el señorito, pero le contrató como pintor de... Sabiendo la dificultad que tenía hacer una circunferencia así. Exactamente, a mano alzada, directamente. Pero es que yo he dibujado, en mi vida, ya había dibujado en ese momento miles de circunferencias, de todos los tamaños. Con lo cual, claro, me salían bastante redondas. Pues ese tipo de cosas. Pero que se conozca que ese material existe, se puede utilizar, no es costoso. Y pues puede hacer. Otra cosa es el dibujo figurativo. En las formas. Es decir, se pueden hacer, no recuerdo cómo, un tipo de caricaturas, de dibujos de, bueno, que es un son cuatro líneas que son los brazos, las piernas, el tronco es una línea y luego para el caso de los pies y las manos, pues unos ovalitos y una circunferencia si quieres ponerle pelo para la cara. Bueno, distintas actitudes. O sea, lo que puede ser un jugador de tenis, o lo que es, bueno, pues alguna cosa. Pero cosas muy simples, muy sencillas. Siempre te queda el origami o la papiroflexia, ¿no? Que permite también representar muchas formas. Completamente de acuerdo contigo. O sea, precisamente en uno de los podcast que decía antes Arturo me refiero al plegado de papel de triángulos. Y esto me llevó a la satisfacción de que una profesora que había estado en uno de mis cursos de formación de profesores de un instituto, había utilizado una de las técnicas que les propuse para temas de geometría, el plegado de papel. No llega a ser papiroflexia, pero bueno. O sea, un triángulo cualquiera. Preferentemente acutángulo para que esto, bueno, es decir, plegar por uno de los lados, plegarlo por el punto medio, que simplemente plegarlo que coincidan los vértices, marcar el punto medio entonces, y la línea consiguiente. Estoy trazando la perpendicular, porque me forman dos ángulos iguales rectos, la perpendicular a ese lado. Lo que algunos llaman mediatriz. No tengo ni por qué ponerle nombre. Bueno, eso lo hago con un lado y luego con otro, y luego con otro. O, cielos, las tres coinciden en un punto. Y además, si con un bolígrafo o un punzón fijo ese punto sobre la mesa y extiendo lo más posible el triángulo y lo hago girar, me doy cuenta que al girarlo me va rozando la otra mano con los tres vértices a igual distancia de ese posible centro. Es decir, es el mismo que se puede hacer con las líneas principales distinguidas de un triángulo. Se puede hacer con las alturas, se puede hacer con las... bueno, ahora veis actriz, es muy sencillo. Las medianas también, el punto medio con el vértice opuesto. Y si a eso le ponemos un lenguaje un poco simpático, bueno, simpático para mí, no sé, a los alumnos creo que también les gustará. Es decir, que estoy haciendo arqueología y me encuentro unas excavaciones... Esto está de moda. El no retocar lo que está oculto, retocar lo menos posible. No aflorarlo, dejar que siga durmiendo para no romperlo. Bueno, resulta que son un país donde las ciudades son triangulares. Trianglia. Lo tienes en el podcast. Bueno, bien, y entonces pues tengo las puertas de acceso a la ciudad, que son los puntos medios de los lados, las vértices, que son torres, y las murallas, que son los lados. Y cada una de un color, además. O sea, el color de la torre y de la muralla y de la puerta, puede ser o bien azul, tiene azulejos azules, o bien puede tener piedras o mármoles blancos, o color carmesí. Estoy hablando de azul blanco b c carmesí. Estoy llamando a la imaginación. Y estoy facilitando la simbolización. Bueno, eso es didáctica. Y las medianas son las vías que unen la puerta con la torre opuesta del mismo color. Las medianas. O el caso de las... Bueno, las mediáticas no las necesito para el caso de la ciudad. Sí, necesitaré después el circuncentro. Pero bueno, en el caso de las alturas serían acueductos dentro de la ciudad. El aljibe o depósito de agua enfrente, justo enfrente, la perpendicular. El camino más corto entre la torre y la muralla opuesta, del mismo color. Y luego después, en el caso de las bisectrices, son las líneas de aprovisionamiento a los almacenes que están en la muralla opuesta y a igual distancia de las otras dos murallas. Bueno, es decir, ese tipo de cosas, y luego puede dar lugar a una serie no solamente de... en el caso de arqueología, de saber cómo era la ciudad, simplemente con tres puntos fundamentales geometría afín, estamos hablando de puntos, sino que me puedo encontrar unas tabletas, unas tablillas en cerámica, donde he dibujado con distintos colores unas líneas. Unas líneas con unos signos que justamente decoran esas vías. Bueno, estoy hablando de geometría vectorial. Es decir, simplemente conociendo las direcciones de tres de estas líneas, podría reconstruir la ciudad. Serían planos, y también no se correspondería. Sería el que yo quisiera darle. O, si quiero, informaciones de espías que me hacen mediciones de algunas de estas líneas, ya sea una altura, una muralla y una mediana, por ejemplo, del mismo color, o de colores distintos, o dos y uno. Bueno, estoy hablando de un archivo del centro de espionaje de Triantia. Es decir, estamos pasándolo por lo menos un poquito mejor que si solamente habláramos de triángulos, de líneas, de distancias, de medidas. Eso es motivación y eso es didáctica. Y es más digerible, por supuesto. Ha habido una cosa que... Esto es cuña, que también es triangular. ¿Qué has dicho antes, cuando has comentado el caso de la mujer esta que era profesora de matemáticas y habían dispensado a su hijo del aprendizaje? Yo sé que en tu época activa laboral, porque activo sigues, has tenido ponencias y has participado en congresos, supongo que todos relacionados con la didáctica de la matemática y cosas afines. En el mundo, esta es la pregunta, ahora. ¿Realmente no hay ningún tipo de organismo, no hay ningún tipo de convención, no hay ningún tipo de intercambio? Hablo del mundo, no de América y Latinoamérica, sino de todo el mundo, donde se intercambien las experiencias de cómo enseñar matemáticas a las personas ciegas. Me parece que no. Yo no tengo información. Y es... Y sí es lamentable, porque claro, no sólo con las matemáticas, o sea, hay que hablar de todas las ciencias, por supuesto, pero también con la física, el tema de las experiencias en física o en química, o la formulación, en el caso de la química, o la simple notación matemática, dificultades en alguna cosa de estas. Que yo sepa, no lo hay. Yo intenté, bueno, he intentado, ahí está una página web donde iba colgando algunas de estas cosas que iba haciendo, disbimat.net discapacidadvisualmatemáticas.net discapacidadvisualmatemáticas.net y luego después, pues, iba a decir un discípulo, sí, es un discípulo de internet, es un estudiante guineano que estudiaba en España y que ahora mismo se ha volteado a Guinea, ha terminado aquí en la formación informática de plataformas, y que está dando un curso de formación a profesores y a estudiantes en el Níger, no Nigeria, sino el Níger Niame, que es donde están cerradas las fronteras, porque están con una dictadura y todo el extranjero no puede entrar, pero este ha entrado, este extranjero no puede entrar, pero él ha entrado y bueno, he intentado hacer, me ha pedido permiso, y me ha dicho, no te importa que hacer una página web, hago una página web donde además de matemáticas puedo meter otras cosas de ciencia, digo, lo que quieras encantado, lo mío es todo público, o sea que no son GPL, son licencias totalmente abiertas, lamentablemente me parece que no, que hay muy poca información, hay muy poca información disponible. Hay muy poca coordinación mundial cuando es una circunstancia que, y antes lo estábamos comentando, porque no sé si estarás de acuerdo, las disciplinas como tú las llamaste antes, que están todas vinculadas a las matemáticas y demás, son prioritarias, entonces no entiendo por qué las personas ciegas debamos quedarnos fuera de muchas oportunidades por no tener esa base. Bueno, yo te he dicho antes que es que prácticamente toda Latinoamérica los ciegos estamos dispensados de estudiar matemáticas y ciencias, como también de educación físico-deportiva, o como quiera llamarse, actividades deportivas, es decir, el currículum está reducido a la mínima expresión. A mí me parece una estafa, ya lo he dicho y lo repito, es decir, no permitirle desarrollar sus capacidades muchas veces por ignorancia, otras cuantas, unas cuantas por comodidad y desde luego con frecuencia pues... Por falta de recursos. No, no, los recursos son mínimos, o sea, vamos a ver... Recursos humanos que se dediquen a hacerlo, vamos. Ah, recursos humanos, sí, sí, sí, recursos humanos por supuesto, efectivamente, pero que se podría simplificar y economizar muchos esfuerzos y muchas horas de trabajo de quienes sí quieren hacerlo pero no tienen dónde colgar o dónde encontrar esos recursos. Entonces, la diferencia entre la comprensión visual y la comprensión táctil no es impedimento pues para tener estas habilidades y estos conocimientos. ¿Habría algún punto concreto, quizás, que fuera más complicado o se podría con todo? No, los puntos complicados están en la comunicación. Está en la comunicación ciego-vidente, ya sea estudiante-estudiante o estudiante-profesor. Y ahí es donde intervienen los editores científicos-matemáticos. La comunicación directa todavía en cuanto al dibujo no está resuelto el problema de la digitalización, es decir, la comunicación a distancia. La comunicación a distancia mediante editores científico-matemáticos ahora mismo tenemos Edico en España, Lambda, que fue un proyecto de la Unión Europea capitaneado desde Italia. Paramúsica también existe, un editor este en musical, en braille y en visual. Siempre inclusivo, es decir, que lo pueda manejar indistintamente un ciego-vidente. Para la representación gráfica estaría Viblo. Lo bueno es que llevan muchos años desarrollando el software. Aquí no tiene penetración en lo que es España y eso, porque han utilizado otros, pero por ejemplo en Italia y algunos países de Centro Europa sí que lo utilizan. Simplemente es un apunte. Sí, me interesa porque yo creo que es una asignatura de los ciegos-videntes. Como ocurre, como decía, de las aplicaciones educativas digitales que no es un problema que esté completamente resuelto, porque efectivamente el combinar lo que son los distintos lenguajes que en el caso del visual, bueno, se convierte en una coordinación piezomanual de una forma casi manipulativa. Lo que se ve en pantalla que se mueve y que cambia es casi manipulativo. Casi, eh. Pero los especialistas en matemática recomiendan la manipulación directa con física, con objetos físicos. Porque el tacto es mucho más cierto, da más confianza, más seguridad que la vista. Desde el niño pequeño que en cuanto tiene unos meses y se le presenta algo para que lo tome, aunque no se le ofrezca para que lo tome, enseña algo, y directamente lanza la mano. Lo está viendo, y lanza la mano. ¿Por qué? Porque la seguridad de que aquello está allí, solamente lo da el tacto. El tacto educa la vista. Esto ya es una experiencia de mucho tiempo. Lo coge y a la boca, más tacto. Sí, efectivamente, porque la boca es su forma de percepción táctil más directa, desde que mamá la echa. Este tipo es una cosa... Hay todavía un campo de experimentación en pantallas táctiles muy grande. Se ha trabajado muy poco. Se sigue trabajando todavía con puntos. Habrá que trabajar con puntos, indudablemente, en las pantallas táctiles. Pero la tecnología que se está utilizando todavía está muy poca diferencia con la que había hace 50 años, en los años 1970. O sea, no se ha trabajado con las pantallas formables, concretamente de polímeros orgánicos, que yo creo que es por donde vendrá la solución de abaratamiento de las líneas Braille, por un lado, y de la posibilidad de display bidimensionales. Bueno, las 3D, ojo. Las máquinas de impresión, ¿no? 3D. Sí. La máquina de impresión 3D, que dicen que son carísimas. No. O sea, no son carísimas. Es carísimo. Es caro el diseño. El diseño del software para la impresión. Las impresoras 3D las tienes ahora mismo de 30 por 30 por 30 centímetros, en cubo. Es decir, figuras bastante... Bueno, no me falta ni la mitad, ¿no? Pero que las tienes por 300 euros, ¿eh? Y funcionan muy bien. Mirad, dejadme que comente algo. Que cuando hablo de los polímeros, José Enrique recordaba un desarrollo de un profesor de la Universidad de Tokyo, un ingeniero muy prestigioso, Takao Someya, que no sé si tú lo llegaste a conocer, o bueno, vosotros lo llegasteis a conocer, hizo un polímero que por un lado era una especie de receptor OCR, que podías ponerlo sobre una superficie, por ejemplo un papel escrito, y luego había como una emulsión que hacía que se levantara y deformara el polímero por el otro lado, y podía escribir braille o representar formas. Bueno, pues esto durante dos años estuvimos haciéndole el seguimiento porque a mí me parecía la bomba. Digo, madre mía, ¿esta es la solución? Lo has dicho tú también, José Enrique. Has dicho, esta es la solución. Bueno, pues había muerta. No existe ni rastro de este señor. Y yo hice un artículo y todo de él. Es decir, que existir existe. Y llegué a ver un vídeo con una alumna utilizando el prototipo este que te digo, poniendo sobre un documento escrito en texto tinta el polímero y cómo esa emulsión movía una especie de palanquitas que subían los puntos de deformación y ahí generaba la forma. En este caso la escritura en braille. Pues bueno, a ver qué pasa, porque al final parece que hay una hegemonía de la celdilla braille por encima de todo, y eso tiene muy mal apaño. Necesita mucha energía, mucho mantenimiento, y realmente es muy aparatosa y pesada hoy por hoy. Hasta las más low cost. Bajo mi parecer. Sí, bueno, parece que hay que ponerse acuerdo en cómo deben ser las líneas braille. Yo diría que hay algunos puntos en los que conviene ponerse acuerdo. El material debe tener, el instrumental debe ser de cada persona. O sea, no es compartible. Yo estudié, recuerdo, la filosofía del bachillerato. Era un único texto en braille que además compartíamos chicos y chicas. Bueno, también servía para correo del zar. Pero bueno, un único ejemplar que nos cambiamos y nos teníamos dos días en una aula y dos días en el otro. Bueno, no, hoy día ya que se ve que la opción es por la educación inclusiva y yo creo que no es malo tal como se encuentran las escuelas en general, tiene que ser un equipo del estudiante, de cada estudiante. Que se puede reducir, entiendo, hoy día con una línea braille de 20 caracteres, un smartphone que no tiene por qué estar conectado a línea telefónica. Me basta un iPhone 4 para funcionar y manejarme. Bueno, el 4 no lo sé, pero luego el 6 sí. Se puede escribir incluso en braille sobre la pantalla, si se quiere. Y luego lo que pudieran ser impresoras 3D, por ejemplo, lo que se pudiera tener en casa o a lo sumo en la escuela. Pero pensar en los centros de recursos que puedan tener bibliotecas y se puedan encargar. No, material sencillo, económicamente accesible. Individual y a la mano. Y a la mano, efectivamente, que sea portable. La tecnología actual, yo creo que una impresora 3D también ha sido un punto de inflexión, porque antes poder explicar a una persona ciega cómo es la catedral de Burgos, pues tiene que ser muy difícil. Era todo artesanal, con mucho tiempo, dedicación, y había una maqueta, y hay maquetas en el Museo Tiflo Tecnológico y así, pero era muy costoso y muy complicado y caro. Ahora con una impresora 3D, cualquiera, además hay muchos diseños en internet gratis, que te lo descargas y lo imprimes en un rato. Planos vectoriales compartidos, hay sitios donde recursos, eso está fenomenal. Y los materiales, además las resinas, cada vez se van abaratando más. Es decir, que un kilo de resina para estos, es recuperable. Recuerda, me refiero a los restos, se obtiene la... y luego el resto es reutilizable. Pues está, me parece, en el orden de 50 dólares el kilo. Es mucho, es mucho. Te da para mucha resina con 50 dólares. Un kilo es mucho. Me dirían que era mucho de 50 dólares. No, no, no, al contrario. Al contrario. Un apunte quisiera hacer sobre las líneas Braille. Ya tenemos líneas Braille, de 700-800 euros. En el caso de... Yo tenía en mis manos la que estaba fabricando... Las Orbit. No, bueno, las Orbit no las tenía en mi mano. Las tenía en mi mano, bueno, es que adquirí, me la trajo un discípulo ciego de internet, don Miguel Coello, pero me lo trajo de Calcuta. Entonces me costó, me parece, 700 euros. Hace seis años, ¿no? Los tiempos del COVID, completamente. Bueno, pues, de 20 caracteres, a prueba de adolescentes, es decir, que se podía caer al suelo porque tenía una carcasa de cuero, una esta de cuero, era con bordes resistentes que se podía llevar en una mochila y jugar al fútbol con la mochila y seguía funcionando. Bueno, era el sistema de motores, era no el sistema de piezo eléctrico de las tradicionales de Focus. Bueno, pues, decía que una línea Braille, y dice, bueno, son carísimos. 800 euros, claro, 800 euros en España no son 600 euros en Kenia. En Kenia, multiplica por cinco, según el coste de la vida. Entonces, nos plantamos ya en unas cantidades, porque claro, decir, no, no, para países occidentales, para España, para Estados Unidos, para Alemania, claro, no, no, pero es que el noventa y tantos por ciento de los ciegos están en países en vías de desarrollo. Que, bueno, no voy a decir que no tengan para comer, porque se conforman con un plato, pero, bueno, de todas maneras, no tienen acceso de tipo. Ahora bien, hay que recordar una cosa, o sea, que esto, una línea Braille es para prácticamente todo el currículum, salvo que, bueno, se le maltrate, ¿no? Pero, aunque sea para cinco años, permítanseme las matemáticas, si digo 800 euros, que es más de lo que cuesta una Orbit o un Black & Me, 800 euros en cinco años son 160 euros al año. Si sigo bajando a meses, 160 entre 12, me estoy encontrando que no llega a 15 euros al mes. Bueno, el problema es financiarlo, pero asegurar la disponibilidad de todos los textos del curso, para cada curso, de todo el currículum académico, por 15 euros al mes, hombre, es una cosa bastante asequible. Hay que buscar la forma de financiación, es decir, el préstamo inicial y que luego se pueda devolver, incluso con demoras, de 15 euros al mes, o de 20 euros al mes, 15 euros constantes, ¿no? Nosotros, los libro hablados y las Perkins las pagábamos, yo las pagué, porque ya era adulto, ¿no?, cuando las compré, pero bueno, me dieron un préstamo muy interesante y sin intereses. Creo que varían 30.000 pesetas, entonces, y no sé si eran 30 mensualidades, y bueno, sí que se pueden hacer muchas fórmulas. Pero hay que pensar en soluciones globales, generales. Cuando me hablan de la tecnología esta de la espuma y el relieve, bueno, vamos a ver, o sea, cuánto cuesta eso, y si hace falta un manipulador, un experto, y luego el proceso de aprendizaje del manejo, que también hay que contabilizarlo, es decir, cuánto cuesta, qué esfuerzo, cuántas horas de aprendizaje por parte de los monitores, encontrar monitores dispuestos a ello, y luego después el estudiante o el usuario cuántas horas va a necesitar para aprender el funcionamiento. La sencillez es también otro aspecto muy importante. Yo creo que habría que ponerse de acuerdo, vamos, yo estoy al final de la carrera, pero no solamente profesional, si también prácticamente hospital, son 76 años, pues hay que pensar en cómo ponerse de acuerdo, cómo discutir estos temas. Porque, por ejemplo, no hemos hablado del braille, del braille de la actuación matemática, o física, o química, o estadística, es decir, está resuelto el problema de representación braille. Para los países de habla castellano y portuguesa, estamos hablando de más de mil millones de personas, mil millones de personas prácticamente. Bueno, el habla de, ah, el Németh, el Németh es fantástico, bueno, hay desafío cualquiera a comparar la representación braille en el código matemático para Hispanoamérica, bueno, Iberoamérica, o bien el Németh, que es mucho más complicado y no cubre tantas las necesidades como cubre el código, el Németh. ¿Puedes decirnos lo que es el Németh? El Németh es un código, es un código de, que se trabaja en los años 1930 buscando cómo representar en braille la actuación matemática ya de nivel universitario. Había ciegos en Estados Unidos que estudiaban matemática o ingeniería a nivel universitario, no tenían cómo representar. Entonces, por ejemplo, bueno, el concepto lo dejamos aparte. Una proyectividad, una proyectividad, el signo es un signo igual con un triangulito encima, pequeño, muy bien, una proyectividad. En braille eso se resuelve con un signo igual y a continuación dos caracteres más para decir qué es una proyectividad. Pero el Németh lo hace de forma representativa visual, por decirlo de alguna manera. Es decir, describe cómo es el signo con signos braille, pero cómo es el signo visualmente. Con lo cual dice, atención, signo modificado. Signo braille. Un signo braille para decir que es un signo modificado. Otro signo para decir que es el signo igual. Otro signo para indicar que empieza la modificación. Otro signo u otros dos para decir que la modificación se encuentra en la parte superior. Otros dos caracteres braille o tres para decir que se trata de un triángulo equilátero. Otros dos o tres caracteres, bueno, total, 17 caracteres braille para lo que en el código de Iberoamericano, código matemático unificado, con tres celdas braille, está cubierto el problema. Porque no se trata de una descripción de cómo es visualmente, que no es malo conocerlo, pero eso se puede tener un catálogo a mano disponible, sino el que sea algo útil. Sea práctico. Que lo pueda escribir el estudiante en un examen de forma rápida. Y lo mismo digo para representación de matrices o determinantes. Las tablas de dos dimensiones, la correspondencia exacta en columnas, supone un esfuerzo grande para que haya una correspondencia en columna perfecta. Pero el estudiante en un examen no necesita eso. Le basta con saber los elementos que hay en cada fila, cambiar de línea y escribir la siguiente fila con separación entre los distintos elementos de la fila, etc. Y luego, cuando se ha terminado, indicar al principio y al final el número de filas y columnas. Hay que pensar en el usuario. Diseño para el usuario. No el diseño preciosista de diseños perfectos. Incluso las fracciones, las fracciones complicadas con múltiples numeradores, denominadores, más numeradores en el numerador y todos estos castillos de fracciones. Yo diría que hay Luis Braille, que fue el inventor del procedimiento, los llamados paréntesis auxiliares o paréntesis que no se dibujan. Pero se sabe que eso separa cosas. Luis Braille fue el inventor de la escritura lineal que luego se ha utilizado en toda la escritura digital. Para todas las áreas del saber, la escritura digital es lineal. Es en ASCII, por decirlo de alguna manera. Luis Braille dijo vamos a ver si una fracción tiene numeradores, puede ser x más uno denominador, x menos uno, pues tengo que decir lo que es el numerador y el denominador. Tararí, abro paréntesis auxiliar, es decir, que aquí va a venir una cosa compleja de varios términos, x más uno, tararí, se acabó. Signo de dividir, luego es una fracción, una cosa partido por otra. Tararí, abre paréntesis auxiliar, escribo el denominador, cierro y se acabó. Es un procedimiento de reducción a lo lineal de lo que es bidimensional. Eso fue una genialidad. Una genialidad que luego se ha aprovechado para otras muchas cosas. Sin saber que esto, Luis Braille, fue realmente el inventor. Bueno, esto mismo nos sirve para cosas muy complejas, pero quedan todavía cosas, muchísimas cosas por hacer en Braille, por ejemplo. Bueno, yo tengo una curiosidad. Los estudiantes ciegos de esta última jornada, hablo de estos 15, 20 últimos años, han optado muchos de ellos, sobre todo aquí en España, al estudio de lo que es informática, programación y demás. Es decir, yo entiendo que para estudiar informática y sacar su titulación, deberán tener por lo menos una base matemática importante, ¿no? Sí, bueno, matemática, comentaba al principio, me parece que hoy día no se distingue entre matemáticas, física, ciencias, informática, tecnología, incluso arte, ¿no? Porque todas tienen un lenguaje fundamental, una herramienta fundamental, que son las matemáticas, el razonamiento. Incluso se habla del pensamiento computacional, tampoco se habla de matemáticas, con pensamiento computacional. Es decir, los algoritmos, a fin de cuentas, ¿cómo calcular el máximo común divisor de dos números? Que es puro cálculo, ¿no? Son una serie de pasos muy sencillos que desmenuzan el problema y se llega al resultado. Eso es un algoritmo, a fin de cuentas. Algoritmo que tiene una serie de pasos en las que hay que responder a preguntas. Si no, el resto es cero, no es cero, vale. Y se toman decisiones. Es el if-then, el if-tenerse de informática, a fin de cuentas. Todo eso se puede representar de una forma gráfica. Un diagrama de flujo. Que lamentablemente en matemáticas se emplea poco y ya dije que era una de las preocupaciones del profesor Aitpun en la Escuela de Magisterio de Madrid. Pero luego eso se puede traducir a los distintos lenguajes de programación. Estamos hablando ya de informática claramente, ¿no? Distintos programas de programación, o seguro código en principio, pero los diagramas de flujo antes eran muy difíciles, bueno, muy difíciles. Eran laboriosos de dibujar y construir, etc. etc. y meter dentro de cada casillita, lo que fuera. Hoy día con los programas de informática el Scratch y otros, pues eso es arrastrar piezas es muy rápido. Por eso están volviendo a emplearse y mucho, ¿no? Y quedan muy grabados. Son muy claros, muy explícitos y quedan grabados el diagrama de flujo, el dibujo, la imagen. Pues bien, eso luego nos sirve para hacer cálculos máximo común divisor de dos números de 250 cifras, por ejemplo. Eso hecho manualmente, bueno, no digo por cálculo mental, sería imposible, pero manualmente pues llevarían horas sino días, ¿no? Y sin embargo metido el programa en un ordenador lo hace en centésimas de segundo. Estamos hablando de técnicas que están interconectadas, por lo tanto no tanto hablar de matemáticas. Antes, para entrar en la carrera de matemáticas con un aprobadillo raspado en la prueba de acceso era suficiente, porque nadie quería estudiar matemáticas. Bien, hoy día visto que no hay paro en ningún país del mundo para los matemáticos por los problemas actuariales y cálculo de probabilidades y no digamos ya las amortizaciones y este tipo de cosas, bueno los matemáticos, no hay paro, o sea, no hay paro, aunque sea solamente para dedicarse a dar clases particulares se puede ganar la vida. Bueno, es que se está pidiendo, y en Madrid se está pidiendo trece y pico para como puntuación, sobre catorce para puntuación de acceso a la carrera de matemáticas y tienden a estudiarse también a doble titulación matemáticas e informática. Cosa que me parece un poquito en fin, la informática está cambiando año a año y la mitad de las cosas que se aprenden en la carrera cuando terminan la carrera no sirven para nada porque no han cambiado, están cambiando en el informático a una velocidad alucinante. La matemática no cambia, las matemáticas son las mismas desde los griegos hasta hoy e incluso se están encontrando aplicaciones de resultados matemáticos que bueno que estaban ahí y no se les da mayor importancia. El teorema pequeño de Fermat, que no voy a hablar aquí de él pero es el que se utiliza para las claves de entrada a las cuentas bancarias para el secreto bancario, por ejemplo las claves de encriptación de documentos en las que son hechas todas estas masadas, principalmente los números primos. Bueno, pues ese tipo de cosas se han encontrado en resultados que no tenían ninguna aplicación en principio, era un divertimento matemático, pero hoy día tiene una aplicación tremenda y tal vez o muy posiblemente gracias a las herramientas informáticas. Se nos está acabando el tiempo ahora sólo con un monosílabo. ¿Qué tal lo llevas con la inteligencia artificial? No. Mal, muy mal. No la uso. No la usas, ¿no? Vale, vale. Entonces la pregunta que te iba a hacer posteriormente no procede. Pero bueno... Tengo criterios, vamos, tengo opinión por lo menos opinión y creo que bueno, por algunos fundamentos, sobre inteligencia artificial. Inteligencia artificial es ante todo manejo de grandes cantidades de datos de localización de datos y en algunos casos de estructuración de datos. Pero acudo a la frase de Einstein, ¿no? Se podrá inventar una máquina que resuelva todos los problemas. Nunca se podrá inventar una máquina que invente un solo problema. Son matemáticas. Al final también son matemáticas puras y duras. Muchas matrices y muchas matemáticas y calculo probabilidades. Y ha servido para hacer descripciones literarias de gráficos y demás que a mucha gente le ha servido para entender lo que tenía delante. Sí. Pero bueno. Se han columpiado porque alucinan aún mucho, pero cada vez yo que las sigo y a mí sí que me interesa investigar, ¿no? Y sí que veo que están dando pasos de gigante. Cada vez es más precisa y la descripción es más exacta. Sí. Entonces a nosotros nos viene muy bien tener un ingenio que nos describa el mundo. Ricardo, pero no se ha estudiado, por ejemplo, cuál debe ser la técnica para audiodescripción. No me refiero en describir qué es lo que hay, sino cómo están organizadas espacialmente las figuras y el tema de distancia y cosas parecidas. Es decir, hay que ponerse... Hay acuerdos que son cuestiones lingüísticas, porque son acuerdos sociales de cómo hay que expresar las cosas, cómo hay que representar las cosas. El lenguaje es un... Cualquier lenguaje es un convenio. Claro. Es que sería genial que con tus conocimientos y sobre todo en nomenclaturas, en todo lo que has estado trabajando, de cara a lo que es la explicación descriptiva de la matemática a través de una inteligencia artificial, es decir, hacer un entorno específico para matemáticas, entrenado para matemáticas de personas ciegas, con la nomenclatura exacta y con los prompts que hagan lo que tú quieres. Es decir, dentro de ese entorno cerrado, de ese entorno controlado, que no lo dejamos abierto a cada uno, que alucine. Yo creo que sí puede ser una herramienta de futuro para... Bueno, una más, no la definitiva, pero que puede ser muy interesante. Y para eso hace falta gente como tú, que sepa lo que quiere decirle a la máquina, cómo decírselo y cómo quiere recibir la información de vuelta. Y es... Bueno, yo creo que es un tema apasionante. A mí es que yo le veo mucho potencial y muchas posibilidades. Yo no sé... Y bueno... Sí, bueno, yo creo que tiene el potencial del manejo de grandes cantidades de datos, ordenación y estructuración, pero... No se puede añadir mucho más. Llamarlo inteligencia de otra manera, yo creo que es equívoco. Hombre, sí, sí, está claro. Son big data, sobre todo. Sí. Y la inteligencia de un niño de siete años es superior a lo que puede hacer cualquier máquina, ¿no? Sí. Es una opinión, por supuesto. Y lo podemos seguir discutiendo en el año que nos queda. Una eternidad para discutirlo en la otra vida. Así que... Bueno, bueno, un próximo episodio. Allí nos encontraremos y daremos esta tertulia. Estamos muy a gusto y seguiríamos otra hora, pero yo creo que tenemos que ir terminando por hoy. Si os parece, hacemos un rápido resumen de las diferentes cosas que hemos ido charlando en este rato. Y continuaremos en otra ocasión. Hemos hablado de las matemáticas en sentido general, de para qué sirven desde un punto de vista práctico, de metodologías, cómo se estudian, si bien, si mal, profesores... De la aritmética, de la geometría... Bueno, hacer una síntesis. Primero que la matemática, la falta de visión no es impedimento para tener acceso a toda la matemática. Hay dificultades y problemas de comunicación, pero que no impiden absolutamente que se pueda acceder a toda la matemática. No es problema de visión. Segundo, hablamos del cálculo, del cálculo mental a la calculadora. Tercero, hablamos del dibujo. El ciego puede dibujar y puede reconocer dibujos. Y se pueden hacer muchísimas cosas con algo tan simple como una lámina de caucho, un bolígrafo y una hoja de papel ordinario de impresora. En el álgebra no hemos hablado de estas cosas, pero es que la representa la notación matemática en braille, concretamente la que utilizan los países de habla en España y en portugués. Cubre todas las necesidades también a nivel universitario para todos los aspectos de la matemática, concretamente del álgebra partiendo. Y luego en cuanto a matemáticas e informática, ahí quedan unos campos enormes de investigación y de trabajo como son los objetos matemáticos, las aplicaciones para aprendizaje de forma individual y autónoma de las matemáticas para la formación del profesorado en cualquiera de los campos, ya sea del dibujo por el ciego o de la notación matemática braille o del cálculo mental, etcétera, etcétera. De los manuales también. Hemos conocido también el itinerario profesional a grosso modo de José Enrique Fernández del Campo y sobre todo también hemos conocido los cuatro lenguajes que se utilizan o que piensas que se deben utilizar en el aula para tener un acercamiento a las matemáticas mejor. Sí, el lenguaje manipulativo de objetos, el dibujo, el habla como lengua franca en el aula y el lenguaje simbólico matemático. Lamentablemente no has podido hablar de juegos apenas. Bueno, tenemos otras muchas cosas, pero podríamos estar horas. Sí, seguiremos en otro rato pondremos en las notas del episodio, haremos referencia al blog, también pondremos pues referencia a muchos libros que tienes publicados y bueno intentaremos poner unas notas que complementen este audio y bueno esperemos seguir en otro momento pues también hablando de estas cosas interesantes. Muchas gracias José Enrique por habernos acompañado en esta tertulia. Muchas gracias a vosotros por la paciencia y hombre por permitirme hablar de matemáticas, enseñanza, ciegos que son tres pilares en mi vida profesional y humana y que disfruto hablando de estas cosas. Y se nota, muchísimas gracias por contarlo también y tenerlos tan atentos y entretenidos durante estas casi dos horas que hemos estado de tertulia y que te agradezco un montón. Así que nada, esperamos verte pronto, vamos a dar los datos. Nuestros medios de contacto gafotas arroba cgatos punto es es nuestro email y nuestro WhatsApp para mensajes de audio o de texto en el más 34 640792. Como siempre a toda la audiencia agradecer que hayáis llegado hasta aquí y espero que os lo hayáis pasado tan bien como nosotros y os esperamos en el próximo episodio. Así que hasta luego. Adiós.
Gafotas, cegatos y sus aparatos #14
Fecha: viernes, 14 de marzo de 2025, a las 00:00:00
En este decimocuarto episodio de Gafotas, cegatos y sus aparatos, nos acompañará José Manuel Delicado, informático de pro y administrador de una instancia de Mastodon, para hablar de primera mano sobre cómo funcionan estas redes descentralizadas, sus ventajas, sus retos y todo lo que necesitas saber para unirte a ellas.
Temas destacados en este episodio:
-Qué es el Fediverso y de dónde surge la filosofía de la descentralización.
- Cómo funcionan las “instancias”, las reglas de moderación y la “federación” entre servidores.
- Conoce las opciones de privacidad, la importancia de las descripciones de imágenes para la accesibilidad y por qué Mastodon es diferente a las redes convencionales.
- Consejos para abrir tu cuenta, buscar gente interesante y migrar tus contactos si decides mudarte de servidor.
Un episodio imprescindible para quienes quieran entender mejor estas alternativas libres y orientadas a la comunidad, ¡sobre todo si buscas entornos más respetuosos, sin algoritmos invasivos y con mayor control sobre tus datos!
No te lo pierdas: Si te interesa conocer el funcionamiento de Mastodon y del Fediverso, este episodio es para ti.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Instancia de la Comunidad NVDA EN ESPAÑOL EN MASTODON.
Usuario de Mastodon de José Manuel: @jmdaweb@comunidad.nvda.es
Correo de contacto de NVDA en español.
Fediverso: qué es, cómo funciona y principales redes sociales alternativas – xataka.
Instancia fedefeed (Medios de comunicación).
Audiocinemateca (Contenido audiodescrito en español, gratis y en un único lugar).
Tusky para Mastodon - Aplicaciones en Google Play.
Mona for Mastodon en App Store.
Cliente de escritorio TWBlue para Windows (Mastodon.).
Donaciones a la Comunidad NVDA.
Créditos:
Duración: 01:18:31
Descripción detallada del logo de Episodio 14. Redes libres y descentralizadas: un paseo en mastodonte por el Fediverso
La imagen presenta a al personaje de nuestro logo, un hombre con un aspecto distinguido y elegante, vestido con un traje de estilo clásico que evoca la moda de finales del siglo XIX o principios del XX. Su vestimenta incluye un traje de tres piezas, con una chaqueta oscura, chaleco y corbata. Su atuendo le da una apariencia de intelectual o pensador de la época. El personaje tiene una barba espesa y bien cuidada, junto con un bigote estilizado y retorcido en las puntas, lo que refuerza su imagen de caballero de la época victoriana o de principios de la revolución industrial. Sus rasgos faciales están bien definidos, y lleva gafas redondas con montura metálica, un accesorio que sugiere erudición o conocimiento. En su mano derecha sostiene un bastón con un pomo llamativo, lo que refuerza la impresión de nobleza, sofisticación y autoridad intelectual. Su expresión es seria y contemplativa, con la mirada dirigida hacia lo alto, como si estuviera reflexionando sobre conceptos profundos o mirando hacia el futuro. El fondo de la imagen es un paisaje surrealista, con un cielo estrellado y montañas en la lejanía. La escena parece representar un entorno cósmico o digitalizado, ya que en el fondo hay líneas interconectadas que forman una especie de red, similar a un mapa de constelaciones o a un diagrama de conexiones. Símbolos e iconos presentes en la imagen Alrededor del personaje aparecen varios iconos luminosos dentro de círculos, flotando en la red de conexiones. Cada icono tiene un diseño distinto y parece representar distintos conceptos tecnológicos o sociales. Algunos de ellos incluyen: 1. Un hombre con sombrero y traje - Puede simbolizar la identidad, el anonimato o el concepto de individuo en una red más amplia. 2. Un icono con dos marcadores de ubicación - Relacionado con la geolocalización o la navegación en espacios digitales. 3. Un símbolo que parece una letra 'e' estilizada - Puede hacer referencia a plataformas digitales, comunicación o redes sociales descentralizadas. 4. Un icono que recuerda a una cámara o dispositivo de captura - Posiblemente alude a la tecnología de reconocimiento visual o sistemas de monitorización. 5. Un símbolo con nodos conectados - Representa interconectividad, descentralización o sistemas distribuidos. Las conexiones entre los iconos y la forma en que están dispuestos recuerdan a una estructura de red descentralizada, como una representación gráfica de un sistema federado de comunicación o tecnología de blockchain. Interpretación del significado Esta imagen parece fusionar el pasado con el futuro, representando a un personaje que evoca la figura de un visionario, un filósofo o un pensador del siglo XIX, pero en un contexto completamente tecnológico y futurista. La red de conexiones y los símbolos sugieren un mundo interconectado, con referencias a conceptos como la descentralización, la identidad digital y la evolución de la tecnología. El personaje podría simbolizar a los pioneros del pensamiento y la innovación, aquellos que reflexionan sobre el impacto de la tecnología en la sociedad y el conocimiento. La imagen en su conjunto transmite una sensación de conexión entre el pasado y el futuro, uniendo la sabiduría tradicional con la vanguardia tecnológica.,
Transcripción de Episodio 14. Redes libres y descentralizadas: un paseo en mastodonte por el Fediverso
Bienvenidos al decimocuarto episodio de tu podcast favorito. ¿Qué tal estás, Ricardo? Pues muy a gusto, Arturo. Con muchas ganas también de comenzar este nuevo episodio y tratar la temática que, de nuevo, me resulta muy interesante. Y está el doble porque soy un perfecto ignorante sobre la misma. ¿Qué va, qué va? ¿Tú no estás fediversado en este mundo? No estoy muy fediversado. Soy un fediignorante. Bueno, pues después de este ratito esperemos estar todos un poco más fediversados. Muy bien. ¿Más o menos de qué vamos a hablar? Pues de esto. Del fediverso. De esto que muchas veces, en muchos sitios, pues mucha gente a veces habla de ello, ¿no? De alternativas a los programas más conocidos, más habituales, que si el Twitter o el Ahora de Maddox, el YouTube y compañía, ¿no? Pues hay otras alternativas y a veces pues no sabemos muy bien en qué consiste, cómo funciona, si eso no es para todos los públicos, cómo va esto. ¿Software libre? Pues suele ser software libre, suelen tener un poco otra idea, ¿no? Otra política no tan comercial y la estructura en sí misma y la infraestructura que llevan por detrás es bastante distinta, aunque intentan hacer lo mismo de otra forma, ¿no? Pues fíjate, yo esto del fediverso pensaba que era algo, si es simplista mi pensamiento, algo alternativo a Twitter, a X, porque es la forma de como yo lo conocí. A mí una vez me dijeron, mira hay otra red social que se llama Mastodon y bueno, está dentro de lo que es el fediverso y demás y bueno, está mucho mejor, es más tranquila que X y demás. Y así fue como la conocí, con un programa que se llamaba Mona y con el TW Blue, que luego hablaremos supongo de él, de Manuel. Y hasta ahí llega mi conocimiento, no llega más. Sí, sí, pues efectivamente una alternativa es, ¿no? Igual que hay muchas alternativas que Twitter, antes llamado Twitter no estaba solo que hay muchas alternativas, pero claro, las hay con diferentes sabores, ¿no? Las hay comerciales, las hay open source, las hay... Claro, el asunto de todas estas cosas es que luego haya gente con la que tú quieras interactuar o quieras leerles o quieras hablar con ellos, que claro, que también estén ahí, ¿no? Igual que hay alternativas a WhatsApp, pero bueno, si luego con quienes tú quieres interactuar no están ahí, pues no hacemos mucho, ¿no? Pero la verdad es que hay alternativas y ahora vamos a hablar de todas ellas con nuestro invitado, ¿no? Vamos directamente. Pues venga, adelante, presentémoslo. Pues tenemos por aquí a José Manuel Delicado. José, muy buenas, ¿cómo estás? Hola, buenas tardes, Arturo Ricardo Ruiz. Encantado de estar por aquí. Vamos a fediversar un poco. Muy bien, genial. Pues buenas tardes, José. Bienvenido y gracias por estar en Gafotarcegatos y sus aparatos. Normalmente ponemos un link en las notas del episodio para que la gente pueda profundizar en tu perfil, en tu curriculum, pero si puedes en un minuto más o menos comentarnos quién es José Manuel Delicado. Bueno, pues ¿qué puedo contar? Me saqué hace tiempo la ingeniería del software, me metí a consultor de accesibilidad, llevo ya unos años ejerciendo de consultor. Y bueno, en mi tiempo libre investigo, aprendo de todo tipo de tecnologías, me entusiasma la informática, me entusiasma cacharrear con todo tipo de software y demás. Y nada, eso es en cierto modo lo que me ha hecho llegar hasta aquí, donde estamos ahora, y hablar de lo que vamos a hablar. Es una de las cosas que me apasionan. ¿Qué proyectos tienes en marcha o cuidas de ellos? Mira, bueno, los cuido, los tengo en marcha. Los adoro un montón, no puedo estar sin ellos. Llevo la comunidad de NVIDIA en español, en parte, con más gente, la de nvidia.es, y llevo también la audiocinemateca, donde se suben todos los días contenidos con audiodescripción, tanto en castellano como en español latino. Desde hace ya muchos años, ¿no? Desde hace diez años, que cumplimos hace poquito. Genial, pues ahí está José, metido en un montón de líos y muy fediversado. Y bueno, vamos a hablar un poco de estos temas del fediverso, ¿no? Cuéntanos, ¿qué es el fediverso? Bueno, el fediverso es un término complicado y voy a intentar simplificarlo lo máximo posible. Fediverso es una palabra que a su vez es la unión o la contracción de dos palabras. Federación y universo. Y yo le meto una tercera porque me lo dejan a huevo, que es diverso. Hay mucha diversidad, no solo de software, sino de personas. Al final, ¿en qué se traduce todo? En un conjunto de elementos que interactúan entre sí, utilizando un protocolo común. Y básicamente, tú entras al que quieres, te haces una cuenta donde más cómodo te sientas, y puedes interactuar con todos esos servicios desde un mismo sitio. Todos esos servidores, todos esos programas. Va el concepto más orientado a temas de redes sociales, pero, vamos, no es ni la primera ni la última vez que hemos visto esto en Internet. Y es antiguo. Es antiguo, aunque el concepto en sí es más reciente. En cierto modo, esto del fediverso ya lo hemos visto en el correo electrónico, lo hemos visto en el IRC, en los tiempos en los que se usaba, y en un sinfín de programas más. Pero esto es complicado, enrevesado. Es decir, la gente de a pie, de la calle, el correo electrónico más o menos lo entiende, ¿no? El correo electrónico lo equiparan al correo normal, ¿no? Una carta, tiene un destinatario, un remite, el contenido, incluso a juntar cosas, archivos. Pero esto del FEDI este es un poco más complicado para la gente de a pie, ¿no? A ver, es complicado también por la forma en la que lo explicamos. Aquí se mete mucha gente técnica, y al final tendemos hacia la parte técnica, cuando queremos hablar de él. No sé cómo explicarlo. Se parece mucho al correo electrónico porque tiene un destinatario o varios, que es cuando tú mencionas a alguien, pero también puedes no mencionar a nadie, la gente te sigue y ven lo que publicas. Y también se parece en que tú tienes un nombre, un nombre de usuario, arroba, un dominio, ¿vale? En el correo electrónico lo tenemos. Aunque hoy en día casi todo el mundo ya tiene Gmail y ya todo es arrobajmail.com y los demás proveedores ya no existen. Pero bueno, en cierto modo, al menos esa parte queda ahí y guarda esa similitud con el resto del FEDIverso. Claro, pero normalmente entendemos que detrás de cualquiera de estos servicios, pues hay algo, hay una empresa detrás de Twitter, pues hay una empresa, una empresa que se llama Twitter, más o menos, detrás del correo de Gmail pues está Gmail, está Google, Alphabet o lo que sea, pero bueno, está Gmail o está Yahoo, está Microsoft, hay algo detrás, ¿no? Y detrás de aquí, ¿qué hay? Aquí hay de todo. Aquí hay personas, hay asociaciones, hay empresas, hay casi cualquier tipo de entidad que quiera tener, puede haber administraciones públicas. ¿Vale? Quien quiera montarse un servidor puede hacerlo o quien quiera crearse una cuenta en un servidor ya existente también puede hacerlo y ya tiene representación en el FEDIverso. José, ¿y qué filosofía sustenta lo que es el FEDIverso? ¿En qué se basa? Básicamente, el FEDIverso persigue la descentralización. Hay mucho software libre involucrado. La idea inicial era evitar la censura impuesta por algunos gobiernos y al final, pues, se ha convertido en una red distribuida de nodos y lo bueno que tiene es que puede caerse uno, pero no se cae la red entera. Nosotros vemos a veces noticias del tipo, se ha caído WhatsApp o se ha caído Instagram o Twitter o todos los servicios de meta. Eso en el FEDIverso no pasa. Se cae una página y cuando pueda volver, vuelve. También es cierto que hay servidores que se apagan y ya no vuelven, pero ocurre poquito. Y básicamente es eso. Descentralización, distribución, que el control vuelva, el control de los contenidos vuelva a las personas, que no haya un algoritmo detrás y bastantes cosas más contrarias a lo que vemos en las redes sociales tradicionales. ¿Tú por qué tomaste la decisión? Porque supongo que tú vendrías de redes sociales tradicionales como sería Twitter o cualquiera de estas y algún día dijiste, bueno, apago aquí y paso directamente al FEDIverso. Sí, yo estaba en Twitter. Yo estaba en Twitter y entré en Twitter en 2011 y gracias al TW Blue y a clientes similares, la experiencia fue comodísima. He estado en Twitter mucho tiempo, pero he utilizado la aplicación móvil de Twitter y la web muy poco. Siempre tiraba de clientes de terceros y, bueno, ¿qué pasó? Que ya vi lo que estaba pasando con las APIs, vi que me quedaba sin esos clientes y digo, ya que está pasando lo que está pasando, Elon Musk ha comprado Twitter y ya conozco un poco más cómo funcionan estas redes y tal, pues voy a lanzarme a la aventura, ¿no? Yo ya llevaba curioseando por más todo en unos años. Entré allá por el 2018, tuve mi cuenta allí. Como otros muchos, monté un puentecito de Twitter a Mastodon y al final acabé usando Twitter y al final me limitaron la cuenta. Y ya, viendo el panorama y explorando un poco más todo aquello, dije, hay que moverse, vamos a probar, a ver cómo sale. Puede que me arrepienta mañana, puede que tenga que desmontar esto, porque las máquinas no dan, porque es que encima di el salto al FEDIverso y di el salto con servidor propio. Dije, bueno, a lo mejor no dan los recursos, pero mira, han dado, se han portado muy bien y ya en noviembre del año pasado hicimos dos años y vamos a por el tercero. ¿Quiere decir que entraste con servidor? Pues que monté el mío propio. Bueno, más que el mío, lo puse para la asociación entera de NVDA en español. Correcto, a disposición, ¿no? Eso es. Tiene el nombre comunidades.nvda.es Y entonces, nada, lo hice, a pesar de que mucha gente piensa que es para NVDA, lo hice como un servidor de propósito en general, que cualquiera puede entrar, seguir a quien quiera y hablar de lo que quiera, como si estuvieran en las redes sociales que tenían antes. Pero supongo que lo que tendrás eran usuarios, la mayoría personas, digas, con baja visión, ¿no? Sí, sí, sí, son los que nos han elegido, porque además me llegan buenos comentarios de que se sienten cómodos, se sienten a gusto, de que esto está bien moderado, les va bien, y entran e interactúan con los demás. ¿Cómo moderado? ¿Nos puedes explicar esto? ¿Tú moderas ese canal o ese...? ¿Has dicho que se llama? ¿La dirección dices? ¿Comunidad? No, no, no, el... Instancia, el mástodon. Instancia, exactamente. A ver, yo básicamente, más que moderar, diría que observo, y si ocurre algo es cuando se toman medidas, pero el resto del tiempo soy un usuario más. Vale. ¿Quieres decir que por encima de ti no hay nadie? ¿La instancia la gestionas tú, de principio a fin? ¿Un poco serías el administrador, moderador? Soy uno de ellos. Somos como tres o cuatro personas, todos de la asociación, y la gestionamos, cada uno con lo que puede. La mayor parte del tiempo sí que estoy yo. Por intentar un poco simplificar y comparar con algo conocido, las instancias serían como núcleos, como si fueran pueblos, ciudades, y ahí cada uno... Y luego se puede enfadar, que es que una ciudad puede hacer relaciones a través de sus carreteras y como quieran, pues se comunica con otras ciudades, se comunican entre ellas. Y tu ciudad, tu instancia, se puede comunicar con otras, ¿no? Sí, las veces que he intentado explicarlo he puesto un ejemplo muy similar con barrios donde tú hablas con tus vecinos, pero si quieres puedes llamar por teléfono a otro barrio que está más lejos, a otra ciudad, y hablar con la gente que hay allí. Es algo muy similar. Y lo de montar un servidor, pues que eso no es para todo el mundo, que simplemente la gente con ir y darse de alta, igual que te puedes dar de alta en Twitter, en YouTube o en otros sitios, pues te das de alta y ya está. Aquí lo complicado, que es por lo que la gente tampoco se registra mucho, tiene una tasa de adopción bastante bajita, y es por la parte técnica, pero también porque no saben qué elegir. Tú te metes a la página oficial de Mastodon, y te metes a servidores, y ves un chorro interminable de servidores, que sí, que puedes filtrar por idioma del servidor, puedes filtrar por temática, pero una vez que filtras dices, ¿y ahora qué hago? ¿Me meto a este? ¿Me meto a este otro? Luego están los que no aparecen allí, como el mío. El de la comunidad no aparece en ese directorio, porque, como dije, los recursos son los que son, y tampoco queremos una avalancha de gente. Pero eso también es un problema de entrada, ¿no? Porque si quieres darte de alta en Twitter o en cualquier página de estas, pues entras ahí y ves el botón de darte de alta a un usuario nuevo y ya está. Pero es que ya el primer paso de darte de alta a un usuario nuevo, ya solo ese paso te tira un poco para atrás, porque dices, ¿y ahora qué? ¿Dónde me doy de alta? ¿Cuál es el bueno o qué diferencias hay entre unos y otros? ¿Cuál es mejor? ¿Cuál es peor? Siempre está la opción que elige mucha gente, que es entrar en Mastodon.social, se registran allí, y luego ya cuando ven que les gusta otro servidor, migran su cuenta. Porque eso sí, en Mastodon, por ejemplo, está muy bien implementado, que es la migración de un servidor a otro. Lo único que se pierde son las publicaciones, pero todo lo demás se conserva. Seguidos, bloqueos, etc. ¿Y qué criterios se siguen para federarse? A ver, la federación depende un poco de lo que quiera el propietario de la instancia. O sea, por defecto, si tú no haces nada, montas el servidor, lo abres y ya está, tus usuarios comienzan a seguir gente, ya sea de la misma instancia o de otras. Entonces, en el momento que sigues a una persona de otra instancia, esas dos instancias ya conectan. Y poco a poco se va formando como una especie de red, donde tú entras, el resto de instancias también empiezan a federar contigo, y al final es como se va encontrando la gente así. Por ejemplo, la comunidad NVDA, que es la que tú moderas, ¿con quién está federada? Con quién no. Tenemos ahí como mil y pico servidores ya. El problema es... Y de hecho sí. Es una pregunta bastante acertada a la contraria. ¿Con quién no? Nosotros tenemos una política bastante abierta. Intentamos bloquear o desfederar lo mínimo posible, porque existe esa opción. Tú puedes ir a la configuración y decir, este servidor lo voy a meter en lista negra, que se suspendan todas las interacciones con él, y adiós. Y se acabó. Eso lo hemos hecho con casos muy concretos, generalmente servidores destinados a lanzar ataques o spam, con muchos bots y demás. Hay otras instancias que aplican políticas más severas en función de lo que votan los usuarios, o de los ideales de la gente registrada, o de los pensamientos de la administración y demás. Eso también se ha visto mucho estos años. Esto sería el punto más interesante, más importante, que diferencia una instancia de otra. Claro. Aparte del software elegido, porque estamos hablando todo el rato de Mastodon, pero hay muchos más programas, más versiones derivadas, tened en cuenta que estamos hablando de software libre. Si me pongo a decir nombres, grabamos cinco o seis podcasts, no vale con uno solo. Entonces, ¿qué pasa? Cada propietario elige qué instala, pero también pone sus reglas, y elige quién puede registrarse, cómo se registra, yo qué sé. Al final, son decisiones que toman los usuarios, pero también los administradores. Con quién van a federar, con quién no, cómo van a aplicar las reglas, de qué se puede hablar, de qué no. Y, por supuesto, hay administradores de todos los tipos. Los hay que lo hacen mejor, que lo hacen peor, etc. Supongo que, como cualquier red social, tendrá una timeline que tú la irás configurando, y a partir de ahí, cuando estás federado, ¿tú qué ves? ¿Solo lo tuyo, o ves lo de toda la gente conforme se va publicando? Es una pregunta muy interesante, porque aquí no hay una timeline, sino varias. Tenemos la inicial, la de inicio, que es donde ves lo que veíamos con el TW Blue en Twitter, por ejemplo. Ves la actividad de la gente a la que sigues, ves tu propia actividad, ves también que esto le choca mucho a la gente los mensajes directos que te llegan, porque aquí el concepto de mensaje directo varía un poquito, pero de eso podemos hablar ahora o después. Y ahí acaba la de inicio, pero luego tienes la local, y en la local ves lo que publica la gente de tu instancia. Entonces, ¿qué pasa? Que si no conoces gente del lugar en el que estás, vas a la local y ya puedes empezar a seguir. Ya encuentras gente que puedes conocer o no conocer, y seguirla. Pero es que después de la local está la federada, y la línea federada está formada por las publicaciones de la gente a la que sigues tú, y de la gente a la que siguen tus compañeros de instancia. De esa forma se va enriqueciendo el contenido. Tú puedes ir a la federada, encontrar gente y seguirla, ya sea de tu instancia o de otras. Y luego ya lo puedes complicar un poco más todavía, y conectar la instancia a un repetidor de publicaciones, que también existen y se pueden hacer, y cuando se asocian varias instancias a él, por la federada te llega todo el contenido de todos esos servidores. Aquí sí que estamos profundizando un poco en lo técnico, he de decir que cualquiera que decida ser usuario no va a notar seguramente nada de esto, va a ser totalmente transparente, y simplemente lo que cambiará será lo que vea, de una instancia a otra, si se registra en varias. Pues eso, un lío. Para el común de los mortales, para la gente de a pie, antes en cualquier otra red social, Twitter que es el ejemplo siempre, o Instagram o alguna de estas, te das de alta y ahí está todo. Twitter hace tiempo tuvo una línea pública, por así decirlo. Hace tiempo se podía ver, y se veían tweets de un montón de gente, llegaban a chorros y labrias. Y aquello era un infierno, se quitó rápido. Pero yo siempre lo digo, que un buen lugar para empezar es una instancia grande o la línea federada. Si lo que quieres es encontrar gente y seguir gente con tus mismos intereses, y no nos podemos olvidar tampoco de los hashtags y las tendencias que también existen. Y el idioma. Y el idioma. Sí, sí, sí. Pero si yo estoy en una instancia, y quiero seguir a alguien que está en otra instancia, ¿eso qué me supone? Te supone que tienes que conocer, o encontrarlo por casualidad, su nombre de usuario. Si te da su nombre de usuario, genial. Lo sigues, y ya está. Si te da su nombre de usuario, genial, lo sigues, y ya está. Y si te da su nombre de usuario, genial, lo sigues, y ya está. Si te da su nombre de usuario, genial, lo sigues, y ya está. Si no te lo da y lo encuentras navegando por ahí, pues también... ¿No puedo buscarlo? No, se complica un poquito. A ver, Mastodon tiene un buscador, pero es un buscador bastante limitado, por varios motivos. Es capaz de buscar publicaciones dentro de tu instancia. Es capaz de buscar alguna cosa más que tenga retenida en las cachés. También de reconocer a un usuario de otra instancia, un perfil, o una publicación, y mostrártela. Pero no se le puede pedir mucho más. Luego, aparte, la gente en su configuración, por aquello de respetar su privacidad, tiene que activar una casilla para ser encontrado, para que tus publicaciones se indexen y se localicen. De lo contrario, no lo hacen. Pero, José, ¿no se le puede pedir más? ¿Por qué? Porque técnicamente no es viable, porque no hay ese propósito. Me refiero en cuanto a la búsqueda de usuarios de otras instancias y federaciones y demás desde un lugar común. Eso, ¿por qué no se puede hacer? Porque implicaría centralización y hacerlo de forma descentralizada es un jaleo. Seguramente ocuparía mucho espacio, mucho consumo de recursos, y al final no se está haciendo principalmente por eso. Sería una tarea muy, muy, muy costosa. Porque no hay un coordinador. Aunque esté descentralizado todo, no hay nada que coordine. Por ejemplo, donde vayan todas las bases de datos de usuarios y se genere una base única donde se pueda buscar. Es imposible. No. Hay algún servicio que a lo mejor te ofrece algo parecido, pero nunca te va a mapear todas las instancias. Luego hay que tener en cuenta que hay instancias que tienen distintos niveles de privacidad en su configuración administrativa y deciden, a lo mejor, que estos servicios no puedan pasar. No es como otras redes como BlueSky. Tú te vas a BlueSky, que también se habla mucho últimamente de ella, y allí sí hay un directorio central de identificadores, y es fácil encontrarle a la gente. Está descentralizada también, pero un poquito menos. Bueno. Aquí iría por el tema de la primera selección que tú haces de todo, de esta tendencia, intereses... Entrarías ya dentro de una de las instancias, ¿no?, que sería donde te suscribirías, entiendo, y a partir de ahí tendrías acceso también, si focalizabas en federado, de todo lo que se fuera publicando. Y ahí tendrías que ver, primero en lo que a la gente conoces, ¿no? Para decir, lo sigo, lo sigo, que lo normal es que si has entrado en una de estas instancias, que conozcas a alguien o por lo menos, si no personalmente, por lo menos porque lo has leído, porque lo has... ¿no? Algo de esto será así. Claro, eso es. Sí, sí, sí. Vale, vale. Yo creo que eso ya es un problema un poco de entrada, ¿no? Yo creo que es un pequeño gran problema que hay que entender un poco lo que hay detrás la parte técnica para a la hora pues eso, a la hora de realizar una búsqueda, a la hora de tal, pues hay que entender lo que hay detrás para poderlo hacer correctamente, ¿no? Y eso pues a la gente de a pie que no tiene por qué tener todos esos conocimientos pues le echa un poco para atrás. Antes había servicios que te permitían asociar tu usuario de Twitter al de más todo o no de lo que fuera y la gente te podía encontrar. Pero con el cierre de las APIs cayeron rápidamente. Y es una pena porque facilitaron mucho las cosas. Sí, supongo que sería cuando hubo aquel crecimiento brutal, ¿no? ¿Qué pasa? ¿La migración? ¿La migración de 2022? De 500.000 casi a 6 millones, ¿no?, de seguidores. Sí, sí, sí. Fue brutal. Luego hubo algunas más pero ya más pequeñitas. Pero realmente si no las comparamos con nada, si la comparamos, por ejemplo, con Twitter con X que tiene casi 550 millones de seguidores, es decir, no llegáis ni al 1%, ¿no?, en comparación. No, aquí hay una base de usuarios bastante residual y ya no me limito a más todo sino al Fediverso entero. La última vez que vi el contador había una cuenta oficial de contador que cada hora iba publicando cuánta gente había. Me parece que se rompió o la apagaron o no sé qué le pasó pero vi unos 15 millones de cuentas. De esos 15 millones no todas tienen por qué estar activas. Yo qué sé. Puede haber un montón de factores involucrados y al final el número de usuarios activos es menor. Sí, pero eso le pasa a todas las redes sociales, ¿no?, también. Claro, claro. Hay quien se hace su cuenta de Twitter a lo mejor de X y no la miran ya en la vida o de lo que sea. Puede pasar. Lo que han dicho antes, ¿no?, que si no puedes buscar usuarios que están en otras instantes en otro estar por la descentralización en sí misma, pues tampoco puedes contabilizarlos. No. Lo que sí se puede hacer es... O sea, no se pueden buscar usuarios concretos. Tienes que conocer los datos correspondientes y tal. Pero sí se puede pedir ciertas estadísticas a instancias conocidas. Y a partir de ahí sí que puedes armar... ...un determinado recuento de cómo están las cosas. Claro, pero instancias conocidas, porque hay instancias pequeñitas, minoritarias, que no tienen muchas federaciones con otras o lo que sea, que están ahí un poco aisladas. Claro, claro, claro. Por conocida me refiero a eso, instancias con las que la tuya ha conectado. Pues yo tengo la sensación, te estoy escuchando, ya te comento, José, y lo he dicho creo que en la introducción, que parto de cierta ignorancia, de que es como un entorno o un lugar muy apetecible para techies, para gente que le encanta la tecnología y realmente es un universo perfecto en cuanto a lo tecnológico, pero es abrupto y resulta farragoso y complicado para el usuario de a pie, que realmente no quiere muchas complicaciones. Sí, pero fíjate que a pesar de que hay mucha gente con conocimientos técnicos, hay gente de otros campos, hay mucho activismo, hay gente que habla de ecologismo, de política, también vienen artistas que dibujan o gente que sube muchas fotos, que se han ido de redes sociales conocidas, tipo Instagram y demás, por el motivo que sea. La universidad también tiene muchos grupos. Sí, sí, sí, sí. He visto algún colegio, algún instituto, asociaciones, no sé, se ven movimientos y cosas muy bonitas por aquí. También es curioso, ¿no?, porque hay gente que puede argumentar para irse de una de esas redes sociales comerciales grandes, pues la censura y tal, pero pasan de estar censurados por el multiministerio de turno a estar censurado por, no sé, por José Manuel Delgado, por ejemplo. Claro, eso puede pasar. El censor mundo. A ver, el inquisidor local. Inquisidor local. Sí, sí, sí. Pero sí que se han visto ejemplos de esa censura que decís. Y también hay que decir que la cosa ha acabado con esa gente yéndose a otra instancia, simplemente. Han cambiado de sitio, están mejor y ya está. También me podrían incluso llegar a bloquear o banear en la instancia. También podrías echar a ese usuario o bloquearle de alguna forma. Hay veros controles de moderación, también hay un sistema de reportes para cuando alguien hace alguna travesura y puedes limitar la cuenta de esa persona para que no pueda federar y sus publicaciones no salgan de tu instancia o puedes suspenderla, que ya la baneas del todo, o simplemente mandarle un aviso. Por tu experiencia, sin dar nombres lógicamente, cuéntanos así cosas que te han sucedido como moderador. Que si te han llegado reportes, si por algún tipo de comentario que venía adjunto al reporte que te haya llamado la atención y un poco cómo has procedido. A ver, me han pasado cosas muy graciosas. No precisamente en comunidad, porque yo estoy hablando de comunidad, pero también tengo otra instancia que se llama fedefeed.net y es una instancia cerrada que es solo para meter cuentas bot para seguir fuentes de medios de comunicación y publicar noticias. Porque los medios de comunicación que seguían por el click, el algoritmo, la publicidad, los anunciantes y demás no han querido en su mayoría dar el salto hacia aquí. Entonces había que traerlos de alguna forma. Total, hice esa instancia, no me voy a liar mucho, hice unas cuantas cuentas, y de repente se ven cosas como que te llega un reporte a la cuenta de Hitmodo, por ejemplo, y dice, esta gente tenéis que eliminarla porque publican artículos guiados por la inteligencia artificial y entonces han echado a todos los traductores a la calle y no sé qué. ¿Y a mí qué me cuentas? No sé, es el medio de comunicación, ellos verán lo que hacen, quien quiera seguirlos aquí puede verlos, yo no voy a hacer nada. Y luego los más graciosos son los reportes hechos a la cuenta del Mundo Today, sin duda, que como todos sabemos es un medio periodístico de humor. No me acuerdo, me parece que se metieron en una noticia, no sé si con la iglesia o algo así, y llegó un reporte de un señor muy enfadado, os voy a denunciar a la policía, no sé qué, no sé cuándo. Digo, señor, pero si aquí no es. Y a nivel de comunidad alguna cosa ha pasado, muy pocas, tengo usuarios muy buenos, y en general los que interactúan con ellos también lo son, y sí que hemos tenido alguna cosita, pero muy poco. ¿Alguna anécdota para contar? ¿Anécdotas? No sé, hay una persona que se metió aquí, empezó a publicar de un tema que le gustaba mucho, a imponer su temática, al final hubo que tomar medidas, se fue. Luego también tuvimos que bloquear a un chaval que se puso a hacer el gamberro y a publicar software malicioso. Algún bot con spam nos ha entrado también. Antes has nombrado cuentas bots, que trabajaban un poco para el Ferifit, creo que se llama, tu otra instancia, y estaban reportando noticias, a ver, cuéntanos un poco. Estaban reportando noticias de esas cuentas. Estas cuentas son cuentas bot, efectivamente, todas se gestionan desde la misma máquina y lo que hacen es conectarse al medio correspondiente, el Mundo, el País, el 20 Minutos, Europa Press, van leyendo su fuente RSS, que a día de hoy siguen existiendo y siguen siendo muy recomendables, y cada noticia que ven, pillan el titular y lo lanzan, lo lanzan con su enlace y tú sigues esas cuentas y ya puedes informarte, entrar y leer la noticia que corresponda. ¿Ha sido tú quien ha seleccionado los medios? Sí, en principio sí, y sé que me faltan muchos, la gente me los va pidiendo y según me los piden, los agrego, empecé por España, algún medio internacional hay, pero pocos, y espero en el futuro meter más. Genial. Aquí también el historial es limitado, o no, es decir, las publicaciones que yo pueda hacer en la instancia de NVDA, con el tiempo desaparece, no están ahí siempre. A ver, en principio tú cuando te registras en cualquier servidor de Mastodon, tienes historial ilimitado, tú publicas y eso queda ahí para siempre. ¿Qué pasa? Que esa publicación ocupa sitio, ocupa espacio en la base de datos, ocupa, si subes imágenes o audios o vídeos, ocupan espacio en el servidor donde los subas, y eso al final repercute en los costes del servidor. Entonces, ¿qué pasa? Que el propietario va notando que el espacio aumenta, y va teniendo que subir los costes para poder gestionar eso y que siga funcionando como siempre. Mastodon tiene una opción, que te vas a las preferencias y puedes marcar, que es para que tus publicaciones caduquen. En el momento que caduquen, el servidor automáticamente las limpia, borra el contenido multimedia asociado, borra el texto y ese espacio se libera. Entonces tú puedes marcar esa casilla y elegir cosas tales como si se van a eliminar también las publicaciones que hayas fijado, las que tengas en favoritos, en los marcadores o que te hayan retoteado X veces, y cada cuánto tiempo, publicaciones más antiguas, ¿de cuánto se van a borrar? Yo, por ejemplo, tengo puestas dos semanas, así que mi historial llega dos semanas atrás y a partir de ahí se acaba, ya no hay más. Y hay gente que pone seis meses, un año, dos años, o directamente que no marcan la casilla y siempre tengo que andar lanzando un pequeño recordatorio. ¿Costeas tú solo el pago del servidor y todo esto o tienes colaboraciones? Hay colaboración, las donaciones, las donaciones. ¿Costeas tú solo el pago del servidor y todo esto o tienes colaboraciones? Hay colaboración, las donaciones que se reciben en la asociación se destinan a esto también. Van hacia el servidor en parte y he de decir que tenemos suerte porque los costes son muy, muy bajitos y casi todo va financiado por algún proveedor. Tengo curiosidad por saber tanto qué software utiliza la gente en general y qué software utilizan las personas ciegas en distintas plataformas para poder gestionar de forma, en este caso, fácil y directa todo lo que es la gestión de Mastodon, por ejemplo. Pues mira, hay un poco de todo. Mastodon tiene su interfaz web, tiene su propia aplicación móvil para iOS, para Android, pero luego su API, su interfaz de programación, ha sentado como un precedente y hay un montón de software de servidor que está adoptándola. Entonces, ¿qué pasa? Que hay aplicaciones que valen para todo y puedes conectarlas a casi cualquier servidor, sea de Mastodon o sea de otro tipo. Yo, por ejemplo, en el iPhone tengo Mona, que es una aplicación de pago, pero cuyo precio mereció la pena cuando salió y lo sigue mereciendo, incluso se ha subido un poquito porque está muy, muy, muy bien. Te permite configurar las cronologías, las líneas que quieres ver, en qué orden quieres verlas, yo qué sé. Puedes abrir líneas locales y federadas de tu instancia y de otras. Es increíble. Yo la tengo, me la recomendó Enrique Varela cuando entré en esto y me impresionó mucho la aplicación porque ojalá la mayoría de ellas fueran así. Creo que está muy bien trabajada a nivel de accesibilidad y se lleva con VoiceOver. Mira mucho la compatibilidad con VoiceOver y todo. Está muy bien. Luego tenemos más. Tenemos el TW Blue, que Manuel Cortés lo adaptó para que se pudiese usar con Mastodon. Tenemos aplicaciones web específicas que se pueden conectar a cualquier servicio de estos basado en Mastodon, tipo Enafore, Semafore, Pinafore, que son todos derivados de lo mismo. Y es una interfaz web muy chula donde han cuidado también la accesibilidad mucho. O sea, por opciones que no quede. Y luego en Android también está Tusky y alguna otra más. Hay muchas, hay muchas. ¿Pero Tusky se especifica para gestionarla con lectores de pantalla en este caso? No, no, no, no. En sistemas móviles no hay nada específico para lectores de pantalla, pero sí muchas aplicaciones que acaban siendo accesibles. De acuerdo. Los desarrolladores están muy concienciados y al final, y si no lo están, cuando les pides que la hagan accesible y les explicas la problemática que hay y qué es lo que esperas encontrar y demás, se vuelcan y lo arreglan. Eso es lo que había escuchado, que dentro de lo que es el feriverso y toda esta tecnología que está en torno a él, comenzó sin ser muy accesible, pero hubo mucha receptividad a los requerimientos que le hicisteis la gente que entendéis de accesibilidad y que ibas señalando lo que había que mejorar. ¿Esto es así? Esto es así y te digo más. Una de las cosas que nos sorprende a todos cuando llegamos, especialmente personas ciegas, es que las imágenes tienen una opción para incluir descripción. Esa descripción también se puede meter en vídeos y en audios. El icono para introducir esa descripción llama la atención lo suficiente como para que la gente lo use. No está por ahí escondido. Y el 90% de los contenidos que se pueden incluir, tienen descripción. Más elaborada, menos elaborada, con inteligencia artificial, sin ella, transmitiendo algunas cosas u otras más cortas, más largas, pero tienen descripción. Y eso es algo que sorprende para bien muchísimo. Una sensibilización mayor del usuario en general para hacer este tipo de cosas. Sí, así es. Ahora, según llega gente, ese porcentaje, ese 90% está bajando un poquito. Y hay usuarios que meten caña. Porque es que incluso a la gente que ve, ese texto alternativo le sirve. De hecho, lo dicen. Es que me sirve para contextualizar. O me sirve para entender de qué se está hablando, de qué se pretende hablar en esta imagen. O qué se pretende enseñar. Y para localizar. Porque es texto en una búsqueda. También, también. Se puede decir que la red en sí no es accesible ni no lo es. Es cada, las aplicaciones que podemos utilizar. Igual que antes, en la época cuando había clientes para Twitter. Que había diferentes aplicaciones. Pues dependía de cada aplicación de que lo hiciera más o menos accesible. Aquí también pasa lo mismo. Eso es. Lo que pasa es que aquí, como digo, hay mucha sensibilidad, mucha conciencia. Y la gente lo hace. Y lo hace rápido. Y una duda. Una red que esté más centralizada, ¿no? Como puede ser WhatsApp. Pues a la hora de poder cifrar los mensajes. Y que el servidor no sepa lo que estamos intercambiando. Que se cifre de punto a punto. Al estar centralizado, pues quizás sea más sencillo. Aquí, al estar descentralizado. Esto, ¿cómo se lleva? A ver. Es una buenísima pregunta. Aquí hay cifrado a nivel de base de datos. Pero hay que tener mucho cuidado porque los mensajes no suelen cifrarse. Es decir, las publicaciones que se envían y se reciben. Sí que llevan un determinado cifrado. O una firma criptográfica, por así decirlo. Para que se pueda verificar su autenticidad y su procedencia. Pero los mensajes no se cifran. Tú cuando mandas mensajes directos a alguien. Que siempre lo decimos en la página de ayuda que tenemos en la instancia. No deberías transmitir datos sensibles. Porque el administrador de la instancia. O de las instancias involucradas. Pueden llegar, asomarse a la base de datos y mirar. Ahora lo tienen un poquito más difícil. O lo tenemos, mejor dicho. Pero yo no miro. No penséis que miro, porque no. Pero se puede hacer. ¿Entonces los mensajes directos que decías antes? No, pues eso. Que los mensajes no se cifran. Los mensajes circulan. Pero no es que vayan en abierto. A nivel de red, por ejemplo. Porque sí que van cifrados por HTTPS. Pero que se recomienda no transmitir ningún dato sensible. En esos mensajes. Ni multimedia adjunta, ni nada. Porque al final, corres el riesgo de que ocurra. Y de hecho, algún caso se ha visto. De algún administrador que miraba lo que no debía. Además, para llegar a poder mandar un mensaje directo. Para llegar a poder mandar un mensaje personal a otra persona. Que a lo mejor está incluso en otra instancia. Pues ese mensaje va saltando de instancia en instancia. Hasta que llega al destinatario. No, va directo. Tu instancia conecta con la de destino. Lo envía y ya está. ¿Y si no son amiguitas las dos instancias? Se hacen. Bueno, se hacen. Y si no se pueden hacer porque están bloqueadas. Alguna bloquea a la otra. Pues el mensaje no va a ningún sitio. Si los tres somos instancias. Y uno bloquea al otro. Entonces los usuarios de mi instancia no podrían envidiar a los usuarios de la tuya. Ni siquiera a través de Ricardo. Aunque si yo fuera amiguito de Ricardo. Pero ni siquiera a través de Ricardo. Ni siquiera a través de él. Por eso, yo prefiero cuando hay que tomar medidas contra instancias. Que ocurra muy poco, como ya dije. Prefiero limitar. Que sí que facilita. Permite esa interacción. Pero digamos que reduce la exposición. No vas a ver publicaciones. No te van a aparecer en la federada, por ejemplo. Pero sí permite que tus usuarios hablen. Con los que quieran de ese otro lugar. Por ejemplo, threads.net. Que es la instancia de meta. Esa la limitamos. Porque la gente. Aquí en el Fediverso. La compatibilidad de Threads. Causó mucha conmoción. Y la gente empezó a debatir. ¿Qué va a hacer meta con los datos? ¿Qué son datos abiertos? ¿Van a poder entrar? ¿Van a pescarlos? ¿Van a hacer lo que sea? Digo, bueno, vale. En nuestro caso, no nos vamos a decantar. Ni por dejarlos abiertamente entrar. Ni por bloquearlos. Porque, a lo mejor, uno de nuestros usuarios. Puede tener un amigo en Threads. Y puede querer hablar con él. No le vamos a quitar esa posibilidad, ¿no? ¿Has dicho que prefieres esta instancia de meta? Sí. Hay un servicio de texto este que han creado. Parecido a X. Conectado con Instagram. No sé bien cómo va la historia esta. Puedes habilitar compatibilidad con el Fediverso. Pero la tienes que activar a mano. Hay publicaciones tuyas que no se van a ver. Otras que sí. Luego, por lo que cuentan desde la interfaz de Threads. No se respeta el orden cronológico del Fediverso. No sé. Hay de todo. Se dice de todo. Yo, particularmente, no he entrado allí. Claro. Esto es interesante, ¿no? Porque si aquí, en el Fediverso, la idea sobre la que se sustenta todo esto es la libertad. Que, bueno, algunas instancias pueden estar más o menos censuradas. Y otras menos. Otras más. Pero si alguien, incluso con fines comerciales, o meta, o quien sea, quiere también entrar y que tiene su propia instancia. ¿Por qué no dejarle? Es como si estamos a favor del código libre. Y luego va Microsoft que pone parte como código libre. Pero no le dejamos que ponga su código libre. Porque es Microsoft. No, no. Y esto es su derecho de hacerlo. Si quieren entrar, que entren. Pero... Pero lo dejamos aislado. Pueden entrar, pero lo dejamos aislado y no nos federamos. No, porque nunca van a quedar aislados. Es como he dicho antes. Siempre hay gran variedad de opiniones, puntos de vista. Y siempre va a haber quien los aísle y va a haber quien no. Entonces, en cierto modo, parte del Fediverso se va a ver desde allí. Fíjate, José, tú comentas que hay libertad y hay diversidad. Y yo la percepción que tengo y por cosas que he leído también, es que justamente, si de algo carece, el Fediverso es de eso. Es decir, hay monoclonalismo, es decir, hay monoclonalismos y hay monoclonalismos y hay monoclonalismos y hay monoclonalismos y hay monoclonalismos, es decir, solo hay un solo color. Realmente, el crecimiento ha sido en reacción a, en este caso, a redes sociales más liberales, que no estoy diciendo si son buenas o malas, sino que son distintas. Y que realmente han habido muchos bloqueos, distancias, pues, por catalogarlos de fascistas, de no sé qué. Entonces, esa es la sensación. Entonces, cuando yo digo que hay libertad, claro, puede haber libertad según la entiende cierta ideología, porque esto también es curioso, que es la libertad realmente. Pues, una ideología se conoce de una manera y otra de otra. Entonces, bueno, esto sí que te lo quería comentar porque lo has comentado antes. Sí que es cierto que has dicho que había un solo, perdón, antes quería decir monocromatismo, que había un solo color aunque había diversidad también. Pero bueno, a mí es una circunstancia que me llama la atención. Hasta como observador, fíjate que no estoy criticando nada, es simplemente analizando, no tomo posición. A ver, mi sensación es que hay pocos bloqueos, pero los pocos que hay han hecho mucho ruido. Porque antes de esos bloqueos ha habido peleas multitudinarias, ha habido discusiones, ha habido intercambio de mensajes de un montón de sitios y al final seguramente es lo que resuena, ¿no? Y por supuesto, desde aquí, desde la comunidad, pues parece que sí que se ve un solo color. Porque al final federamos con gente de ese color, pero yo diría que hay de todo. Hay de todo, hay instancias de otros colores políticos, hay instancias con otra filosofía. Entonces, nada. Pues será aquel color que predomina en el machillón. Puede ser. Yo particularmente, si me encuentro en las otras, mientras no ocurra nada, mientras no ataquen a mis usuarios, todo va a ir bien. O sea, no hay ningún problema y aquí particularmente no se va a bloquear a nadie. Y la temática que tratáis, por ejemplo, en comunidad NVEA es abierta, ¿no? No es solo tecnología, porque yo he visto que realmente se opina mucho sobre noticias de actualidad, de carácter político. No, aquí hay de todo. Aquí hay de todo. Como dije antes, se abrió como instancia de propósito general para que quienquiera pueda entrar, explorar el Fediverso desde aquí y decidir si se queda aquí, se va a otro sitio y demás. O sea, el propósito, pese a su nombre, nunca fue hablar de NVEA. Y de hecho he visto más comentarios de otra gente que dicen que veo a gente hablando de su vida, ¿no? Digo, vale, sí, es lo que verías en cualquier otra red, es lo que se pretende. ¿Qué quieres? Pues ya está. No, no, sí, sí, eso está clarísimo, sí. Llenas macarras que arrinconan a gente que discrepa de lo que piensan o cuando publican algo y eso. Siempre las hay en todos los sitios y hasta qué punto se tiene que administrar eso o moderar eso en cualquier instancia de cualquier red social o en cualquier sitio, es así. ¿Y eso es bueno o es malo? Pues no, es lo de siempre, la educación, los grupos, y bueno, no es fácil. Es muy dependiente del contexto. Se pueden tener debates sanos o se pueden tener debates más tensos y es ahí a lo mejor cuando tenemos que empezar a tomar medidas. Pero tú dices que no has tenido que tomar afortunadamente ninguna medida, ¿no? En los activos. Entonces, nada, en otras instancias mayores sí que han pasado cosas. Y bueno, Mastodon nació, que además fue así, un poco como reacción a una red más comercial, centralizada, y surgió un poco como contraposición a eso. Igual que existe con Mastodon que la comparamos con la antigua Twitter, con X, con otras redes. Mira, tienes Mastodon, que efectivamente se parece a Twitter, te mete un límite de 500 caracteres, luego hay gente que sube ese límite, yo particularmente no lo voy a hacer. Hay... Entendemos que sube el límite el moderador. Sí, sí, el moderador sube el límite, efectivamente. Hay instancias que tienen 5000, 2000, así. Pero bueno, Mastodon empieza con 500 caracteres pero luego tienes otras. Tienes plataformas de blogs, de música, de vídeo, de fotografía, similares a Instagram o a Facebook, Friendica se parece mucho a Facebook, Pixel Fed es el equivalente a Instagram, Pertube, que es como YouTube, no sé, Ride Freely, luego hay complementos para plataformas conocidas como Wordpress, que tú te lo instalas y ya te habilita el soporte ActivityPub y entonces tus entradas se leen por el Fediverso. A mí me explotó la cabeza el día que conseguí leer una publicación de Wordpress desde TWBlue porque tú dices es que parecía imposible, ¿no? ¿Qué estoy haciendo si siempre he visto esto navegando por la web? ¿Cómo es posible que ahora lo esté leyendo desde aquí? Pues se puede. Eso es lo que mola de esto, que interconectas un montón de plataformas con un protocolo compatible y tú desde la que tú eliges todos los demás y te llega en un formato donde las cosas funcionan. Entonces, por ejemplo, la que es el equivalente, por así decir, a YouTube, ¿no? Hay una red que se encuentra a YouTube pero harían falta otras instancias que permitan grabar esos vídeos o en la de NVIDIA también se podrían almacenar o son instancias separadas. Tú tienes una instancia de Pertube, subes un vídeo y entonces ese vídeo lo publicas. Tú lo descargas, sean de donde sean y el vídeo les llega junto con la publicación. Los vídeos suelen circular de un servidor a otro para facilitar que puedas descargarlos desde tu servidor local y, en cierto modo, proteger tu privacidad, que el servidor remoto no conozca tu IP, por así decirlo. Entonces, bueno, alguien que está en Mastodon ve el vídeo que tú has publicado, lo puede reproducir, y al responder, él responde con lo que para él es un TOT de respuesta, pero a ti te llega en forma de comentario ese vídeo porque tú estás en Pertube y quieres esa interfaz y ese modo de conectar. A ver que me he perdido, pero ¿dónde está alojado ese vídeo? Ese vídeo va a estar en tu servidor de Pertube, donde lo has subido tú, pero una vez que federa, los otros servidores se lo van a bajar Estaría también en el tuyo, en el caso de... TRANSCRIPTION TEXT TRANSCRIPTION TEXT Hay plataformas de tipo Github para que puedas subir código abierto y federan entre sí. Nescloud, que es como una nube autoalojada que puedes meter en casa, está trabajando también en un complemento para conectarse al Fediverso. O sea, esto abre un enorme mundo de posibilidades y también las empresas se han dado cuenta. Hemos hablado de Threads, pero hay otras que también quieren conectarse a esto. Y tú como usuario, ya no como moderador ni nada de esto, siempre que, bueno, no quiero ser indiscreto, pero normalmente ¿qué es lo que sueles seguir? ¿Qué sueles ver cuando tú llegas, entras en tu gestor? ¿Qué es lo que has seleccionado que te gusta? Supongo que tu comunidad lo primero para ver qué se ha cocido, ¿no? Por supuesto. Mis usuarios no faltan. Sigo amigos, sigo medios de comunicación. Os sigo a Arturo y a ti, que tampoco me podéis faltar. Gracias. Bueno, bueno. José Manuel fue mi primer usuario con el que me comuniqué cuando dije "socorro, no sé cómo funciona esto" y salió al rescate. Sí, sí, sí. Además, tú elegiste nuestra instancia y yo siempre que alguien viene aquí intento recibirlo de la mejor forma posible. Tenemos aquí instrucciones de cómo usar más todo, en cómo adaptarse y, no sé, a la gente parece gustarle. Sí, sí, hombre. Y sobre todo tú, que eres una persona muy respetuosa y amable, que siempre se agradece. Gracias. Y volviendo a esto, creo que ya. Porque sigo también las líneas de otras tres o cuatro instancias de personas ciegas y, bueno, mis cuentas de Nubedea y Laudicinemateca, que también están por ahí. Y el Fedefeed. Sí. Sigo algunas, no a todas. Porque eso cada diez minutos dispara y me llena el hilo de noticias y tampoco quiero estar tan informado. Y al estar descentralizado, el mensaje podría cambiar por el camino. Por ejemplo, en Empertube, uno que tenga una instancia, el profesor este que comentaba antes, Ricardo, creo que era francés, pues pone sus vídeos en su instancia de su institución o lo que sea. Pero luego si yo lo veo en mi instancia de Nubedea, pues se viene una copia de ese vídeo. Vendrá para acá, pero luego a lo mejor si el profesor cambia ese vídeo, tendrá que actualizarse en mi instancia o qué pasa. Sí, sí. Los cambios se reflejan. Se reflejan tanto las actualizaciones como las eliminaciones. Luego ya cada instancia decide si respeta eso o no. Por ejemplo, hace poquito me enteré de que los servidores de Geneo Social no lo hacen. Hubo un caso de alguien que se quejó porque decía, Jolín, es que yo veo publicaciones de hace seis años, pero las veo en otro sitio. No en mi servidor, sino en otro sitio. Y contactó con el propietario en cuestión y ya se tomaron medidas. Pero a veces no tiene por qué respetarse una solicitud de eliminación. Claro, porque podría pasar que el original ha quitado su vídeo o lo que sea, pero sin embargo la copia que está en el caché, en mi instancia en este caso, pues yo puedo seguir viendo ese vídeo, aunque el original vaya abajo. Sí, pero no. A ver, la instancia que lo respeta, lo respeta. O sea, una solicitud de eliminación, en cuanto te llega, el servidor elimina la publicación automáticamente. Entonces lo ideal es eso, se va de caché y se va de todo. No puedes acceder a ello. Pero sí que es verdad que mucha gente viene al Fediverso huyendo precisamente de eso y buscando un cambio de aires. Y de hecho casi siempre lo notan y lo agradecen. En general se está bien aquí. Claro, pero si este profesor pone también sus vídeos en su instancia y luego yo estoy en la tuya y tú lo censuras, pues cortarías el lazo con esa federación, con esa instancia y yo no podría verlos. Claro. Y tendrías que irte a esa instancia o cambiar de instancia o tener varias cuentas. Hay gente que tiene varias cuentas también. Y ver los vídeos desde otro sitio. Yo particularmente, tranquilo que no lo voy a hacer, a ver que empiecen a ocupar espacio. En ese momento ya pensaremos qué se hace. ¿De cuánto espacio estamos hablando? Ya por curiosidad. Muy poquito. Poco más de 100 gigas tengo en el servidor. Y hay que procurar que no se llene demasiado. ¿Y el software se actualiza muy a menudo? ¿Te requiere mucha atención o tienes que...? No, se actualiza cada equis tiempo, metiendo novedades o corrigiendo fallos de seguridad o de funcionalidad. Y por suerte no. Desplegarlo es fácil, mantenerlo es fácil. Y bueno, gracias a Docker, que también me apoyo mucho en Docker para gestionar la instancia y las imágenes. Docker es un software que facilita mucho estos despliegues y las actualizaciones y demás. Muy bien. Pero vamos a hacer una cosa que nos gusta mucho, José. Que es ese paso a paso desde cero. Una persona que ha escuchado este episodio y dice yo quiero entrar, por ejemplo, en Mastodon. Una persona, vamos a poner que sea ciega o no ciega. Da igual. Entonces, punto uno. ¿Qué tendría que hacer? Vale. Hay dos alternativas. O nos vamos a joinmastodon.org, joinmastodon.org. Y allí le damos a servidores y buscamos en esa lista gigantesca que va a aparecer para elegir un servidor. Pero la opción más simple, el camino más simple, es entrar en mastodon.social y hacerse una cuenta. Y a partir de ahí ya te empiezas a encontrar gente, empiezas a seguir gente. Y a lo mejor si quieres irte a otro sitio, te vas a otro sitio. Entonces, entramos allí. Vamos a proporcionar nombre de usuario, correo electrónico, contraseña. Lo típico que se suele pedir siempre. Nos damos de alta, confirmamos el correo y demás. Y ya estando allí dentro, pues se puede empezar a mirar el hilo federado o el local, que van a estar muy a mano. Vale. Una cuestión. Cuando has dicho damos usuario, ¿ese usuario va a formar parte de nuestra cuenta? Ese usuario va a formar parte de la cuenta. Ese usuario va a ser arroba usuario, arroba mastodon.social, por ejemplo. De acuerdo. Vale, vale. Muy bien. Ya estamos dentro, estamos allí. Y ahora, por ejemplo, si yo quiero encontrar comunidad nvda, hago una búsqueda. Simplemente pongo mastodon en Google y pongo comunidad nvda y me saldría. Es una opción. Es una opción. Puede salir en Google. Otra opción. Puedes usar el buscador de mastodon y buscar nvda como tendencia o como palabra clave, que seguro que algo sale. Correcto, porque exactamente. Usuario sería complicado, pero instancia sí que me va a mostrar algo, ¿no? Seguro que sí. Bueno, entonces, ya la veo, digo, aquí está. ¿Qué hago? Nada, puedes entrarla, puedes entrar en ella, puedes visitar su línea local, puedes ver sus tendencias, de qué habla la gente por allí. Me gusta. Puedes ver también su línea federada, si quieres. Todo ello sin registrarte, ¿eh? Ojo. Sí, sí. Puedes ver todo eso y en función de si te gusta o no, dices, vale, quiero migrar. Y en la configuración de la cuenta se puede hacer. Hay opciones para, bueno, te tienes que hacer una cuenta, por supuesto, sí o sí, en la nueva instancia. Pero en la cuenta hay opciones para eliminar, o sea, migrar tus seguidores, descargar los archivos que quieres exportar. Lo único que no te puedes llevar, como dijimos antes, son tus publicaciones, cuando migras de un sitio a otro. Y, nada, a partir de ahí, cuando tienes las asociaciones hechas, migras y el resto sucede solo. Puede tardar unas horas, pero ya tienes cuenta en el nuevo servidor. Puede tardar unas horas porque está pendiente tu autorización, en este caso, ¿no? No, no, no, no. A ver, yo tengo autorización en comunidad, por ejemplo, para aprobar usuarios que se registran. Exacto. Tengo el registro semiabierto, que eso también es algo que se puede configurar. Hay instancias que no admiten a nadie, hay instancias que admiten a cualquiera y luego hay un nivel intermedio que es decidir si la persona entra o no entra. Vale, pero la migración no se aprueba, la migración ocurre. Ocurre. Una vez que tienes una cuenta en ambos sitios, el administrador no hace nada, es algo totalmente transparente para él. La persona migra, va de una a otra. Vale. Por eso decimos, y por eso volviendo al tema de la libertad, que si no te gusta un sitio, siempre vas a poder irte a otro y nadie te lo puede impedir. Incluso si te han limitado la cuenta, puedes irte. Y el tipo de contenido, ¿no? Hemos dicho que hay mensajes de texto, que puede haber de vídeo, como el PerTube, y puede haber, por ejemplo, de música, un equivalente al Spotify o cosas así. O de archivos, de programas. A ver, no conozco yo instancias de música. Sé que las hay, pero no he explorado esa parte todavía. Pero sí, a ver, puede haber. Hay mucho contenido. Texto, multimedia. En general, también puede haber programas. Software. Software. Si alguien publica un enlace de descargar, puede haberlo. Claro. Claro, pero es un enlace, ¿no sería el archivo en sí mismo? No, no, no. Se limita a lo que veríamos en una red social, como X y demás. Multimedia, texto, imágenes, y para de contar. Porque el vídeo sí que estaría, si es un vídeo, en sí mismo, el vídeo en sí estaría dentro de la instancia, ¿no? Sí, y dentro de la publicación vas a poder reproducirlo. Tiene sus controles de avance, retroceso, su texto alternativo, muy importante, no debe faltar tampoco. Y la piratería aquí, ¿cómo lo lleva? Porque esto puede ser un caldo de cultivo interesante, ¿no? Hay de todo. Hay de todo. Particularmente en la instancia de comunidad, y viendo cómo está el panorama por listas de correo y demás, yo cuando puse las reglas dije, venga, vamos a permitirlas siempre y cuando el nivel de privacidad se ajuste adecuadamente, y sea por mensaje directo o hablando en plata, que yo no me entere. De eso no hemos hablado, de los distintos niveles de privacidad, si queréis os cuento un poquito, porque tú puedes elegir cuando publicas, si esa publicación va a ser pública, no listada, sólo para tus seguidores o sólo para la gente que mencionas. Son distintos niveles de privacidad, la pública va a federar por todas partes, tú la lanzas y va a llegar a todas las instancias, va a aparecer en las líneas locales, federadas, y así. Pero la no listada, aunque sigue siendo pública, la va a ver sólo quien te siga, bueno, perdón, quien te siga y quien la busque, es decir, quien entra a tu perfil a mirar. Y luego la de sólo seguidores, sí, la ves sólo quien te siga, y ojo porque aquí surge una duda muy frecuente, si alguien te sigue puede ver tus publicaciones actuales y pasadas, que fueran sólo para seguidores, o sea, no es, te sigo y veo sólo lo que publicas a partir de ahora. Y luego está la de sólo la gente que menciono, que es el mensaje directo propiamente dicho. Entonces una publicación, le pones ese nivel, mencionas gente, una persona o varias, y ese mensaje directo llega a esa persona o personas. De tal forma que algo muy bueno que tiene es que se pueden hacer de forma muy fácil conversaciones en grupo, privadas. Sí, eso es lo que a mí me resulta más interesante que no he visto en otro sitio y me parece genial, porque sí que si mencionas a un grupo que vais a hablar de una temática donde a todos os puede interesar, sí que se generan dentro unas conversaciones que son magníficas, además que al ser más reducido el grupo, ¿no?, tiene como más dinamismo y es más interesante. Tampoco, en mi caso al menos, no son habituales. O sea, he visto conversaciones de siete o ocho personas o seis o nueve incluso, pero públicas. Pero serían totalmente viables en privado también. ¿Y el precio? ¿Cuánto cuesta esto? Depende. Depende del servidor que tengas, de la gente que quieras admitir, los recursos que quieras darle, el software que instales. Entonces aquí no hay algoritmo, no hay publicidad, no hay anunciantes. Y aunque parezca gratis para el usuario, no lo es. El administrador necesita pagar eso. No significa que todo el mundo tenga que lanzarse a pagar, pero siempre se agradecen las donaciones, siempre son bienvenidas y van a ayudar a que la instancia en cuestión perdure en el tiempo, que es lo que se persigue también. Y en tu caso, por ejemplo, para que te llegue una donación, aunque lo vamos a poner también en las notas del episodio, ¿cómo tendrían que hacerlo? Pues muy sencillo. Basta con visitar la página nvda.es barra donaciones y allí se explica todo y se ofrecen distintos métodos de pago por PayPal, tarjeta de crédito, transferencia bancaria. Tenemos ahí un montón de alternativas para que cualquiera use la que mejor le venga. De esa forma, pues podemos ayudar a sostener todo esto. Fenomenal. Pues yo creo que hemos tocado ya todos los temas. Creo que no nos hemos alejado mucho, ¿no? Si os parece, podemos hacer un resumen, recapitulamos un poco. Pues sí, hemos conocido qué es el feriverso, de dónde viene y cómo realmente podemos discurrir por él. Hemos conocido también la diferencia entre lo que es una instancia, una federación. ¿Cómo funcionan las publicaciones? ¿Cómo interactúan entre sí los usuarios? ¿Cómo buscar? Un poco las limitaciones, los pros, los contras, desde un punto de vista un poco técnico para intentar conocer un poco las tripas y poderlo utilizar. Como usuarios, en este caso, sí que hay que conocer un poco lo que hay detrás. No siempre nos sirve únicamente con entrar y darnos de alta, que también, pero si conocemos un poco lo que hay debajo del capó, pues vamos a poder utilizarlo en condiciones. Bien, hemos conocido también el paso a paso de cómo, desde cero, llegar a entrar dentro de este feriverso y comenzar a inscribirse, a migrar y demás, y comenzar un poco la aventura, que es muy recomendable para que no te lo cuenten. Es decir, nosotros podemos hablar y tener nuestra opinión, pero lo interesante sería que los que no conocéis este tipo de entorno, pues lo probéis y tengáis vuestra propia opinión. Eso es. Contamos un poco lo que hay, intentando ser objetivos, que nada no es ni blanco ni negro. Todo tiene sus ventajas, sus inconvenientes. Pasamos de estar censurados por unos a estar censurados por otros. Cada cosa tiene sus peculiaridades y simplemente pues para que podamos elegir en cada situación lo que más nos convenga. Pues muchas gracias, José, por habernos acompañado este rato. Esperemos que hayas todo a gusto y que repites. Bueno, eso espero yo también. Muchas gracias a vosotros por esta maravillosa oportunidad. Y nada, a todos los que están escuchando, si quieren venir al feriverso, es un lugar tranquilo en el que se está bien. Y hay poca gente, va a seguir habiendo poca gente, pero con vosotros vamos aumentando ese número y nada. Os recomendamos que la instancia sea comunidad NVDA, que tiene un moderador, que como hemos dicho antes, es una persona muy amable, respetuosa y dedicada, y que se llama José Manuel Delicado. Y al que le agradezco un montón que me haya transferido estos conocimientos porque ahora me siento mucho menos ignorante, aunque lo sigo viendo complicado. Sí, estamos un poco más feriversados, aunque esto yo creo que no es para todo el mundo, pero bueno. Tiene su parte complicada, pero cualquiera puede entrar y va a estar bien. Yo estoy segurísimo al 100%. Muchas gracias. Muchas gracias, José. Contamos los medios de contacto. Bien, pues si queréis encontrarme allí por el feriverso, precisamente, soy arroba jmdaweb arroba comunidad.nvda.es. Y si no, o si queréis algo más tradicional, como el correo electrónico, podéis escribir a contacto arroba nvda.es y por allí os atendemos. Muy bien. ¿Y Ricardo? Bueno, pues nuestros medios de contacto son nuestro correo electrónico gafotas arroba cegatos punto es y. Hay que ver qué clásicos somos. Correo electrónico tradicional, pero bueno. Y a través de WhatsApp por un mensaje de texto o de audio en el más 34644640792. Como siempre, os agradecemos a todas y todos que hayáis llegado hasta aquí. Esperamos que os haya resultado interesante como a nosotros este episodio y lógicamente os esperamos en el próximo. Hasta luego. Adiós. Adiós. Adiós adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Pues lo que me faltaba, ¿eh? Joder. No, hombre, una toma falsa. Está bien. ¿Sí? Pues... Joder. ¿Nos traes agua, pues? Sí, sí. Disculpad. ¿Un vasito de agua? Lo tengo ahí. Ya he bebido antes. Estaba, además, con un pequeño caramelo en la boca y... nada. No sé, se ve que tengo un poco de caras pero aún no acabo de curarme. Bueno. Pueden llegar, asomarse a la base de datos y mirar. Ahora lo tienen un poquito más difícil, o lo tenemos, mejor dicho. Pero... yo no miro. No penséis que miro, ¿por qué no? Pero se puede hacer. ¿No miras porque no ves? Por eso iba a decir yo. ¿Por qué os he visto? No miro porque no veo, pero tampoco uso mi lector de pantalla para observar... Vale, vale, vale. ...lo que allí se publica. Ah, era una broma, José. Sabemos que eres decente, ¿sabes? Solo traficas con los datos, ¿no? Con otra gente, pero no miras. Claro, claro, claro. Vale, correcto. No puedes saquear. Así que Arturo era francés, el profesor, que era Messier-Pierret. ¿No te acordabas de ese detalle? Te ha quedado bien. Dice, por cierto, que era francés. Claro, claro. Ya que has pasado la historia, la historieta y todo ese tipo de cosas. Lo he leído. Es que, claro, a mí me suena que lo leímos, ¿no? Que era un profesor el que lo hizo porque encontraba mucho ruido en YouTube, ¿no? Bueno, ruido, no. Porque censuraban los vídeos. Eso es. Porque siendo profesor es un problema porque vas a explicar la historia, empiezas a hablar de nazis y va YouTube y te censura los vídeos. Sí, sí, sí. Claro, claro, que siendo profesor deberías poder hablar, libertad de cátedra, hablar de lo que te dé la gana, ¿no? Simplemente contar la historia, lo que pasó, ni bien ni mal. La objetividad en la historia creo que nunca existe. Siempre depende de quién la haya escrito. Pero bueno, intentar contar por lo menos la versión oficial y ni eso, ¿no? Porque YouTube pues va y te busca palabras clave con sus algoritmos, buscan ciertas palabras y te censuran el vídeo y te lo quitan. Y no puedes ni siquiera compartir esos vídeos. Te veo como hablando de algo muy dolido, como que te hubiera pasado a ti. Puede ser, puede ser. Algo ahí, algo ahí. Pero bueno. Muy bien. Respirad, venga. Sonreíd. Abrazar la libertad del fe diverso. Pedir pista para aterrizar, que había un momento que... O sea, que José iba a pedir pista para aterrizar. Sí, sí, sí. Pero oye muy bien el sonido hasta el momento. Porque sí que cuando has entrado, José, nos hemos inquietado muchísimo. Yo con mi talk me han dado como palpitaciones y todo. Para mí es habitual. Bueno, imagino que es así. Y además yo sí que sé que las turbinas esas van muy bien. A no ser que tengas refrigeración líquida y cosas de estas. Porque es otra historia. Pues sí, hemos conocido qué es el fe diverso, de dónde viene. Y bueno, cómo realmente podemos discurrir por él. Y bueno, hemos conocido también la diferencia entre lo que es una instancia, una federación. Venga, chicos. Cómo se financia. Cómo se financia. Que es dormir, que hay que hacerlo a la limón, hombre. Cómo funcionan las publicaciones. Cada cosa tiene sus peculiaridades. Y simplemente pues para que podamos elegir en cada situación lo que más nos convenga, ¿no? Correcto. Que sepáis que vais a incursionar en un reducto de techies y woks trasnochados. Nosotros... Pero esta es broma. Es que no tenemos patomas falsas. Venga. Bueno, silencio. Venga, Arturo. Muchas gracias, José. Contamos los medios de contacto. Bien, pues si queréis encontrarme allí por el fe diverso, precisamente, soy... Soy... Y si no, si queréis algo más tradicional, como el correo electrónico, podéis escribir a... Y por allí os atendemos. Muy bien. Fenomenal. ¿Y Ricardo? Los nuestros... Bueno, yo el mío no me lo sé. Los nuestros de... Ah, vale, digo. Era que me preguntaba. Yo entro con el gestor y voy para adentro. Que no sé ni cómo me llamo. Si ahora tuviera que dar solo a alguien, yo ni me lo sé. El mío. El del podcast. Sí, sí, sí. Ya, ya. Bueno. Muy bien. Muchas gracias. Pues nada. Vamos hablando. Y a descansar, que mañana hay que... Como nos vulnera tu última enneca. Venga, vamos a acabar hablando en latín, que... Me gustaba más lo de... Ya estamos cambiando el idioma. Lo de... Me gustaba más. Sí. Y que el niño se acuesta, el cagao se levanta. Efectivamente. Alboreate es, claro, que madruga, ¿no? Es el que se despierta, ¿no? Por el alba. Alboreate. Ah, qué bueno, qué bueno, qué bueno. Sí, sí, sí.
Gafotas, cegatos y sus aparatos #13
Fecha: martes, 4 de marzo de 2025, a las 00:00:00
En este decimotercer episodio de Gafotas, cegatos y sus aparatos, exploramos los lectores de pantalla más populares en Android: TalkBack y Jieshuo (pronunciado “Gisua”). Para ello, contamos con Héctor Benítez y David Santos, dos expertos en tecnología y accesibilidad digital que comparten su experiencia y consejos prácticos para aprovechar al máximo la accesibilidad en Android.
Temas destacados en este episodio:
- TalkBack: Fortalezas, debilidades y evolución del lector de pantalla integrado en Android.
- Jieshuo: Un lector de pantalla alternativo con mayor personalización y funcionalidades avanzadas.
- Ecosistemas abiertos vs. cerrados: Diferencias clave entre la accesibilidad en Android e iOS.
- Inteligencia Artificial y accesibilidad: Integración de IA en TalkBack y en dispositivos Samsung/Pixel.
- Aplicaciones recomendadas: Las herramientas preferidas por nuestros invitados para navegar, comunicarse y gestionar su dispositivo.
- Consejos finales: Cómo elegir el mejor lector de pantalla según las necesidades de cada usuario.
No te lo pierdas: Si te interesa la accesibilidad en Android y quieres conocer a fondo estos lectores de pantalla, este episodio es para ti.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Descripción general de la accesibilidad de Android.
Información y tutorial del lector Jieshuo Screen Reader (inglés).
Créditos:
Duración: 01:26:14
Descripción detallada del logo de Episodio 13. TalkBack vs. Jieshuo: ¿Cuál es el mejor lector de pantalla para Android?
La imagen es una ilustración en blanco y negro con un estilo de cómic retro, similar a los grabados antiguos o las ilustraciones de mediados del siglo XX. Representa al personaje de nuestro logo, un hombre de aspecto distinguido sentado en un sillón de cuero con botones capitoné. Su vestimenta es elegante: lleva un traje con chaqueta de solapas anchas, una camisa blanca y una corbata de rayas diagonales. El personaje tiene un bigote grueso y curvado hacia arriba, y luce gafas de sol redondas. Además, lleva unos auriculares grandes de diadema conectados mediante un cable. Su expresión transmite concentración mientras manipula un teléfono móvil moderno con su mano derecha, mientras que su mano izquierda sostiene firmemente el dispositivo. La carcasa del teléfono tiene un diseño con varias lentes en la parte trasera. A la derecha del hombre, en la parte superior de la imagen, aparece el icónico logo de Android en color verde, encerrado dentro de un círculo. Este detalle sugiere una conexión con el sistema operativo de Google, posiblemente indicando que el hombre está utilizando un dispositivo con Android o que la escena está relacionada con la tecnología móvil. La composición transmite una sensación de sofisticación y tecnología, combinando elementos visuales de épocas pasadas con la modernidad de los dispositivos actuales. El trazo grueso y definido, junto con el sombreado detallado, refuerza el estilo gráfico característico de este tipo de ilustraciones.
Transcripción de Episodio 13. TalkBack vs. Jieshuo: ¿Cuál es el mejor lector de pantalla para Android?
Bienvenidos al decimotercero episodio de tu podcast favorito. ¿Qué tal estás, Ricardo? Pues muy bien, Arturo. Aquí encantado de que estemos ya en un número tan elevado de episodio y con ganas de hablar del tema de hoy. Sí, y hoy, bueno, vamos a hablar de móviles, ¿no? Que nos gusta mucho la tecnología y los móviles y, en este caso, pues de los androides, ¿no? De los androides que, bueno, no sé si es conocido o no es conocido, pero vamos a intentar dar un poco de luz dentro del mundo del androide y de los lectores de pantalla. Correcto. Esa es la palabra clave. Los lectores de pantalla para androide, que son menos conocidos que otros lectores de pantalla. Pero si quieres, podemos hablar un poco de qué es un lector de pantalla, porque igual alguien lo escuche y no sabe lo que es. Sí, eso es. Para empezar por el principio, pues un lector de pantalla, ¿no? Que es lo que habitualmente, pues principalmente utilizan personas con discapacidad visual, sobre todo, pues ciegos o con diferentes deficiencias visuales que si te cansas a leer y demás, ¿no? La idea de un lector de pantalla, simplificándolo mucho, es que toda la información que habitualmente podemos ver en la pantalla, pues poderla extraer de alguna forma para poderla convertir a voz, ¿no? Incluso, bueno, podemos diferenciar ahí dos partes, ¿no? Por un lado, interpretar, acceder a esa información que está en la pantalla y luego esa información, el mismo software, pues la pasa a otra parte, que es la que convierte ese texto en voz, ¿no? En una voz sintetizada. Bueno, en voz o en braille, depende de lo que tengas en cuanto a la salida. De dos formas predeterminadas. Es voz, porque es más sencillo, pero si tienes un display o una línea braille externa, sí puedes también, a fin de cuentas, lo que capturas la información, la administra de una u otra manera y, bueno, permite al usuario que pueda acceder a la misma, porque, lógicamente, no ve la pantalla y no ve lo que se le muestra. En este caso, vamos a hablar de los lectores de pantalla para móvil. ¿Tú recuerdas la primera vez que tuviste un móvil adaptado, un móvil que pudiste utilizar? Pues sí, recuerdo el Nokia 3660, creo recordar que era, y no era lector de pantalla como tal, porque inicialmente, la tecnología y las características de móvil llegaban hasta donde llegaban en aquel momento y todavía era difícil un lector de pantalla y era una capa que se superponía y era un programa, una aplicación como tal, y lo que estaba dentro de esa aplicación sí que te lo leía, pero no podías salir de esa aplicación, no podías ejecutar otros programas en el móvil, porque eso ya estaba fuera de esa aplicación y ya no te lo leía nada. Correcto, exactamente, era como una app dentro del propio móvil que te permitía acceder a algunas funciones del móvil y leer alguna información, pero no manejarte por todo el móvil. Es una especie de máscara o entorno cerrado. ¿Cuál era? ¿El Mobile Speak era? Mobile Speak, creo que incluso, no, Mobile Accessibility. Hubo uno que era el Mobile Accessibility, que fue el primero. Fue el primero, ¿no? Sí, sí, es posible. Sí, luego, Mobile Speak, creo que sí te leía algo fuera ya de la app. El Mobile Accessibility era una app en sí misma y solamente te leía lo que estaba dentro de esa app. Incluso te salía un mensaje de error o lo que sea del sistema y ese ya pues no era leído, no. Solo te leía lo que estaba dentro de su aplicación. Un sistema que era Symbian, ¿eh? Sí, sí, sí, para Symbian. Correcto. Yo recuerdo Talks o Talks, que se llamaba también, que bueno, no sé si era el mismo principio, pero tenía más pinta de lector. Sí, el Talks era ya el lector de pantalla, porque este sí que te leía otras aplicaciones. Este se integraba muy bien en los Nokia y este ya era lector de pantalla. Ambos con la voz de nuestro amigo Eloquenz. Correcto. Que son dos piezas distintas, ¿no? Una cosa es cómo se accede a la información de la pantalla, a la información interna, por así decirlo, y luego esa información pues la pasa a una síntesis de voz que puede ser más o menos natural, más o menos robótica. En algunos sistemas operativos o lectores de pantalla es más fácil cambiar esta síntesis de voz y en otros, como Apple, pues es la que viene y ya está, ¿no? No se puede cambiar. Pero bueno, son dos piezas independientes. Muy bien. Y luego llegó la debacle, se hundió Symbian, aquello que había generado unos teléfonos Nokia maravillosos con un sistema bastante interesante, pues desapareció. Pero por el horizonte vimos dos grandes marcas sacar sus terminales móviles. Por una parte era Apple con su iPhone y su sistema operativo iOS y por otra parte era Google que impulsó Android para, lógicamente, los terminales Android. Y a partir de ahí pues ya tuvimos una nueva accesibilidad. Sí, además en ese punto más o menos cuando empezó la debacle de Symbian, yo creo, y comenzaron estos otros entornos, ¿no? Fue también cuando empezaron las pantallas táctiles y pensábamos en aquel momento, ¿no?, que una vez más los ciegos nos quedábamos atrás porque con un teclado físico numérico pues era bastante fácil teclear, pero con una pantalla táctil pues hubo un momento que no se veía la luz y no se sabía cómo íbamos a poder utilizar eso. Es verdad, esto es determinante. Dimos el cambio de botoneras, de botones, de teclas a pantalla táctil, que parece una tontería, pero sin ver y perder una referencia física como era una tecla realmente pues producía vértigo, ¿no?, ese cambio. Pero nos equivocamos prácticamente todos. Luego ha resultado que es magnífico y hoy por hoy yo no me veo con un teléfono con teclas. ¿Y tú? Pues, bueno, no sé. Habría que verlo. Porque para escribir, a la hora de introducir datos, yo los SMS los mandaba muy rápido con un tecladito físico T9, como se llama, el teclado que tiene los números, físicos, ¿no?, del 1 al 0, el asterisco, la madilla, y ahí se escribe, nosotros escribimos de forma muy rápida y con una pantalla táctil pues a veces cuesta un poco más. Se puede. Pero solo por eso, pero no, luego ya lo será horroroso. Claro, claro, solo eso, solo esa ventaja. El resto no hay color. Bueno, pues nada, vamos a hablar ya de los lectores de pantalla para Android y para eso vamos a presentar a nuestros colaboradores. Sí, hoy también tenemos a dos invitados que nos van a hablar de Android y de los lectores de pantalla para Android. Tenemos a Héctor. Muy buenas. Buenas, ¿cómo estáis? Hola Héctor, ¿qué tal? Bienvenido. Y tenemos también a David Santos. Hola David. Hola, ¿qué tal? Encantado de saludaros. Pues nada, explicarnos primero quiénes sois, quién es Héctor y quién es David. Vale, pues nada, Héctor es un chavalín de 47 años actualmente, vendedor de cupones y bueno que lleva mucho tiempo en todo este mundito de la tiflotecnología. Le gusta mucho cacharrear y a grosso modo ese sector. Sí, y él es muy humilde y nos lo ha dicho. Es un desarrollador de aplicaciones muy interesantes y algún día hablaremos de alguna de ellas porque la verdad que para las personas ciegas son magníficas, se adaptan perfectamente a los lectores de pantalla que hoy nos lleva, es uno de los temas que estamos comentando y ya también hablaremos. Y además de ser un enfermo de la lectura y un lector empedernido. Sí, bueno eso sí, eso sí. ¿Y David? Bueno pues David es un chavalín también de 40 años, informático y en este mundo de la discapacidad visual desde hace tres años, un poquito así. Entonces bueno, con un poco todo nuevo para mí. ¿Antes nada David? ¿Antes no tenías nada adaptado tres años atrás? No, desde los 38 años yo veía bien. Entonces a partir de ahí, a raíz de una neuropatía, tengo los problemas de visión y pues adaptando todo. Tienes un blog magnífico y un blog valiente donde hablas de tu proceso y puede servir y ser de mucha utilidad a las personas que por alguna u otra razón pues tienen algún tipo de pérdida en este caso visual, como fue tu caso. Con lo cual lo pondremos también en el enlace, en las notas del episodio por si alguien quiere visitarlo. Has dicho que eres informático. ¿En qué trabajabas o trabajas? Estaba en la parte de dirección de una consultoría informática de tecnología en Madrid. Aquí tenéis a los usuarios de iPhone con VoiceOver que no tienen ni idea de los lectores de pantalla para Android y queremos que nos contéis vuestras impresiones y nos habléis de ellos. Bueno, yo en mi caso particular, la experiencia que yo tengo cuando comencé, yo en mi trabajo he podido disponer de cualquier terminal. Al final trabajaba con ello y disponía de ese contacto con los proveedores para poder tener casi cualquier terminal. De hecho, he tenido iPhone también y me acuerdo del iPhone 6s, puede ser, pero nunca me gustó mucho el sistema operativo. No me hacía él y estaba más acostumbrado al tema de Android. Entonces, cuando empecé con los problemas visuales y al estar afiliado en la ONCE, pues bueno, me comentaron que sí que en España casi todo el mundo tenía iPhone y era el sistema como más adaptado, accesible. Y yo sí que quise probar la capacidad que tenía Android con su método de Tollback, su accesibilidad y sí que es cierto que al principio comencé, me parecía un poco lento y buscando por Internet con algún canal, como puede ser el de Blind Android de Yoel, y sí que vi que había otras opciones, como puede ser el lector, en este caso JISO, y es el que yo tengo actualmente y luego hablaremos un poco de él, imagino, también. ¿Y tú Héctor, tu itinerario con Android? Pues mi itinerario, me acuerdo además, fue en el 2011. Acababa prácticamente de salir la versión 2.9 y me fui para la ONCE también y dije, yo quiero eso, Android, y me dijeron que no, que Android no era accesible y en efecto no era accesible. Antes, cuando estabais hablando, me he acordado de que en aquella época, sí o sí, en las primeras versiones necesitábamos tener un teléfono con teclado y sigo guardando mi Sony Ericsson con mucho cariño. Y ese fue mi comienzo y he visto toda la evolución desde aquel entonces, que era bastante mala la accesibilidad, con tal back de aquella época, y hasta hoy, que bueno, conozco otras plataformas y creo que ha pegado un acelerón bastante grande y a día de hoy yo creo que Android, si se puede decir que es una plataforma totalmente accesible con los lectores de pantalla y en este caso mío, con la suite de accesibilidad que se llama ahora. El Tollbox se llamó ahora suite de accesibilidad, ¿cierto? Porque antes tenía Google, pues todo ahí, un poquito el teclado Braille por una parte, cosas de sonido por otra, tal cual, y bueno, se ve que ahora, bueno, lo he intentado aglutinar en una única aplicación y bueno, ahí está de momento todo bien. Sí, porque el Android ha ido mejorando progresivamente con el tiempo, ¿no? Empezó muy flojido y poco a poco ha ido mejorando y ahora sí que ya es algo decente. Es que al principio, ya digo, si no tenías un teclado que te asistiera, era imposible manejar un Android. Yo recuerdo que me puse además a buscar información, no había nada de accesibilidad, ni oficial ni no oficial, no había grupos, no había nada de apoyo, o sea, era horroroso y yo no sé cómo continué y bueno, gracias a que encontré en la otra parte del charco a una persona y ahí nos pusimos a investigar un poquito y bueno, seguimos, pero los principios fueron muy duros, no fueron tan fáciles como en otros sistemas. ¿Esta accesibilidad en Android viene integrada de serie? ¿Hasta qué punto? ¿Viene o no viene? ¿Se puede venir o puede no venir? ¿Cómo es esto? Sí, viene bien integrada. Yo en la poca experiencia que tengo de estos años, sí que es cierto que hay algunos terminales, como puede ser Samsung, que tiene su propio lector dentro de TalkBack, es decir, existe TalkBack dentro de Samsung, que tú lo puedes habilitar, pero es una versión diferente, es un poquito adaptada. Se puede, haciendo un pequeño proceso, quitar y poner la de Google directamente, que es una versión más nueva, creo que si no recuerdo mal, por la 15 o una cosa así, y te viene también embebida en el sistema operativo también. TalkBack es el lector de pantalla que viene por defecto, por así decirlo, con Android, lo que pasa que es cierto que hay sabores personalizados, Samsung o Xiaomi o quien quiera. Es una pequeña capa de personalización, se podría decir. Claro, pero a la hora de instalar Android en sus dispositivos, pueden incluso llegar a quitar el tema de toda la parte de accesibilidad, si quieren, o pueden incluso mejorarla, como hace Samsung. Eso es. Comentan que los Pixel, que serían los teléfonos de Google, que es el mismo impulsor de Android, debido a que tienen menos capas de personalización, de marca, o por lo menos las que tienen están más acorde a su lector, suele funcionar mejor y la respuesta es más buena. ¿Eso lo habéis podido comprobar vosotros con algún Pixel o no? Yo, por ejemplo, ahora mismo estoy usando una ROM personalizada, que es LineageOS, que viene directamente del código fuente de Android, de AOSP, y es lo más puro que uno se puede encontrar, incluso más puro que lo que es el sistema que te vienen los Pixel, y funciona muchísimo mejor. Yo tengo otros teléfonos, tengo Samsung, tengo Motorola, y el problema está en Android, en la adaptación a las distintas capas de personalización que meten las empresas. Ahí es donde empiezan los problemas. Perdona, ¿qué es una ROM? Viene a ser el sistema operativo. Vale. Aquí es importante hablar de la famosa palabra fragmentación, que cada cacharro puede ser de su padre y su madre, y cada marca, cada modelo puede personalizar ese sistema operativo que instala en ese terminal móvil. Y luego, además, tú puedes quitarle ese Android y además instalarle otro distinto con otras características. ¿Esto para bien o para mal? Sí, yo hace tiempo hablaba con un amigo, teníamos ahí un pequeño debate que a día de hoy los terminales móviles son tan sumamente potentes que donde está la diferenciación de cada uno de ellos es más en este sistema operativo y su propio ecosistema. Es decir, los Pixel, por ejemplo, tienen un sistema operativo muy pulido que en cuanto a cámaras hacen unas fotografías increíbles e incluso el sistema va muy fluido y muy rápido. Lo mismo pasa con Samsung, pero a lo mejor hay algún terminal de otra marca china, por ejemplo, que tiene unos componentes de hardware que pueden incluso ser más potentes que estos Pixel, pero ese sistema operativo que está tan bien depurado hace que funcione tan bien. Y eso en accesibilidad luego se nota. Por una parte, la libertad de poder cambiar, personalizar y hacer muchas cosas de cara a tener una coherencia en cuanto a la accesibilidad con el lector de pantalla es un incordio, porque no se comporta igual tanto en una marca como en otra, por lo que estáis diciendo. Y lo que es curioso es que aún teniendo mejores componentes, es decir, es así. Sí, sí, eso sí. ¿Qué solución para esto existe? Ninguna. Ninguna, ¿no? Vale. No, porque las empresas van a seguir haciendo lo que a ellos les conviene. Y sí, bueno, nos venden que van de la mano de la accesibilidad, tal y cual, pero al final lo que importa son las cuentas y bueno, al final, guste o no guste, somos un nicho para sus cuentas no muy importante. O esa es mi percepción. Va pregunta de ignorante, ¿eh? ¿Vale? De ignorante a sabios. Entonces, esto que has dicho antes de la ROM, es decir, yo si tuviera una ROM para un terminal en concreto, ¿podría cargármela lo que es el sistema operativo personalizado con lo que hemos dicho, no? Con la personalización de marca y poner algo más limpio en un terminal? Sí, sí, sí, sí. ¿Eso se puede hacer? Sí, sí. O sea, si hay ROM, o sea, si hay el sistema operativo especial para ese modelo, sí, sí se puede hacer. O sea, de hecho, a ver, el código de Android está publicado y todo el que tenga conocimientos se puede hacer su propia ROM. Luego hay grupos que se ocupan de ello y facilitan las ROMs ya hechas para muchos modelos. Bueno, yo ya he nombrado LineageOS, que es uno de los grupos más veteranos. Y creo que tienen ahora mismo como para cien y pico terminales. Y bueno, lo bueno es que, además, Android es Linux al final. Entonces, con un teléfono básico puede llegar a ir muy bien. Lo que pasa que también ahora nos hemos vuelto locos con los megas, los píxeles, los megahercios. ¿Y eso de la rosa es legal? Sí, sí. O sea, mientras tú puedas desbloquear lo que es la BIOS, por decirlo de alguna manera, del terminal, sí, sí lo es. O sea, las compañías suelen permitirlo. Hay algunas que no lo permiten. Entonces, bueno, ahí ya podríamos entrar en... Y tú en este caso tienes conocimientos como para operar de forma individual. No necesitas a nadie, te has informado, te has documentado y tal. Pero, por ejemplo, alguien que está escuchándonos dice, bueno, yo no tengo estos conocimientos. Pero lo que está diciendo Héctor puede hacer que mejore mi propio terminal. ¿Dónde podría recurrir esa persona? En foros especializados. No es un proceso para todo el mundo. Porque conlleva de que si se hace mal también te puedes quedar sin teléfono. ¿Y existe algún tipo de negocio, de servicio que se preste a terceros? Que yo sepa, no. Seguramente haya alguna persona en cada ciudad que a lo mejor sí lo hace. Pero, bueno, tienes que dar con ello. Yo que sepa, no. Es algo que se suele hacer a nivel personal y, bueno, ya digo, mirando mucha información. ¿Entonces la sensibilidad que trae Android S? Hemos dicho que es TALBAC. ¿Qué características tiene TALBAC? ¿Qué es lo bueno, qué es lo malo? ¿Qué peculiaridades tiene? En una ROM personalizada. En la estándar y luego en una personalizada. Un poco las dos. O sea, en una personalizada lo mismo que en una normal. Las características. Como lector de pantalla te permite explorar todo lo que es el sistema. Luego trae, al instalarse, te agrega algunas opciones para audio, para sonido. O sea, no solo es lector de pantalla. Como hemos dicho antes, la suite ya engloba más apartados. Ya incluye el teclado braille. Entonces, bueno, ya cada vez es más completa. Sí, tiene partes de visión, audio, temas de contrastes, brillo. Todo esto imagino que como en todos los lectores, ¿no? Y aparte te deja hacer diferentes opciones con diferentes menú. Hacer los flips a la derecha, flips a la izquierda, doble clic y demás. Además te permite también utilizar de manera gratuita el sistema que tiene de voz de Google. Directamente con diferentes voces. Ya no tienes que descargar. Imagino antiguamente había que hacer, ¿no? Con Vocalizer, Eloquence, no sé cuál. Pero existen diferentes que puedes poner. Incluso Acapella también. Pero el de Google, por lo menos que es el que yo tengo, funciona bastante bien. Es bastante natural. Hemos visto que en las últimas versiones de TalkBack hasta anunciaban también cierta sincronización con Gemini, que es su inteligencia artificial, ¿no? Para el reconocimiento de imágenes y demás. ¿Os ha dado tiempo a probarlo? Sí. Sí, sí, sí. Es una pasada. Sí, a ver, en la última versión. Ahora no me acuerdo cuál tengo, pero es una de las últimas. Ya viene. Y bueno, es muy fácil. O sea, en el mismo menú. O sea, con tres dedos en la pantalla. Directamente te salta el menú de TalkBack. Y bueno, ahí te viene el describir imagen. Y te permite nadar lo que tienes en pantalla, describirla. Y bueno, te da una pequeña descripción. Te deja seleccionar el texto de esa descripción. Y bueno, tienen previsto cada vez que se integre más con la inteligencia artificial de Google. Entonces yo creo que van a venir cosas bastante interesantes también para TalkBack en ese aspecto. Pero vamos que ya es un adelanto el, por ejemplo, es una tontería, pero muchas veces pasamos el dedito por los iconos y realmente no sabemos lo que es ese icono. Y el poder describir un icono, ya digo que parece una tontería, pero que es algo que pasamos el dedo muchas veces. Pues oyes, ya tienes un contexto más de lo que es el sistema operativo que estás usando todos los días. Al igual que con fotos, cuando están navegando por una red social, en un momento dado puedes decirle, bueno, la descripción de la red social no me gusta, dámela tú, ¿vale? Y puedes conseguir un poquito más de contexto. ¿Y la descripción de la pantalla? ¿Eso llega también a realizarlo? ¿O eso tienes que ir elemento a elemento? No, sí, sí, sí, también. O sea, si tienes el foco en una parte general, te lee lo que tiene realmente el foco. Si lo tienes al principio de una ventana, te lee el contexto de la ventana. De momento siguen siendo, o sea, descripciones bastante breves y concisas. Yo supongo que esto al final irán aumentando. Conforme lo tengan más pulido irán dando más contexto. Junto con otras herramientas que seguro que sacan. ¿Y te permite interactuar con las aplicaciones a través de la IA? ¿O solamente te lo describe y ya está? No, te lo describe, te lo describe. Eso yo supongo que también en algún momento debería llegar. Claro, si te dice que es un botón, que te deje interactuar con ese botón. Sí, sí, yo supongo que eso, visto además por dónde van los tiros con la inteligencia artificial, por ejemplo, de Gemini en otros sistemas operativos. De hecho, Google tiene el proyecto Mariner, que es igual que el operator de OpenAI. Y bueno, es para interactuar con esto, con el escritorio, con la pantalla del móvil o del ordenador. Es así. Con lo cual estamos a la vuelta de la esquina para que lo implementen. Pero ya no como algo del lector, ya no como algo del lector, sino del propio sistema. Yo en mi caso tengo el ecosistema de Samsung, un S24+. Y lo que utilizo es la inteligencia artificial directa de Samsung. Entonces también es otra parte que nos podemos beneficiar. Es decir, los que tenemos Samsung podemos utilizar su IA, que ya está disponible, tanto como para la descripción de textos, notas, esa transcripción de audio a texto. También tenemos la opción de las llamadas. Lo típico que aparece en muchos vídeos o información de poder hacer una traducción simultánea a otro idioma. Bueno, al final son cosas que van saliendo. ¿En tiempo real? Sí, en tiempo real. Es decir, a ti te llama un japonés hablando en japonés y tú lo entiendes en castellano perfectamente. Sí. Muestra una información, tanto a él como a mí, de que se va a hacer ese cambio de idioma y ya está. A ver, japonés es un poco complicado, pero sí que hay algún otro idioma que funciona mejor. Yo lo he probado con francés y alguna cosa se traga, ¿no? Pero bueno, si te puedes sacar de un apuro, ¿no? Argentino, chileno, colombiano, perfecto. Bueno, está muy interesante, sí que es verdad. Esto es, bueno, aparte del lector, ¿no? Es toda la inteligencia artificial que lleva el sistema operativo de Samsung. Eso es. El de Samsung lo hace solo en dispositivos Samsung, ¿no? ¿El de Android lo hace en todos los dispositivos Android o solamente en Pixel y similares? A ver, los Pixel, al llegarle antes distintas funciones de lo que es la inteligencia artificial, entonces el lector se aprovecha antes de todas esas mejoras. Pero, por ejemplo, lo de la llamada, Google lo tiene, pero claro, esa inteligencia artificial de los Pixel en algún momento llegarán a los otros, porque claro, los Pixel te lo venden también por eso. Cosas exclusivas. Claro. Siempre al final, el valor añadido que te puede dar el comprarte un terminal de esos, tipo estoy hablando el ecosistema Samsung o Pixel o demás, es que te pueden dar esas funciones que ellos tienen integrados. Es decir, sí que van a sacar ciertas cosas para otros terminales. Hablo de Xiaomi, Poco, cualquiera, ¿no? Pero sí que es cierto que tienen que tener ese valor añadido para diferenciarse del resto. Es decir, la inteligencia artificial de Samsung va a estar siempre en Samsung y los Pixel van a tener otras opciones que van a ser solamente de ellos. En este caso, lo que comentaba Héctor. Justamente hablamos de dos marcas que últimamente, en los últimos tiempos, en cuanto a accesibilidad están trabajando bastante de la mano. Pixel y Samsung, ¿verdad? Google está muy encima. De hecho, las gafas que van a sacar nuevas, creo que era una colaboración de Google y de Samsung. Sí. En principio, sí. El proyecto Astra, que es el que van a llevar a cabo, lo va a asumir Samsung y está Google detrás, claro. Entonces veremos a ver en qué acaba. Sí, de hecho, bueno, el que tal va que esté integrado en el sistema, es gracias a la colaboración desastrosa de Google con Samsung. Tengo mi opinión sobre el Talbac de Samsung. Y ahí está. De hecho, se llama Talbac. Antes se llamaba Voivista, ¿era? Sí, creo que era Voivista. Voivista, sí, creo que era. Sí. Entonces, bueno, ahí está el Talbac. Pero, a ver, ya que lo has dicho, acláralo. ¿Por qué piensas que es desastrosa esa colaboración? Primera, porque capa la posibilidad de que el usuario pueda decir, pues quiero instalar la suite de accesibilidad de Google, porque va más avanzada, tiene otras características. Y entonces te lo capa, porque el paquete se llama de la misma manera lo que es la aplicación, ¿vale? Van con firmas, las aplicaciones en Android, y se llama de la misma manera y no te deja, no te deja instalar. Era lo que hablábamos antes de que hay que hacer varias cositas para poder quitar el Talbac de Samsung y poder instalar la suite de accesibilidad de Google. Entonces, bueno, ya eso es un principio que por lo menos a mí no me gusta o eso de que no te deja ver lo que es el Talbac más avanzado. Y, a ver, en la experiencia que tengo con el tema de Samsung, me aventuro un poco, pero creo que trabajan un poco por lotes. Es decir, ahora está muy de moda el tema de la inteligencia artificial y como que están muy centrados en eso, en sacar nuevos terminales, y la accesibilidad la dejan un poco apartada. Porque sí que he visto, y en la comunidad dentro del lector que yo tengo, que se comenta eso, que como que Talbac se ha quedado un poco rezagado, pero Google ha seguido avanzando. Por eso esas diferencias entre los dos, ¿no? El lector de Talbac que hay en Samsung instalado y el que existe en Google, que con ese proceso que decía se puede cambiar, pero de repente hay un día que te avanzan ese Talbac de Samsung, ¿no? Y te pegan una actualización con One UI 6.1 o algo así, que es el sistema operativo de Samsung, y hacen una serie de mejoras. Pero te las van sacando como de poco en poco y no llegan nunca a estar al mismo nivel en accesibilidad uno y otro, que sería lo más lógico, ¿no? Tener esa actualización de accesibilidad de Google en Samsung a la vez. Entonces es como que van un poquito rezagados y lo van sacando por lotes, por así decirlo. Entonces, pues bueno, creo que de cara a futuro, cuando baje un poco el boom de esta inteligencia artificial, que imagino que baje un poquito, sí que puedan acelerar los procesos de tanto accesibilidad como del resto de aplicaciones. Claro, es un poco lo que comentábamos, ¿no? Que esta fragmentación o esta posibilidad, para bien o para mal, de que cada uno pueda personalizarlo, pues puede dar lugar, como ha dado, que alguien como Samsung, pues hace su propio desarrollo, coge el Talbac, en este caso, en un momento dado, y lo bifurca, y a partir de ese momento, pues hace sus propias funciones, sus propias características, sus propias peculiaridades. Luego, por otro lado, Talbac puede ir avanzando en su desarrollo y al final tienes dos muy parecidos, porque empezaron en un punto común, pero se han ramificado y cada uno puede tener sus cosas buenas o sus cosas malas, ¿no? Para bien o para mal. Sí, y luego, aparte de esto, también existe lo que comentaba, un valor añadido en el tema de... Yo hablo de Samsung, que es lo que conozco, porque están sacando un ecosistema bastante potente en cuanto a dispositivos de uso doméstico. Existen lavavajillas, existen frigoríficos, existen televisores. Emiliano comentaba hace poquito que le escuchaba hablando de unos altavoces también inalámbricos con una barra de sonido, ¿no? Entonces, todo esto se integra y sí que es cierto, yo me he dado cuenta, yo tengo, de hecho, varios dispositivos en casa, sí, que la accesibilidad para esto y para su manejo es muy amplia, es decir, está casi todo etiquetado, se puede utilizar más o menos bien, incluso la televisión que tengo la puedo apagar y encender desde el propio móvil, pero que se podrá bajar esta aplicación, ¿no? Imagino en otros sistemas operativos, pero me ha llamado la atención que el ecosistema de Samsung está mejorando mucho y se está ampliando mucho. Hay una implicación y un compromiso de la propia Samsung, de hecho los hemos visto en algunas ferias de tifo de tecnología con Stan montado, y luego cuando han participado en ferias genéricas como puede ser el CES Las Vegas y demás, siempre han hecho algún tipo de noticia destacando todos los avances que han hecho en la accesibilidad, que está muy bien. Supongo que será el ecosistema SmartSync se llama, ¿no? Sí, ese es. Y como acabas de comentar hace poco, que esto da la posibilidad de poder instalar otros lectores de pantalla, ¿no? Tú sueles utilizar otro habitualmente. Sí, yo tengo actualmente, yo de hecho utilizo el lector Jesua, el lector chino, y bueno, yo no utilizo Tolva, Tolva lo utilizo como el lector de pantalla de respaldo cuando falla alguna vez o necesito reiniciar el terminal y activar cualquier cosa, pues a lo mejor tengo que usarlo, pero es que apenas lo he utilizado, en realidad. Pues cuéntanos qué características tiene, por qué es mejor, por qué es peor. Bueno, a ver, esto bajo mi opinión Jesua salió en 2019, hizo un cambio bastante grande en las últimas versiones, y es un lector que es extremadamente rápido. Yo me he dado cuenta que es muy, muy rápido, muy personalizable, la curva de aprendizaje sí que es cierto que es moderada, no es simplemente como puede ser Tolva, de habilitarlo y ya está, y empiezas a funcionar, o como en VoiceOver, pero una vez que lo tienes instalado, la cantidad de configuraciones que te permite hacer es muy, muy extensa. Tiene una peculiaridad que es que dentro del propio lector existe la posibilidad de programar. Entonces puedes programar tus complementos, utiliza un lenguaje de programación basado en Roblox que se llama LuaScript y permite hacer desde juegos hasta complementos que permiten hacer atajos, editores de texto, existen varias personas, hay un chico en México que se llama Sergio que ha realizado incluso una suite para poder editar audio, a nivel de poder editar, quitar tiempos de silencio, poner diferentes efectos de sonido, es muy, muy abierto, es muy potente, muy completo, pero es chino. Eso es otra cosa que se tiene también mucho miedo, también con el tema de la censura y todo esto. Es algo que se puede debatir también. ¿Tú piensas lo mismo Héctor? A mí me da igual si es chino o francés o... es la transparencia, es lo que a mí me ha echado para atrás. Yo lo he utilizado en un entorno controlado y en una red cerrada y he visto cosas que no me gustan, en teléfonos roteados, lo del roteo es como volver que tu usuario seas super usuario, que tengas acceso a todo lo que es el sistema operativo, cosa que un teléfono normal no lo tiene. He visto permisos que por lo menos a mí no me han gustado y me han llamado bastante la atención para que eran necesarios. Y eso es lo que me echa para atrás. Ya digo, no la procedencia, sino la poca transparencia. Vale, ves que faltan garantías y no tiene la suficiente seguridad o por lo menos la que tú exiges. Ahora, últimamente sí que hay compañeros, normalmente de Latinoamérica, que llevan mucho tiempo utilizando este lector de pantalla y sí que manifiestan que ellos comparten sus cuentas bancarias, conservan su capital, nunca han visto ningún tipo de eso, conservan su virginidad, no les ha pasado absolutamente nada y de hecho, últimamente hemos visto en algunos grupos especializados a gente bueno, defenderlo y decir que probablemente esa desconfianza no está fundada del todo. No sé cómo lo verás. Es que, si me permitís, el problema no es es que no está en eso, está en el intermediario. Yo, seguramente el señor Lee sea un genio, porque para hacer lo que ha hecho, simplemente para mí es una genialidad. O sea, el producto es muy bueno. El problema está en todo lo que hay intermediario desde China hasta tu terminal. Yo estoy en distintos grupos, yo veo cómo se pasan gisos pirateados y eso conlleva un peligro terrorífico. Y sí, es verdad, no ha pasado nada, pero a uno se le inventa el ordenador y no pasa hasta que se despierta el bicho. Entonces, a mí me da esa desconfianza. Es todo lo que hay intermediario. Yo ya digo, yo no tengo nada contra el señor Lee y para mí es un genio. Correcto. ¿Y tú lo ves igual, David? Bueno, yo sí que sé que Jesúa hace tiempo estuvo en la Play Store y fue mucho controversia con este tema. La sacaron y se comentó que fue porque se permite programar dentro del propio lector, entonces se podía hacer un mal uso de esos complementos, porque esos complementos se pueden mandar y ejecutar de manera cifrada, donde no ves el código o de manera que sí que ves el código. Entonces, gisos tiene una parte gratuita, donde utilizas el lector y tienes ciertas capacidades y luego existe una versión de pago que se paga al tal Lee, que debe de ser del grupo QQ en China. Sí que es cierto lo que comenta Héctor. Hay que hacer como una apuesta, es decir, confiar en él y confiar en este lector. Yo puedo decir bajo mi experiencia que no he tenido ningún problema, pero yo no utilizo tampoco contraseñas dentro del propio lector. Utilizo sistemas biométricos en caso de tener que utilizarlo e intento tener doble factor en todo y demás. Siempre te queda un poco la duda, pero sí que es cierto que la velocidad o las capacidades o el uso que le doy al lector, puedo decir que estoy a años luz de cuando yo he utilizado Tallback. He visto un cambio brutal. Y lo que comentábamos de Latinoamérica, sí que es cierto que allí se utilizan terminales más bien de gama baja, Samsung A14 sobre todo. Entonces, la disposición de terminales más de gama alta, en este caso como iPhone, para poder utilizar VoiceOver, no es tan fácil. Una persona de Venezuela, Colombia, no tienen esa capacidad. A lo mejor unos sí, otros no, pero la inmensa mayoría utilizan lectores de pantalla, o Jesua o Tallback. Y es lo que me comentaban a mí. Por eso existe el JESUA Oficial de Latinoamérica o hay países emergentes que utilizan este lector como principal. ¿Por qué los terminales de gama baja? Porque en esos terminales de gama baja, que lógicamente tienen menos recursos, va más fluido, supongo lo que es Jesua que Tallback. Mucho más fluido. Mucho más. Y a mí me llamaba la atención, porque no lo entendía. Un sistema embebido como puede ser Tallback debería ir rápido y ellos comentan. Es que es extraño. No lo entiendo muy bien, pero sí que lo comentan. Y además lo he preguntado varias veces porque me chocaba mucho. Me comentaban que cambiaba totalmente. Héctor, ¿tú también has escuchado eso? Que la gente una de las cuestiones, comparando a ambos lectores, es la fluidez de uno sobre otro en terminales de gama media-baja. Sí. Por eso ha tenido el boom que ha tenido por aquellos lares, por Latinoamérica, por ejemplo. ¿Tú dónde te animas? Yo lo tengo instalado. Pero no lo uso. Lo tengo instalado para seguir su desarrollo. Ya digo, yo es que contra el lector no tengo nada. El problema es todo lo intermediario y todo lo que conlleva. Hago un paréntesis. Cuando uno instala un lector de pantalla, realmente está dándole acceso absolutamente a toda nuestra información en cuanto a lo que está leyendo. Entonces, ya digo, maliciosamente puede ser un peligro. Pero no por el señor Lee. O sea, por todo lo que hay entre medio. Pero ya digo, yo lo poco que lo he usado, lo tengo instalado, sí va más rápido. O se maneja de otra manera. Porque son sensaciones al final. Yo tengo iPhone y cuando cambio a Android me parece mucho más duro aunque me ponga el gisio. No sé. Son las vibraciones del teléfono, las sensaciones con el teléfono. Este punto es importante lo que has comentado. Un lector de pantalla, para poder utilizarlo, necesita un control casi absoluto del terminal. Lo típico es cuando nos instalamos una aplicación de linterna y nos pide datos para acceder a nuestra agenda de contactos, pues es un poco extraño. Y muchas veces cuando nos piden permiso para acceder a los contactos, para mandar notificaciones, muchas veces decimos que sí a todo sin leerlo. Y alguna vez ha pasado que alguna aplicación, incluso la Play Store, no sé qué tal, y que te pide permiso para las funciones de accesibilidad y alguno le ha dicho que sí. Y con eso puedes saber todo lo que tecleamos, todas las páginas que visitamos, todas nuestras contraseñas, puede llegar a conocer toda nuestra información de nosotros. Y se puede dar mal uso a este tipo de privilegios de poder acceder a toda la información del móvil en este caso. Si me permites, es que David ha dado la clave. Al final es un poco el conocimiento y sentido común. David, por ejemplo, ha dicho no solo poner contraseñas, solo usar parámetros biométricos. Entonces, es luego también un poquito de sentido común de cada uno. Yo siempre pongo el mismo ejemplo. Yo no voy por la calle gritando mi PIN de mi tarjeta. Entonces, bueno, es eso. También si una cosa se usa con sentido común, pues evitas también muchos problemas. Al final, es que tienes que poner también en una balanza. Yo creo que la enseñanza que te puede dar este sistema a nivel de... Es lo que comentábamos antes, con lector. Te tiene que gustar cacharrear también, porque no es sencillo. Eso es un sistema o un lector que es complicado. Ya he dicho que la curva de aprendizaje es grande, pero una vez que la tienes, yo sí que he visto cosas que dices qué capacidad de hacer. Por ejemplo, tenemos gestos por aplicación. Es decir, gestos que en el Google Chrome me van a funcionar de una manera y si entro en no sé qué otra aplicación, puedo decir... Chat, GPT, Whatsapp, van a ser otra cosa. De hecho, yo, por ejemplo, que he programado dentro del lector, tengo asignado un gesto dentro de Whatsapp que si doy triple clic con tres dedos, me borra el chat. Pero si ese triple clic con tres dedos en Google Chrome me abre otra ventana y me abre el periódico. Por decir, un ejemplo. Es mucha la información que tiene, se actualiza muchísimo, pero, claro, la curva de aprendizaje es grande. Mucha gente me dice, incluso tú, Ricardo, cuando lo vimos, que estuvimos hablándolo y lo pusiste así como de prueba. Es que, claro, solamente la instalación ya te lleva un rato y querer meterte y querer cacharrear. Como Héctor con la ROM. No todo el mundo que se compra un teléfono va a decir, cambio la ROM. No. Tienes que tener esas ganas y ese interés por cambiarla. Yo también he cambiado muchísima ROM y muchas veces, cuando la cambiaba y la tenía ya instalada, digo, ¿Pero quién me manda a mí meterme ahora a cambiar aquí la ROM? Pues es eso. Es así. Es un poco así. David, ¿existen recursos formativos en español para utilizar este lector de pantalla y eso? En español, no. Sí que existen recursos de grupos de WhatsApp donde hay información y dentro del propio lector existe información tanto para la parte de usuario para la instalación como para la parte de programación, en caso de que quieras programar y comenzar con ello. Pero no existe como tal en español. Existe en inglés y en un perfecto chino mandarín. En Telegram sí hay grupos. Sí, sí. En Telegram y en WhatsApp hay varios. De hecho, el propio lector Gisot tiene en su parte de ayuda diversos grupos de WhatsApp autorizados por el propio grupo QQ, ¿no? Que directamente habilita una serie de personas de los grupos para que sean como moderadores y poder tener esos grupos. ¿Grupo QQ? Sí, eso es como se llama. Grupo QQ. Lee debe de estar en de haber fundado esa empresa. El lector este es un poco yo tengo oído que es como una navaja suiza, ¿no? Que además tiene muchas funciones adicionales, no propias de un lector de pantallas, sino funciones adicionales interesantes. Sí, tiene un montón de menús. Tiene editores de textos dentro. Te permite, bueno, imagino que como vosotros, ¿no? Movernos por palabras, por demás y todo esto, pero te permite entrar en ediciones de texto. No como un editor de texto que le tiene incluido, sino en ediciones de texto que es moverte por palabras, pero moverte a la primera palabra, borrar la primera palabra, es decir, haciendo diferentes movimientos y diferentes gestos. Es muy muy amplio que algún día si queréis, pues bueno, se puede hacer algún tipo de demostración o lo que sea, pero yo invito a la gente a lo que hace Ed, pero en realidad no tienes por qué cambiar tu voiceover. Lo puedes tener como principal y si tienes ganas de cacharrear en un entorno controlado, puedes instalarlo, lo puedes probar, puedes estar unos días con ello y ya está. Al final lo pruebas y ves cómo es. Cuando dices desinstalar tu voiceover es tollback, ¿no? Tollback, bueno, no necesitas desinstalarlo. Yo lo tengo, si te refieres a desinstalar tollback puedes tener los dos. No a la vez, pero claro, está por encima de JSO, encima de tollback. En mi caso si fallase el JSO, directamente podría poner tollback de nuevo. Vamos, lo tiene en el sistema operativo puesto. ¿Porque tú cómo invocas o cómo llamas a cada uno? Yo tollback lo tengo puesto con la tecla de volumen más y volumen menos. Le expulso a la vez y se activa. Y el lector JSO en este caso arranca por defecto o si no quiero que arranque por defecto lo puedo poner con icono, con normal. Una diferencia es que cuando sacas el teléfono de la caja también, ¿no? Pues el tollback me imagino que sí que podrás arrancarlo, ¿no? Creo que sí. No estoy ahora seguro de eso. Sí, no. Eso depende también de lo que hablábamos antes, la personalización de Android y depende mucho de el fabricante, el modelo, ¿vale? Porque yo me he encontrado teléfonos que no lo pude desarrancar trayendo el tollback y trayendo las voces de Google por defecto. Esto ya leí yo en un grupo que aún funcionaba lo de poner los dos dedos y aún se cargaba el tollback en algunos terminales. Bueno, yo os puedo decir que se arrancaba haciendo un cuadrado y no había Dios que arrancara el tollback. Es verdad. El otro sí que como es una aplicación pues hay que instalarla, hay que terminar de iniciar el sistema y poder instalar esa aplicación. Eso es. Y todo el mundo que quiera probarlo, sí que es ampliamente recomendable que se descargue claro, la oficial, ¿no? Lo que decía esto, sí que existen craqueadas por ahí, ¿no? Que no pagan licencia, pero eso sí que puede ser, pues al igual que utilizar los complementos que estén cifrados. Yo no ejecuto ningún tipo de complemento que esté cifrado sin que pueda leer el código. Al final necesitas saber qué estás ejecutando en tu teléfono. Muy bien, creo que no hemos hablado del precio, ¿no? ¿Cuánto vale la versión Pro? Son 18 euros al año y luego, bueno, pues tiene la típica promoción de si son 2 o 3 años, ¿no? Pero al año son 18. ¿Y se puede usar de forma gratuita con limitaciones o algo? Sí, tiene una serie de limitaciones, por ejemplo, los gestos por aplicación, creo recordar que no funcionan, pero funciona te diría un 75%, una cosa así, que se te quedan ciertas cosas, ¿no? Pero el resto también, pues también tiene el tema de temas de sonido, relojes diferentes, cronómetros, todo esto, ¿no? Entonces, esas cosas que en la versión Pro sí que lo puedes utilizar y en la otra no, igual que la síntesis de voz, tiene dos síntesis de voz, puedes utilizar la principal o la secundaria, pues en la versión de pago tienes las dos y en la versión gratuita solo tienes una. ¿A ti de este lector de pantalla qué es lo que más te gusta, David? La personalización, las capacidades que tiene y la velocidad. La velocidad me parece impresionante, la capacidad que tiene de poder hacer ciertas cosas que no he logrado hacer con TalkBack ni con otro que no lo sé, con VoiceOver si se puede hacer, porque no he indagado mucho, a ver si me hago con un iPhone dentro de poquito y empiezo a probar, pero el tener estos tipos de atajos, el poder hacer gestos diseñados y programados para ciertas cosas, el tener complementos programados, poder hacer, yo que sé, que con cuatro dedos me abra ChatGPT y me invoque un GPT personalizado, esas cosas, esa velocidad que puedo ganar en mi día a día, en procesos que utilizo continuamente, creo que me decanta por seguir con él de momento. Y Héctor, en tu caso, en un Android limpio, tipo Pixel o con una ROM sin mucha personalización de marca ni nada de esto, ¿con la última versión que hayas probado qué es lo que te aporta TalkBack? A mí estabilidad, yo he visto en los principios y a día de hoy la estabilidad, no noto que se cuelgue, no noto que se reinicie, cosa que antes sí pasaba, en aplicaciones muy pesadas, hablando Chrome, por ejemplo, que es de la misma Google, y va muy mal, en la última versión por lo menos a mí me va muy bien, entonces bueno, sobre todo estabilidad y confianza en que voy a recibir actualizaciones sin preocupación, he hecho a mitad de noche, a veces yo tengo las actualizaciones automáticas, lo oigo como se reinicia y digo, me ha llegado una actualización, entonces bueno, eso es lo que me aporta a mí. Muy bien, pues os voy a preguntar a los dos en cuanto a las aplicaciones que utilizáis, básicamente lo que serían redes sociales, gestor de correos o navegadores, que utilizáis con cada uno, uno con Tolva y otro con Gisoa. Yo utilizo de navegador, utilizo Google Chrome, porque al final lo tengo sincronizado con el ordenador, para gestor de correo utilizo la suite Gmail, que va muy bien, y luego, no sé, alguna otra aplicación que utilizo en mi día a día, utilizo Google Keep, aunque estoy empezando a utilizar más Samsung Notes, por el tema de la inteligencia artificial de Samsung, que te puede transcribir esas entradas de audio a texto, por ejemplo. Utilizo también el tema de Lookup, que es de Google, y luego, tipo ChatGPT de OpenIA y demás, pues bueno, como imagino que todo el mundo. Luego sí que utilizo lo que hablábamos, de SmartThings, para la gestión de diferentes... Domótica, ¿no? Todos los tipos que pueda tener por casa de domótica, eso es. ¿Y redes sociales? ¿Utilizas alguna? Si no, sin discreción, vamos. ¿Redes sociales? No, no utilizo ninguna. Utilizaba X, Twitter, antigua, pero... WhatsApp sí, ¿no? WhatsApp sí, y lo que digo, tengo diferentes gestos dentro del propio WhatsApp, para poder hacer diferentes atajos. ¿Y tú, Héctor? A ver, yo uso más o menos las que David, y bueno, en redes sociales uso Trusky, para Mastodon. Y bueno, uso PlusMessenger, en vez de la de Telegram oficial, pues uso PlusMessenger, que es un mod de Telegram. Y bueno, más o menos son las que uso. No es mi teléfono principal, pero vamos, los momentos que cacharreo con él, son las que uso. Bueno, pues ya que estamos hablando de Android y lectores de pantalla, vamos a hablar de una aplicación que habéis nombrado, y que, nada, aunque ahora ya sé que Sane AI de Microsoft se puede instalar en Android, y Be My Eyes también se puede instalar en Android, pero habéis hablado de Lookout, ¿no? Bueno, ¿qué tal va esta aplicación? ¿Qué es lo que hace? ¿Y qué tal se comporta con el lector? Pues va muy bien, pero sí que es cierto que desespera un poco. A mí me desespera cuando yo casi coge un bote de especias, y empieza a decirte Tomillo, o Romero, y empieza a leerte todos los ingredientes, no lo entiende bien. Entonces, últimamente sí que es cierto que estoy utilizando más ChatGPT, y directamente que me describa la foto y fuera. Yo utilizo, de hecho, también etiquetas NFC, y las tengo programadas, o las de NaviLens, pero yo utilizo de momento NFC, y con esas plantillas, esas pegatinas que tengo programadas, directamente lo miro, ¿no? Tengo etiquetadas varias cosas por casa, porque me desespera un poco, pero eso no creo que sea que la aplicación va mal, sino que es la aplicación como es, no tiene que ver con el lector de pantalla. En cuanto al lector de pantalla, funciona bien. Funciona rápido y va bien. Sí, que con la de Microsoft pasa más o menos lo mismo. O sea, si lo pones en que te vaya leyendo conforme va recogiendo imagen, pues a veces te vuelves un poquito loco. Entonces, me pasa lo que David o tiro de ChatGPT o directamente de MyEyes, y me describa la imagen, porque al final es más rápido. Y ahí, bueno, según como hemos ido hablando y comentando, hay entornos más abiertos y entornos más cerrados. Un entorno más cerrado como puede ser Apple, en el que un lector de pantalla solamente pueden hacerlo ellos, no puede hacerlo nadie de fuera, porque hay que acceder a un nivel muy bajo del sistema operativo, y Apple, en este caso, no se lo permite a nadie. Como hemos ido comentando, Android sí. Android es un entorno mucho más abierto, en el que cualquiera, como acabamos de ver, pues cualquiera puede hacer un lector de pantalla, ¿no? ¿Por qué no hay más lectores de pantalla? ¿Por qué no hay un lector de pantalla Open Source? ¿Por qué no hay alguna otra alternativa? Se intentó. Eso, Héctor, que programa, ¿no? Podías tirar a hacerte un lector, ¿no? No, no, para teléfonos todavía no. En su momento se intentó, hubo a los principios y funcionaba muy bien un lector que no me acuerdo del nombre, perdón, que era coreano, surcoreano, y funcionaba muy bien, y era de código abierto, y la verdad que iba muy bien. Ahora en la Play Store también tenemos el Prudence, y también tiene su legión de aficionados que dicen, no lo he probado, yo lo probé en los comienzos y no me gustó, pero dicen que ha mejorado en las últimas versiones bastante, es un tipo talback, es un híbrido, porque también tiene funciones como Gisio, y está en la Play Store, pero de código abierto, yo que sepa hasta hoy, no hay nada, no, me parece que no hay pistas de que haya algo, o que yo sepa. Yo no conozco, sé que había también antiguo un proyecto como de Motorola, que estuvieron también indagando, estuve buscando información cuando, ya digo, empecé con Tallback y demás, pero que estaba un poco abandonado, y bueno, siguieron con el tema de Tallback, y en este caso con Gisio, que sí que es cierto que te sacan actualizaciones cada 2x3, te hablo de que cada 2 días hay una nueva beta, y versión estable cada semana, o semana y media, para poder actualizar. Entonces creo que es el proyecto que está más actualizado, y luego Tallback también. Para una persona que decide acercarse a Android, y os ha escuchado hablar de los dos lectores, sería recomendable utilizar uno antes que otro, por la facilidad en cuanto a la curva de aprendizaje, para poder utilizarlo lo más rápidamente posible, aunque luego acometieran otro, o daría igual. ¿Vas a tener que utilizar Tallback sí o sí? Porque vas a tener que descargar la versión de Giso, ¿no? O sea que, quieras o no, vas a tener que tener unas nociones de Tallback, para poder instalarla, no sé que alguien te lo haga, pero si quieres ser autónomo tendrás que utilizar Tallback para poder descargarlo, instalarlo, dar los permisos que hablaba antes esto también, y demás. Y luego sí que yo de hecho no conozco ciertos menús de Tallback, o sea no sé cómo se copia, cómo se pega, creo que es con un menú que sale también, pero yo directamente tiré a este otro, estuve probando pues eso, diferentes cosas, cómo copio, cómo pego, luego lo vi, luego ya se me ha olvidado, y sé que algunas cosas han cambiado, pero en la curva de aprendizaje ya digo, como decía antes, es moderada, pero tienes que empezar con Tallback para poder ser autónomo e instalar Giso en este caso. Hay gente que se crea en Tallback como equipo principal, conozco algún chico, un chico de Alicante creo que es el que lo sigue utilizando, y él está cómodo con Tallback, trabaja con Tallback, y le gusta, y ya está, y funciona con él, y se ha adecuado a él. Al final es que cada uno busque lo que mejor le vaya y lo que más se adecue a lo que necesita. Yo sí les recomiendo de que tengan las nociones básicas de Tallback, que en un momento dado siempre vamos a tener que recurrir a Tallback, que es lo que hay detrás, y luego lo que uno tenga ganas. ¿Eso quieres decir que lo que uno tenga ganas, que si ya conoce Tallback y quiere seguir probando y tener por lo menos también otro lector ahí? Pero esto es igual que con cualquier aplicación, hoy en día tenemos para hacer una acción mil aplicaciones, entonces, por poner un ejemplo rápido un navegador web uno se puede quedar con Firefox porque diga que le funciona mejor, otro con Chrome, entonces, bueno, es luego experimentar. Lógicamente viene en Chrome instalado ya en la mayoría de los Android, entonces, bueno, no empieza con Chrome, pero luego si tiene ganas de investigar y ver si se adecua más a su manera de manejar el teléfono, pues oye, ¿por qué no Firefox o de los miles que hay? En Tallback sí que encontraríamos canales formativos en español con más facilidad. Sí, bueno, la documentación oficial de Google y bueno, muchos. Sí, yo creo que sí. Lo que yo sí que animaría un poco es que no se tengase miedo, al igual que me voy al caso de los audiolibros al que le gusta Audible o utiliza Audible le va bien, le funciona, le gusta, pero que también conozca otras plataformas, en este caso Storytel o yo que sé cualquier otra, pues lo mismo pasa con Tallback, ¿no? Yo, por ejemplo, sí estoy con este sistema, pero me apetece probar VoiceOver. Creo que hay que conocer un poco todo y luego ya, sí, te decides si puedes ver. Fíjate, Héctor tiene iPhone, pero se ha instalado una ROM en un Android. Entonces, bueno, el tema de cacharrear más menos, pero luego conocer un poco todo lo que hay, ¿no? En cuanto a aplicaciones dentro de Google, dentro de, sí que hay muchas que están en Apple, ¿no? Pero bueno, hay alguna que seguramente esté también en Tallback y solo estén ahí, ¿no? Igual que vosotros tenéis en iPhone seguramente como las notas del lector, creo que eran, pues esa me parece muy interesante, ¿no? Programada por Jonathan. Bueno, asistente del ponente, ¿no? Asistente del ponente, sí, Jonathan Chacón, ¿puede ser? Sí, ese es. Que debe estar muy bien también esa aplicación. Bueno, pues un poco conocer los sistemas que hay. Me parece muy interesante que nos deis esta ventana para poder hablar en este caso, pues, de a mí, de JSON y Tallback, ¿no? Junto con Héctor. A mí particularmente me ha venido muy bien, porque yo sí que de verdad que únicamente tengo en terminal Android para hacer pruebas, pero soy un paquete utilizando Tallback. Yo creo que es eso a caballo y rey. Y yo os iba a preguntar algo, es decir, yo una de las dificultades mayores que he tenido siempre con Tallback, porque es el que utilizo lógicamente en modo prueba, ¿no? Es la edición, ¿no? De texto, el poder borrar, el poder intercalar, el poder moverme, que por ejemplo con VoiceOver lo hago con una facilidad pasmosa, entre el rotor, los dedos, ¿sabes? Con una sola mano lo hago fenomenal y en cambio con Tallback encuentro mucha dificultad en la edición de texto. Esto sí que me gustaría que me lo comentarais en ambos lectores, es igual el tema de edición, eso ha mejorado porque bueno, yo tengo ya un terminal antiguo, ¿no? Es un Xiaomi Redmi Note 8 Pro pero bueno, Tallback se actualiza. Sí, bueno, en Tallback ahora tenemos los gestos, o sea, dedo para arriba, dedo para abajo, los desplazamientos que se parecen algo más a a lo que es VoiceOver y luego es que no sé, yo a mí son percepciones, ¿vale? Yo ahora, por ejemplo, cuando cojo el Android viniendo de mi teléfono principal que es iPhone, en el cual ya llevo unos años, pues me pasa lo que a ti, o sea, encuentro más difíciles algunas cosas pero porque no las practico diariamente, no es una práctica diaria, ¿vale? Yo veo a mi mujer, por ejemplo, con Tallback y digo, joder, perdón, me quedo alucinado y digo, yo antes tenía esa facilidad pero ahora cuando me cojo el teléfono Android, no tengo esa facilidad y no es que no, soy yo, ¿vale? No creo que sea el lector, ¿vale? Porque luego ves a gente que dices, yo por ejemplo, yo sé escribir en Braille en una máquina Perkin pero me pones el teclado Braille en cualquiera de los sistemas operativos y sinceramente es que no consigo ni escribirla y yo veo a gente que se pone ticutucutu y dices, bueno, a ellos les va bien, o sea, creo que también es un poquito la persona. ¿Tú también lo ves así, David? Yo creo que sí, coincido con Héctor, que al final es adaptarte a lo que necesites y lo que utilices y sobre todo en nuestro mundo lo hace mucho el trabajar con ello diariamente y pero sí que también es cierto que la gestión yo hablo del lector que tengo es muy potente porque existen varios modos existe un modo de texto y luego existe otra opción que es dividir y editar texto y te permite por párrafos, por líneas, por caracteres, por palabras y dentro de ese modo te permite moverte dentro con diferentes gestos solamente para texto, es decir, la gestión que se hace de texto es muy potente, más que Tollback, por lo menos cuando yo lo intenté pero sí que también es cierto que la gente que utiliza Tollback seguramente en esa edición de texto, por esa maña entre comillas que tengan de esa utilización, van a poder hacerlo de manera muy rápida al final es como todo, yo creo que al final el acostumbrarte a poder hacerlo de una manera va a hacer que lo puedas hacer sin problemas y muy rápido como digo. Lo bueno es que haya alternativas que luego depende de cada usuario el uso que le va a dar, si a lo mejor es un usuario que solo usa el WhatsApp y hacer y recibir llamadas y a lo mejor algún correo esporádico pues para qué le vamos a complicar la vida depende de cada uno. Claro, es el tema que tú enciendes el iPhone, pones VoiceOver y listo, y aquí enciendes, pones Tollback y también va bien es como iPhone pero si en el caso de Jesua pues fíjate lo que tienes que hacer, bajártelo instalarlo, programarlo, configurarlo tienes que hacer bastantes cosas Era lo que hablábamos, es el uso que se hace de la herramienta diario, yo cuando cojo mi teléfono Android cuantas veces me pongo a subir en una lista con tres dedos y digo, esto no funciona, qué mal va no, es que vengo de otro sistema que se hace así y claro es la costumbre ya que tenemos. Estos automatizados y entonces lógicamente Sí, sí, sí, sí, se hacen automáticamente, entonces no nos damos cuenta, pero es la práctica al final lo que nos da el buen uso. Y a mí me pasaba parecido, yo he cogido alguna vez de algún amigo el iPhone, he puesto la accesibilidad, he visto el rotor y digo, este rotor es horrible me paso no se me da bien no entiendo cómo funciona me costaba mucho, entonces yo mi rotor, si es que el mío es muy diferente y es mucho más directo Pero el rotor se ejecute igual haciendo así como con un compás un giro, como si le dieras a un potenciómetro No, en el Jason es diferente, tienes que bajar el dedo y subirlo y así cambias el rotor, o a la izquierda y a la derecha lo puedes configurar de dos maneras De cuatro, arriba y abajo, o abajo y arriba como tú quieras. Se me llamó mucho la atención porque este gesto que parece tan sencillo, porque es como darle volumen a una radio antigua, un potenciómetro pero sobre la pantalla, pues hay personas que tienen dificultad para hacerlo con lo cual, y creo que no hay alternativa estamos hablando ya de VoiceOver y de iPhone con lo cual lo que me estás comentando que tiene Gisua es más interesante Sí, yo me volvía loco, de hecho me pasaba, no me funcionaba a lo mejor son mis dedos que están mal No, yo al principio me movía yo y no se movía el teléfono o sea, era yo el que hacía el círculo es un gesto odioso hasta que te acostumbras hasta que te acostumbras es lo que veníamos hablando Luego yo sé que me he dado cuenta lo que comentaba un día que hablábamos Ricardo y yo que yo le decía a Ricardo, quiero hacer algo para conocer el lector que no buscas al final que la gente lo instale, porque a mí me da exactamente igual pero sí, porque lo conozcan igual que hice todo el tema de la RON y lo planteé en algún grupo de WhatsApp, de oye ¿interesa que haga algún tipo de curso manual? o lo que sea y pasó una bola de estas del oeste como aquí nadie dice nada como que no hubo interés y es porque lo que hablábamos yo que sé, un 95% puedo decir que utilizan iPhone en España que es el 90-95 en Latinoamérica es al revés se utiliza Talbac o Jason Sí, pero esto fue sintomático bueno, en honor a la verdad lo único que te contesté que estaba interesado fue yo es que fue real y de hecho recibí mi formación, con lo cual muchas gracias Tuve clases particulares Sí, sí, tuve clases particulares, pero sí que es cierto que era un ofrecimiento altruista que esto no es normal que alguien te diga, bueno ¿estáis interesados en que yo preparara algo para hacer una introducción a este lector que es tan desconocido? y nada, silencio grupo de 170-180 personas ojo y tanto de aquí como de allí me refiero de este hemisferio como del otro Tengo que decir que en España o en Android primero lo que hablábamos de tema de que por ejemplo en Latinoamérica pues bueno los terminales son más caros entonces bueno, Android sí que te da esa gama media-baja con buenos rendimientos entonces bueno, se han tirado allí por eso Aquí también fue una poca falta de información y también que Android empezó mucho más tarde en tener un producto que realmente pudiéramos usar Sí, es cierto Sí, sí Creo que ahora mismo es lo que comentaba que quizás VoiceOver se está relentizando un poquito y Android se está acelerando y se están como igualando por lo que comentaban así en los grupos y bueno eso es bueno para nosotros igual que las inteligencias artificiales que comentábamos el otro día Ricardo y yo es bueno que esto pues haya disputa y que todo va en nuestro beneficio cuanto más luchen entre ellos se supone que mejor irán y mejor ascenderemos La competencia dicen que esto hay que beneficiar al usuario y yo estoy de acuerdo también O sea mejor para todos lo que pasa que bueno como efectivamente VoiceOver quizás empezó antes con un nivel muy alto pues mucha gente que eso puede permitir pues entró ya en el segundo y ya difícilmente va a salir porque si al final puedes hacerlo en el otro puedes hacer lo mismo de otra forma pues para qué, me lo voy a aprender y tengo que empezar a trabajar desde el principio de cero pues si ya sé hacerlo pues continúo como estaba y por diferentes motivos pues en España por ejemplo pues tendió más por iPhone, en Estados Unidos, en otros sitios ya mejor en Latinoamérica pues por quizás motivos económicos o lo que sea pues inicialmente se empezó más con Android y ya pues se han quedado ahí Con una diferencia que me hemos dicho que no íbamos a hablar de VoiceOver mucho pero sí que hay que destacar algo cuando sacaron VoiceOver para iPhone lo integraron dentro del sistema, era un elemento más y TalkBack durante un tiempo era una aplicación que se instalaba y no estaba dentro del propio sistema no sé si esto sigue ahora así o no, es que no lo recuerdo la verdad es que... TalkBack no viene integrado en el sistema, no viene en el núcleo sigue siendo una aplicación Y vosotros que sois personas con muchos conocimientos informáticos y en cuanto a accesibilidad esto es un handicap ¿verdad? porque cuando tú integras algo dentro del sistema normalmente tú armonizas todo el sistema y entre ellos el concepto de accesibilidad es uno más entre otros de los que hay dentro y ese lector o en nuestro caso otro tipo de herramientas de accesibilidad para otro tipo de discapacidades suelen ir a la par no exactamente a la par pero sí con más agilidad que cuando instalas algo desde fuera ¿no? que venga en el núcleo y eso quiere decir que ya desde un principio el sistema viene accesible eso quiere ya decir mucho hasta Android 5 realmente no podíamos decir que teníamos un lector de pantalla entonces bueno los años de desarrollo que Apple lleva sobre eso y el producto exclusivo que tiene para sus teléfonos que ya digo el decir que desde un principio viene ya integrado en sistema pues bueno esa cuenta con la accesibilidad entonces bueno Google fue a caballo Claro, tiene sus ventajas y sus inconvenientes, claro, la ventaja es que al estar integrado en el propio núcleo puede ser mucho más robusto y quién mejor que ellos van a conocer sus tripas para poder acceder a esa información a muy bajo nivel y podértela dar de múltiples formas ¿no? con voz, con braille, como sea pero el inconveniente que creo que solo ellos lo pueden hacer, nadie más si hay algo que no lo hacen bien, si lo hacen bien, fenomenal pero como hay algo que no lo hagan bien pues pues estás perdido O sea, la diferencia está en esto tan simple como un gesto ¿vale? en Android por ejemplo hasta que no tuvimos el atajo para lanzar el callback te quedabas te quedabas tirado directamente te quedabas tirado, es verdad como no tuvieras un poco de maña o conocimientos pues hasta que no llegaran unos ojos amigos es eso eso no te pasa en iPhone eso es la integración no sé Últimamente se queda más colgado VoiceOver, se baja el volumen sí que es cierto lo que ha dicho David que no están sus mejores momentos el VoiceOver en Android Pues es verdad que tú eres usuario Héctor pues tú primero lo habrás visto en la iOS 18 y el foco, terrible A mí no me pidáis luego que os dé cursos y formación cuando VoiceOver desaparezca porque ahí diré yo ahora no quiero Yo estoy de acuerdo con vosotros que tengan bebido ese VoiceOver ese sistema de accesibilidad dentro del propio teléfono cuando esté instalado pues es un plus también es cierto que antiguamente no es como ahora es lo que comentaba antes los sistemas operativos han cambiado y no creo que se haya hecho un techo de hardware pero las aplicaciones que están en los sistemas operativos que tienen los teléfonos están muy depuradas ya para ese sistema y aparte no por tener un Snapdragon generación 3 te va a ir mucho mejor que en 1, 2 creo que no se ha hecho un tope pero sí que a nivel de aplicativos en estos equipos llevamos al final un equipo que es más potente que un ordenador de sobremesa todos en nuestros bolsillos pues bueno creo que los lectores de pantalla también incluidos pues funcionan de otra manera como funcionaban antiguamente de hecho la propuesta de Samsung es un híbrido realmente sí que sacan dentro de su sistema un toolbag personalizado sí es un toolbag diferente tiene alguna funcionalidad diferente pero viene con el sistema viene con el sistema correcto hacemos un resumen un poco de todo lo que hemos ido tocando y ya vamos terminando hemos hablado pues un poco de bueno de los lectores de pantalla de los lectores en sistemas abiertos, cerrados y sobre todo nos hemos entrado en Android que es un sistema pues muy abierto que permite que haya diferentes lectores de pantalla como el que ya viene integrado bueno más o menos por defecto porque depende de las diferentes distribuciones, sabores marcas y modelos lo que hayan implementado o las partes que hayan quitado del sistema operativo original y el toolbag pues más o menos viene en todos y luego pues hay alguno como el Jiswa que pues en principio tiene mayores funciones, es más ágil se comporta mejor y es mucho más abierto, potente flexible y versátil en principio sí y hemos hablado también de cómo, con qué aplicaciones pues se puede trabajar o cuáles son las de preferencia de nuestros colaboradores y hemos hablado también de cómo se puede editar en estos lectores en comparación con voiceover y demás es decir, hemos hecho todo lo que es un recorrido además de conocer bueno como está el estado del arte de cada uno de los dos lectores en este momento que vemos que tanto implementan ya funciones de inteligencia artificial como se sincronizan o armonizan con el propio sistema operativo también con inteligencia artificial y esto es básicamente lo que hemos estado tratando y se han dado muy buenos consejos sobre todo de las personas que en este caso son conocedores de estos lectores como son David y Héctor. Eso es y que dependiendo de cada persona no hay un una varita mágica, no hay un lector que sea el que predomine sobre los demás indudablemente sino que depende de cada usuario, del uso que se le quiera dar de los conocimientos que uno tenga y de para qué lo quiere utilizar pues habrá que ver en qué circunstancia es mejor cada uno Si, el episodio nos ha salido mal, pensábamos localizar dos ultras, que uno fuera contra el otro que hubiera sangre, un combate de gladiadores y qué va, qué va dos personas muy sensatas con mucho sentido común y que básicamente lo importante han estado de acuerdo en todo con lo cual pues reafirma aún más los planteamientos Muchas gracias Héctor, muchas gracias David, esperemos volver a hablar, tener alguna tertulia por aquí con otros temas varios que controláis y sabéis de muchas cosas esperamos volver a oírnos Muy bien, hemos estado muy a gusto, lo contáis todo muy bien, con mucha tranquilidad y eso se agradece y de forma muy clara, con lo cual aprendemos muchísimo así que gracias a los dos también Muchas gracias a vosotros por invitarnos Pues recordamos a todo el mundo que se suscriba, que nos ponga algún comentario alguna estrellita 5, 4, 3, una o ninguna pero que, bueno, que comente que nos cuente lo que le ha parecido y recordamos los medios de contacto Pues sí, voy yo con el correo electrónico que es gafotas arroba cegatos punto es y el whatsapp para mensajes de texto o de audio en el más 34 644 640 792 Bueno, os agradecemos muchísimo como siempre que hayáis llegado hasta este punto del episodio y esperemos que hayáis estado tan entretenidos como nosotros Os esperamos en el próximo Así que hasta luego, adiós podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast pues se oye como el culo mi teléfono y de repente esa campana suena en toda la casa. No me preguntéis cómo lo hace, pero es el mismo altavoz. Aquí también se oye. Bueno, pues alguna vez lo he hecho. Pues mira, puesto modo avión, ¿sabes? Pero bueno... ¡Ping! Es mío, es mi teléfono.
Gafotas, cegatos y sus aparatos #12
Fecha: sábado, 22 de febrero de 2025, a las 00:00:00
En este duodécimo episodio profundizamos en la edición y tratamiento de audio accesible con REAPER, un potente software de edición multipista con un enfoque versátil y altamente accesible para usuarios con discapacidad visual.
Hablamos con nuestros invitados José Manuel Fernández Cortés (Pepe) y Gerardo Kessler (Gera), músicos expertos en producción y accesibilidad, quienes nos explican desde la historia de REAPER hasta las funcionalidades avanzadas que hacen de este software una herramienta imprescindible.
Temas destacados en este episodio:
-Historia de REAPER: Desde sus orígenes con Justin Frankel, creador de Winamp, hasta su evolución como un DAW de referencia.
-Accesibilidad en la edición de audio: Cómo OSARA, desarrollado por James T, mejora la interacción con lectores de pantalla.
-Posibilidades de edición: Desde la edición de podcasts hasta producción musical, pasando por postproducción de audio y conversión de formatos.
-Curiosidades y ventajas de REAPER: ¿Sabías que puedes modificar la velocidad y tonalidad de un archivo en segundos? ¿O que si eliminas un fragmento en una pista se sincronizan todas las demás de forma automática?
-Conoce cómo aprender REAPER: Recursos en español, grupos de WhatsApp y tutoriales para empezar desde cero.
Momentos destacados:
Gera nos sorprende con una demostración musical de la intro de Gafotas, Cegatos
y sus Aparatos, mostrando cómo REAPER permite la producción musical con
MIDI y audio real.
No te lo pierdas: descubre cómo tratar, editar o producir audio es totalmente accesible para personas ciegas.
Intervienen:
Jose manuel Fernández cortés (Pepe).
Enlaces a Sitios referenciados en el episodio:
Blog Reaper Accesible de Pepe Fernández.
Sitio de Gera Kessler con tutoriales y recursos
Apartado para principiantes en el sitio web de Gera.
Página oficial de reaper en inglés.
Grupo de Reaper original donde nació esta historia (inglés):
(Canal Reaper Accesible Oficial – YouTube.
Canal de Reaper Accesible Español oficial – YouTube.
Para ser agregado al grupo de Reaper accesible oficial en WhatsApp, enviar un mensaje con nombre completo, nacionalidad y número de teléfono, con prefijo de país, a reaperaccesible@gmail.com
Créditos:
Duración: 01:20:40
Descripción detallada del logo de Episodio 12. Reaper: edición de audio profesional para todos
La imagen es una ilustración en blanco y negro con un estilo retro-futurista que recuerda a los carteles de los años 50, pero con un toque de ciencia ficción y tecnología avanzada. Representa a un trío de músicos vestidos con elegantes trajes de esmoquin, pajaritas y camisas blancas, combinando una estética clásica con elementos de música electrónica moderna. En el centro de la imagen, un músico manipula una mesa de mezclas con una mano mientras toca un saxofón con la otra, fusionando el jazz tradicional con la producción musical digital. Sus auriculares grandes y sus gafas futuristas con visores opacos le dan una apariencia vanguardista. A la izquierda, otro músico toca un bajo eléctrico con una pose concentrada. Viste un traje a rayas y también lleva auriculares y gafas tecnológicas similares, lo que refuerza la estética futurista del grupo. A la derecha, un tercer músico, vestido de forma similar, toca una guitarra eléctrica con actitud segura y profesional. Detrás de ellos, una gran pared de altavoces domina el fondo, emitiendo ondas de sonido visualizadas mediante una cuadrícula luminosa que evoca gráficos de audio o espectrogramas digitales. En la parte superior de la imagen, el nombre "REAPER" aparece en grandes letras, sugiriendo que puede ser el nombre de la banda o del evento que representa la ilustración. El estilo de la imagen combina técnicas de ilustración vintage con un enfoque gráfico muy marcado, utilizando trazos gruesos y un fuerte contraste entre luces y sombras. La composición está cuidadosamente equilibrada, con los músicos ocupando el primer plano y los altavoces generando profundidad en el fondo. El uso del blanco y negro acentúa la sensación de un cartel clásico de jazz o rock, pero la presencia de tecnología moderna le da un aire innovador y único.
Mostrar transcripción de Episodio 12. Reaper: edición de audio profesional para todos
Transcripción de Episodio 12. Reaper: edición de audio profesional para todos
Bienvenidos al dúo décimo episodio de tu podcast favorito. ¿Qué tal estás, Ricardo? Pues mira, tendría que decirte formalmente bien, pero la verdad es que no me encuentro nada bien, llevo un tablón encima, un resfriado, que no es ni medio normal, no pienses que llevo una pinza en la nariz, que esto es que hoy estoy así, estoy mareón, estoy con la garganta picada y bueno, con muchas ganas de hacer el podcast, porque bueno, ya te dije que solo me pararía un tiro en la frente o un sable en un ojo y que bueno, que simplemente con un resfriado, que yo pensaba que este año me escapaba, pues hay que hacer el podcast y más con la temática que tenemos hoy, que nos apetece muchísimo. Pues fenomenal, yo pensaba que era una pinza en la nariz, sí, por el sonido que tienes, pero bueno, luego podemos intentar aquí aplicar algún hechizo especial, alguna cosa a la pista de audio, a ver qué tal, porque bueno, para el que no lo sepa, pues nosotros grabamos y después de grabar pues hacemos una edición posterior, pues para poder quitar los sonidos, los chirridos de la silla o cuando uno tose, carraspea, cualquier ruido que a veces puede ser molesto a la hora de escucharlo y demás, pues una edición siempre mejora muchísimo el audio, además al ser una grabación online es muy fácil que nos empiecemos a grabar y cosas así y editarlo y dejarlo limpito y peinadito, como digo yo, pues eso, mejora la calidad. Esto ahora, antes no se trataba el sonido, no era tan fácil. Efectivamente, antes no era tan sencillo y mucho menos accesible, que fuera algo doméstico, que lo pudiéramos hacer en nuestras casas, con nuestros equipos y demás, no es de siempre, ¿no? No, hombre, yo sí conozco gente ciega que ha editado pistas de grabación en radio, cortando lo que comentamos el otro día, las cintas estas de bobinas, de carrete, y empalmándolas, es decir, porque eso claro, lógicamente tenían feedback cuando las reproducían, sabían por dónde cortar y por dónde unir, pero luego ya cuando salieron los equipos también de grabación, que tenían sistemas de edición y mesas de mezcla incorporados, como eran los TASCAM o los TIC japoneses, que eran maravillosos, eran fantásticos, pues allá teníamos dificultades y cuando ya llegaron los boommeters, displays y otro tipo de indicadores y todo esto, pues la gente ciega tuvimos más dificultades todavía. Y cuando llegó el software y llegó el Cubase, el primer Putus, que se llamaba de otra manera y no me acuerdo cómo era, que era software, también veíamos a nuestra gente ya alrededor haciendo maravillas con la edición de sonido y el tratamiento ya del propio sonido y tampoco era accesible. Así que hemos tenido que hacer una travesía en el desierto bastante larga, sobre todo en lo que ha sido edición de multipistas, porque algunos software, que tú lo recordarás seguro y ahora me dirás más de uno, para editar una pista estéreo, cortar, ponerle un poco de reverb y eco y cosas de esas, o subirle el pitch y todo eso sí que teníamos, pero para hacer lo que es una edición multipista, nada, no será negado todo. Sí, efectivamente, esto ha sido un poco de travesía en el desierto. Primero el audio digital, poderlo editar en casa con ordenadores más o menos normales que no fueran super máquinas y luego el handicap de la accesibilidad, que ha sido complicado encontrar algún software que fuera accesible y mucho menos multipistas. Para una única pista tenemos el Wi-Fi o tenemos el Audacity. Bueno, Audacity también después multipista, pero la accesibilidad en muchos de ellos era un poco, en el mejor de los casos, un dolor de cabeza, como un poco. Hasta que bueno, pues parece que hemos encontrado una solución bastante digna y además desde el punto de vista de la edición de audio, en doble sentido, por un lado tenemos también la edición de audio para el Comundo de los Mortales para editar un audio como puede ser este podcast y luego también la edición de audio desde el punto de vista de los músicos, que también es un poco distinto. Sí, además la solución, vamos a decir ya el nombre, que se llama Reaper, es alucinante cuando leyendo la documentación vimos quién está detrás de este software tan maravilloso. ¿Tú lo recuerdas, Arturo? Tenemos el creador de Winamp, del famoso y clásico Winamp. Sí, Justin Frankel. Los más viejos del lugar recordaremos el Winamp como reproductor en Windows ya 3.1. Sí, señor. Realmente fue a finales de los 90 y a principios del año 2000 donde este reproductor ligero, discreto, con cantidad de atajos para manejarlo, ocupaba todos los Windows y bueno, prácticamente hasta que no se lo vendieron a All, lo estuvimos utilizando todo el mundo como reproductor de preferencia. Pues este señor, concretamente en 2004 y para atender sus necesidades personales, inicia este proyecto desde una empresa que se llama Coco y empieza lo que es Reaper, pero empieza, vamos, con los primeros mimbres, no es lo que es ahora que ahora nos lo contarán. Es decir, es una aplicación muy sencilla, no le dieron ningún tipo de bombo ni difusión, desde el primer momento el planteamiento ha sido muy claro, muy frontal, muy en sintonía con las necesidades y preferencias de la comunidad de usuarios, tanto con discapacidad como sin discapacidad y un poco pues eso, lo que tiene que ser el desarrollo de un software en condiciones. Sí, además a mí me sorprende particularmente que ocupa muy poco y que no hace falta ni mucho menos una supermáquina que en un ordenador muy justito pues es capaz de manejarse bastante bien para cosas sencillas. Si quieres hacer un proyecto con 100 pistas, pues a lo mejor no, pero para cosas sencillitas se desenvuelve muy bien con pocos recursos. Sí, además puedes probarlo durante muchos días hasta casi durante una vida. Bueno, para no seguir enrollándonos nosotros que podemos estar aquí toda la hora, pues vamos a dar paso a nuestros expertos invitados en Reaper. Muy buenas, Pepe, ¿cómo estás? Hola, buenas. Verá parte de la comunidad me conocerá como José Manuel, como José Manuel Fernández, Fernández Cortés, pero los que más me conocen me dicen Pepe. Pues nada, aquí contento de haber sido invitado por Ricardo y por Arturo para este fin que nos han encomendado, hablar de este maravilloso programa que es un editor de audio y editor de MIDI. Ya diríamos lo que es MIDI porque audio sabe todo el mundo lo que es, que es Reaper. Muy bien, Pepe, muchas gracias. Pues hola, Gerardo, que es el otro invitado. Buenas, buenas. Bueno, un gusto estar aquí en principio. Soy Gerardo Kessler de Argentina. Se notará un poco el acento, supongo. Músico en una orquesta sinfónica de mi país, la Banda Sinfónica Nacional de Ciegos, Pascual Grisolía. Ahí estábamos recién hablando sobre este creador de varias orquestas acá en Argentina, a ver si no tenía algún tipo de relación con España y las bandas sinfónicas de allá, pero ya lo sabremos en otro momento. Muy contento de tratar este tema que si bien está teniendo un poco de difusión por esta cuestión de la accesibilidad y no solamente en el entorno de las personas con discapacidad visual, sino en el entorno general de producción. La gente está usando mucho Reaper porque es una alternativa maravillosa de un costo muy bajo e incluso se puede usar gratuitamente y que nos permite tener la posibilidad de hacer grandes cosas con muy poco. Estupendo. Pues para nosotros es una garantía teneros aquí, sobre todo para conocer de vuestra mano todo lo que es la accesibilidad de Reaper y esto es lo que vamos a intentar durante el tiempo que dure este episodio. Me llama mucho la atención que tenéis un perfil muy parecido, tanto Pepe como Gerard, porque los dos sois instrumentistas. Yo creo que tú Gerard tocas saxo más guitarra y esto. Pepe también, yo he tenido la ocasión de conocerlo por los nuevos vecinos y toca la guitarra flamenca. Además, para mí es de las personas que mejor le suena, que con más sentido y fuerza toca la guitarra flamenca. Suena fenomenal. Luego estáis muy vinculados ambos al tema de la tiflotecnología y del desarrollo también de aplicaciones y webs y demás. Y al mismo tiempo estáis los dos en edición, tratamiento, producción de audio con Reaper y esto. Entonces creo que sois las personas más que adecuadas para que nos deis a conocer este software. En honor a la verdad, hace un tiempito yo lo conocí a José, fundamentalmente en un podcast también, en otro podcast de José María Ortiz, donde José explicaba el uso de otro software. En ese caso era de Audacity. Y un poco fue también impulsor de mis ganas de empezar con todo esto de la producción musical o empezar a trastear con otras cosas. Yo utilizaba en esos momentos algunos software de edición, pero sencillitos. Y esas posibilidades que empezaron con Audacity también en cierto aspecto, que no tiene accesibilidad por ahí definida, pero sin embargo, como se podían configurar muchos atajos de teclado, permitían que uno lo utilice. Así que, bueno, José viene ya trasteando con esto hace un buen tiempo y yo caí un poquito después ya con Kbook Sonar, que fue una de las primeras opciones recién en la cual pudimos utilizar un multipistas en Windows. No funcionaba como Reaper, era un poco deficiente porque en realidad la accesibilidad estaba basada en la API, que era para superficie de control. O sea, el desarrollador del script lo que hizo fue emular una superficie de control, que es como una especie de consola que permite controlar el software a través del hardware. Y gracias a eso era posible usar, no en el porcentaje que se puede usar Reaper, pero por lo menos teníamos un poco de acceso al uso de multipistas. Vos, José, estuviste con eso, ¿no? ¿Con Kbook Sonar o no llegaste o directamente aterrizaste con Reaper? No, yo Kbook sí lo utilicé, pero en el año 2000 aproximadamente y era Kbook 6 y aquello era muy distinto y muy distante de lo que hay hoy en día. Me servía para entretenerme y hacer algunas grabaciones, pero era muy diferente y no tenía ninguna calidad prácticamente, vaya. Desde aquel entonces estuve desconectado hasta el año finales del 2018, que fue cuando empecé a conocer Reaper. A mí siempre me había llamado la atención este tipo de aplicaciones de multipistas y demás, siempre me ha encantado. Pero estuve utilizando programas como Soundfall o Audacity y tal, pero no multipistas. En multipistas no había nada y era bastante complejo instalar Sonar y instalar unos scripts que había que instalar. Era muy complicado toda esa instalación, ¿no? Por eso redundo tanto en la palabra, ¿no? Porque era un poco engorroso. Y entonces conocí Reaper y empecé a investigarlo y llegó un momento en que dije, cuando ya lo conocía un poquito más, porque hoy en día creo que lo conozco al 50 % nada más y me parece que estoy presumiendo. Dije, esto tengo que compartirlo con la gente, esta aplicación. Si a mí me está haciendo tan feliz, pues debo hacer que los demás también lo sientan y lo vivan. Y así lo he conseguido. Creé el grupo de WhatsApp y, bueno, a partir de ahí, por todos los demás que ya hablaremos. Claro, porque eso no lo hemos comentado. Es decir, sí, ya comenzó todo lo que es Reaper a tener su accesibilidad gracias a James T, que este señor lo conoceréis porque justo a Michael Curran fueron los desarrolladores de NVIDIA, N-V-D-A, el lector de pantalla tan maravilloso y que nos permite acceso a tantas aplicaciones y al sistema. Y este mismo hombre, James T, generó, bueno, no sé si fue realmente el que hizo ese desarrollo o ese script o no sé cómo llamarle, Pepe. Empezó primero porque hubo una previa, porque cuando largaron el software era Win32, era un programa que funcionaba solamente en Windows y ya era accesible de por sí porque tenía controles nativos, usaba controles comunes de Windows. Pero bueno, después a medida que se fue haciendo multiplataforma, porque Reaper no solo funciona en Windows, sino también en Mac y en sistemas operativos basados en Linux, ahí un poco se empezó a romper la accesibilidad. Entonces entró en juego dos desarrolladores rusos que desarrollaron otro script previo a Osara que se llamaba ReaAccess. Ahí es donde yo conocí Reaper con ese script que funcionaba muy bien, pero el problema es que el desarrollador no lo había abierto, ese software, ese script. Y el problema de esas cosas es que cuando eso depende de una persona o de un grupo de personas y no es abierto a la comunidad, cuando esas personas abandonan el proyecto, el proyecto también muere, que es como lo que pasa con muchas otras cosas también. Y es lo que terminó pasando con la accesibilidad de ReaAccess o de Reaper en general. Y después ahí sí entró en lisa James T, lo convocó Scott Chesworth, nunca me sale bien ese apellido, que era el que estaba un poco a cargo de la comunidad Anglo, que también empezaban a trastear con Reaper, porque ya KBox on Air ya no era accesible. O sea, había dejado de desarrollarse también, pasaba un poco con esto del ReaAccess. El desarrollador no hizo más el script, avanzaron las distintas versiones de sonar y chau, ya no hubo más accesibilidad. Entonces, cuando entró James, el proyecto fue abierto, entonces hoy en día sí es diferente porque está el proyecto en GitHub. Si en algún momento él deja de desarrollar, otras personas pueden tener acceso a todo eso que se desarrolló y poder continuar con el proyecto. La gran ventaja del Open Source, como pasa con el NWDA, es tener un desarrollo de accesibilidad como la que se está haciendo ahora. Esto se llama OSARA, ¿no? Exactamente. ¿Y exactamente qué es OSARA? ¿Es un entorno? ¿Es un script? OSARA es un componente que interactúa entre el software, el anfitrion, en este caso Reaper, utilizando las APIs de control que tiene el propio programa. Este tipo de programas, como son software tan sofisticados, tan completos, suelen tener algunas APIs para que otros recursos también puedan utilizar cosas de ese software, sin necesidad de tener que programar todo. Entonces, por ejemplo, para el uso de plugins, que son esos programitas que uno puede utilizar como una reverberación, por ejemplo, un delay, los efectos o procesadores, tienen acceso a esa API y entonces pueden utilizar parte del programa sin tener que programar todo de cero. Bueno, esa API de Reaper es tan completa, tan abundante, que también permitía que otro componente externo pudiera utilizarlo y pudiera controlar prácticamente, como decía Pepe, un gran porcentaje del software. Y es de ahí de donde James tomó la idea y donde empezó a controlar o a permitir el control del software a través de esa API. Entonces, este componente, OSARA, lo que permite es que el software de accesibilidad, en este caso los actores de pantalla, tengan interacción intermediada por OSARA. O sea, acceden a la API, a los distintos controles, gracias a OSARA que hace de puente entre estas dos cosas. Correcto. Inicialmente en inglés y Pepe, eres tú el que te encargas de traducirlo al español, ¿no? Sí. A ver, yo quiero añadir a lo que ha dicho Gera, porque estos son conceptos a veces bastante complicados. A ver, cuando se carga Reaper, que Reaper es el programa del que vamos a hablar hoy, un editor de audio y MIDI multipista, Reaper es como el Photoshop del sonido, para que la gente lo entienda comúnmente. Tú puedes editar el audio y hablaremos de algunas de las posibilidades más llamativas que Reaper tiene y que puede hacer con el sonido y con el MIDI. El MIDI lo tocaremos un poco por encima porque es un concepto más complicado, pero bueno, es la música hecha a base de instrumentos. Bueno, la cuestión es que cuando se carga Reaper, el programa del que vamos a hablar, Reaper busca en una carpeta concreta lo que hay y lo que hay en esa carpeta lo carga. Y cuando lo carga, cada cosa que ha cargado se ocupa de una cosa para lo que está programada. Entonces, en el caso de OSARA, intercepta las pulsaciones de tecla que Reaper va a tener. ¿Qué ocurre? Que cuando nosotros movemos la flecha hacia arriba o hacia abajo, OSARA la intercepta, dice, se ha movido la flecha del cursor del teclado nuestro, hacia arriba o hacia abajo. Entonces, como eso sirve para moverse entre pistas, pues a continuación OSARA le dice al lector de pantalla, te has posicionado en la pista número tal, que se llama de tal manera. Y bueno, este es el ejemplo más absurdo, digamos, ¿no? Como eso, cualquier otra cosa. Intercepta toda la actividad de Reaper e informa al usuario que tiene el lector de pantalla de lo que está pasando, de lo que no se puede ver. A lo mejor así se puede entender un poco más claro porque es que es un concepto un poco complicado. Si es un programa, si es un driver, si no, es algo que se adhiere a Reaper cuando se carga para ayudar a Reaper a resolver una función. En este caso es la función de facilitarnos el movimiento y la información que Reaper nos brinda y que nosotros no podemos ver. Eso es, hace como un plugin, como un complemento, como un intermediario. Es un complemento. Sí, que en la práctica es como si fuera un intermediario entre Reaper y el lector de pantalla para darle al lector de pantalla la información de forma que el lector de pantalla sea capaz de interpretarla y comunicarla de forma accesible. Exacto. Es como de ida y vuelta también, porque como decía Pepe, intercepta porque ese comando, por ejemplo, que nombró el de subir y bajar la flecha, si no me equivoco, originalmente si uno no tuviera OSARA instalado, mueve el zoom, por ejemplo. El zoom, el gráfico, el dibujo que aparece en pantalla, lo va agrandando a la chica. Entonces al tener ese elemento que intercepta, bueno, puede hacer con eso después lo que se requiera, en este caso, moverse entre las pistas de un proyecto. ¿Y qué cosas se pueden hacer con Reaper? En principio vamos por lo más básico, que es editar. Creo que ese es el proceso un poco más simple, en el cual uno carga un solo audio y ese audio lo modifica. Ya sea para cortar un fragmento, en fin, todas las cosas que se pueden hacer en una edición. Quitar el principio y el final de un audio, cortar partes del medio, añadirle cosas, por ejemplo, cargar otro fragmento o poner un pedacito de un efecto, una canción, todo en una sola pista. Por ahora trabajamos solo en una sola pista. Y hacer todas las acciones disponibles que tenemos en una sola pista. Que son muchas, porque no solamente se trata de esto, de cortar y de pegar y de mover las cosas, sino también de ir agregando lo que se llaman procesadores y efectos. Procesadores para poder modificar ciertas características del audio para no entrar demasiado en profundidad. Y efectos, que son los que conocemos todos, por ejemplo, una reverberación o un delay, que es este efecto de repetir algo. Todo este tipo de cosas son básicas que se pueden hacer. Ayúdame, José. Bueno, yo creo que tanto Gera como yo somos enamorados de Reaper y yo creo que eso debemos transmitirlo. No se trata de vender nada, sino simplemente se trata de que los demás puedan disfrutar lo que nosotros estamos disfrutando. Por supuesto que te tiene que gustar, te tiene que atraer la edición de audio. Si no te atrae eso, evidentemente no estarás escuchando este podcast. Pero imaginaos el siguiente escenario. Esta grabación va a costar de, somos cuatro, cuatro pistas, ¿vale? Bien, pues entonces, ¿qué ocurriría si, por ejemplo, queremos añadir en mitad de una pista algo que a mí se me ha olvidado decir? Pues se supone que si eso se hace, se descuadrarían todas las pistas, ¿no? Porque claro, entonces mi pista duraría más y las demás durarían lo mismo. Se descuadrarían todas las pistas. O sea, bueno, pues Reaper es tan inteligente que si yo añado en mitad de la pista que yo estoy hablando, que yo estoy grabando algo, las demás pistas las sincroniza de tal manera, deja el espacio suficiente para que sigan sincronizadas. Perfectamente sincronizadas, como si eso hubiera estado ahí desde el principio. Otra de las cosas que a mí me llama mucho la atención de Reaper, porque claro, no podemos hablar todo lo que hace Reaper, porque es imposible. Eso es completamente imposible. Simplemente cosas curiosas, ¿no? A mí siempre, siempre, bueno, los que me hayan escuchado en otro podcast lo sabrán porque siempre pongo el mismo ejemplo. Una de las cosas que me llama la atención de Reaper es que nosotros antes de grabar podemos saber qué nivel estamos alcanzando. Si vamos a saturar o no vamos a saturar con el micrófono. Nivel en decibelios, ¿eh? En decibelios. En función de eso, pues subiríamos o bajaríamos el volumen de nuestro micrófono. Si vamos a cantar, pues cantaríamos la parte más alta para ver si vamos a saturar y ajustamos los niveles del hardware, de nuestra tarjeta de sonido, de nuestro micrófono, lo que sea, ¿no? Nos separamos más de él o menos. Bueno, eso hasta ahora que yo sepa, y si no es así, alguno de vosotros me corrige o jera que estamos más en contacto a lo mejor con este tipo de programa. Creo que ningún programa lo ha brindado, esa posibilidad. Y bueno, pues como eso podría estar hablando, cosas curiosas que Reaper puede hacer sin meternos siquiera en profundidad de infinidad de cosas. Ya se nos irán ocurriendo, así que a ver. También has comentado que no es cuestión de vender nada porque ¿cuánto cuesta Reaper? Bueno, Reaper tiene un precio de creo que son 60 dólares, pero si tú no pagas esos 60 dólares lo puedes seguir usando sin limitación ninguna. Únicamente te aparecerá un cartel de manera aleatoria durante 5 segundos que, bueno, que Reaper no es gratuito y que lo puedes comprar por un precio bastante asequible. Una vez que pasan esos 5 segundos, me parece que son 5, 4 o 5 segundos le das a la tecla escape y usa Reaper con toda su potencia sin haberlo pagado. Si lo quieres pagar por contribuir al desarrollo de Reaper, pues bienvenido sea. Pero que la política de Reaper no es te lo dejo probar y luego te lo quito. No. Lo interesante es que para la potencia que tiene el software el precio es muy económico. Otros programas del mismo estilo son muchísimo más caros. De hecho, eran carísimos hasta que salió Reaper y todos los demás programas, ¿verdad? Totalmente. El Pro Tools no sé en qué precio estaba, pero eran todos esos programas. De hecho, también era software caro. Digamos, a nivel calidad-precio, lo de Reaper es fantástico porque con 60 dólares, que obviamente la situación económica de cada persona significará menos o más, pero es una módica suma comparado con todo lo que ofrece, porque realmente estamos hablando ahora de cosas curiosas y cosas por ahí sencillas, pero al nivel que se puede llegar de producción con Reaper es un nivel profesional. O sea, ya no estamos hablando de algo, como decía Pepe al principio, que uno podía jugar por ahí con otras cosas en otros tiempos, que uno quizá lo usaba así como algo curioso, como algo para aprender, pero esto ya uno lo puede usar en producción, uno lo puede usar en un estudio de grabación y hacer realmente proyectos que están totalmente a la altura de cualquier otro software. Eso es importante también tenerlo en cuenta. Incluso aunque está destinado para editar audio, también te permite editar video. Sí. Pepe hizo una demostración maravillosa que está en el canal de YouTube, que lo hiciste con una sola foto, ¿no, Pepe? O usaste varias para el video. Bueno, sobre esto quiero comentar que sí, hay un tutorial en YouTube de la edición de video con Reaper, pero os recomiendo que no lo escuchen porque tengo pensamiento de hacer uno porque el tiempo ha pasado, Reaper en ese aspecto se ha vuelto aún más fácil, no ha facilitado la manera de hacer las mismas cosas, y en ese tutorial demostraba, y bueno, lo mismo que voy a demostrar y algunas cosas más en este nuevo que tengo pensado hacer, es cómo puedes hacer un video con una banda sonora de música, o sea, con una música, con un audio cualquiera, no tiene por qué ser música, un audio cualquiera, y fotos, una sola foto en toda la música o varias fotos. Reaper, si por ejemplo le pones 24 fotos y la canción dura 1 minuto 18 segundos, bueno, pues Reaper te reparte el tiempo de las 18 fotos para que sea equitativo el tiempo de cada foto, lo puedes hacer con una foto, puedes mezclar fotos y videos, puedes poner alguna transición entre la foto y los videos, puedes poner texto, efectivamente, en el sitio que quieras de todo el proyecto, en fin, hay muchas cosas más que intento no saturar con mucha información. Yo pienso y digo siempre que es mucho más fácil, pregúntame qué es lo que no hace Reaper, que yo creo que sí lo hace. Quisiera hacer una pregunta primero, porque supongo que cuando tú accedes a Reaper, por ejemplo lo compras, tienes un Reaper básico con una serie de complementos y cosas que puedes hacer, y luego eso se podrá ampliar, ¿no? Sí se puede ampliar, pero no tiene nada que ver con la compra o no compra, la compra lo único que hace es quitar ese cartel de que no lo compraste, básicamente. El software en sí, todas las funcionalidades del software son las mismas, lo que uno después puede hacer es utilizar plugins que se llaman, que hay desarrolladores, o sea, son empresas particulares o pequeños desarrolladores, que hay miles por ahí dando vueltas, que un poco extienden ciertas funcionalidades o que añaden herramientas para procesar el audio, para poner efectos. Pero Reaper ya de por sí trae un conjunto que funciona muy bien. De hecho, yo los últimos trabajos que estuve haciendo casi que no utilicé plugins externos, sino que utilicé los propios de Reaper, pero uno siempre puede extender eso mucho más con otro tipo de software, pero el software básico, que es el que vas a tener, es el mismo tanto con la licencia o utilizándolo como demo. Vale, pues si os parece, ¿podemos hacer la diferenciación de qué podemos hacer con Reaper para edición de sonido por una parte y para edición musical por otra? ¿Serían dos una buena separación o estamos hablando de lo mismo? A ver, se puede editar tanto audio como música. La edición musical depende, depende cómo lo hagas. Si tú lo haces a través de MIDI, que ya me parece que hay que explicar lo que es MIDI, pues entonces sí hay alguna diferencia. Si tú la edición de audio lo haces grabando tu guitarra por un micrófono o por línea, grabando tu voz, grabando una batería con micrófono y tal, entonces es lo mismo. Entonces ahí hay poca variación. Hombre, evidentemente no es lo mismo editar un podcast que son voces humanas que son cuatro pistas que editar una música en la que intervienen varios instrumentos, aunque se hayan grabado de manera analógica, o sea analógica me refiero porque no es MIDI, se ha grabado a través de micrófono, porque claro, ahí tienes que mezclar. ¿Para qué? Mezclar significa dar el volumen adecuado a cada instrumento para que sea agradable al oído y tal. Y luego masterizar es intentar subir el volumen haciendo que no haya muchas diferencias entre las partes más altas y las partes más bajas y que se oiga con más fuerza. Eso es a grosso modo lo que es mezclar y masterizar para que se entienda. Las personas que no están metidas en este mundo, pues les sea más fácil de comprender. Cuando editamos música con MIDI, el MIDI es como un estándar. Imaginaros que es una partitura, en la que la información que tiene un fichero MIDI son el instrumento que tiene que tocar y las notas que tiene que tocar, entre otras muchas cosas, tiene mucha más información, pero bueno, no vamos a complicarnos la vida. Entonces, por ejemplo, el fichero MIDI solamente tiene la información de que una trompeta va a tocar las notas Do, Mi y Fa y después probablemente entra un piano tocando las notas Re, Sol y tal. Entonces esto suena. ¿Qué ocurre? Antes se utilizaba mucho, ahora se utiliza menos un estándar y lo traían muchos ordenadores. Tú enviabas esa señal al sistema y el sistema tenía un software que era capaz de sintetizar esos sonidos, el del piano, el de la trompeta, el de la batería y tal. Hoy en día esa información que está en el MIDI, que es al fin y al cabo una especie de partitura, pues si yo sé que aquí hay un piano, yo le pongo un piano profesional, un FX, un VST, un plugin, como queráis llamarlo. Entonces inserto ese piano y sonará ese piano en esa pista. En la pista de la trompeta le pongo una trompeta que suene bien, por software, por supuesto, estamos hablando, y las notas de la trompeta las recibirá ese software y hará sonar una trompeta que ha sido cuidadosamente pregrabada, por supuesto. Entonces es un tema más complicado. Por eso ahí sí varía un poco la edición cuando estamos hablando de MIDI, pero si la música la grabamos en audio solamente es mucho más parecida editar una canción y un podcast. No es igual, pero es algo más parecido porque los dos son audio. De todas maneras, a lo mejor me lía un poco y corrígeme Jera si lo ves necesario. Por ahí lo que añadiría es que sí puede llegar a variar un poco la conceptualización, que la gente por ahí se marea un poquito cuando cambiamos de edición a multipistas. Esta cuestión de tener una sola cosa que vamos a trabajar, en el caso de la edición, con una sola cosa, que cuando tenemos más de un elemento, ahí es donde empieza a ser un poco más lioso y donde por ahí la cosa cambia porque los controles son diferentes, porque uno ya no piensa en algo individual, sino que trabaja con un conjunto de cosas. Cuando surgió la invitación a participar en este episodio junto a ustedes, se me ocurrió la idea de grabar una versión instrumental de la introducción de un podcast. Gafotas, gatos y sus aparatos, no sé si lo conocen. Y esto es lo que quedó en una producción de poco tiempo. Vamos a escucharlo un poquito, si les parece. No es demasiado extenso, dura un minuto nada más. Y después vemos un poquito de qué se trata este proyecto. Eso fue Gafotas y sus aparatos, versión instrumental. Genial. ¿Y cómo suena tan bien? ¿Cómo lo has hecho? Tenemos una gran ventaja hoy en día, a diferencia de hace unos cuantos años, donde solamente podíamos grabar en un estudio o haciendo algo muy casero, con cintas y demás. Hoy en día, con una inversión muy grande, bastante escasa, podemos montarnos un estudio de grabación en casa y con software como REAPER podemos hacer muy buenas cosas. En este proyecto, por ejemplo, me voy a mover por las pistas del proyecto, simplemente con flechas arriba y abajo. Esta pista, la master, es la que recibe todo el audio de todo el proyecto. Es como un master de una consola de audio analógica. Hay una pista de FX que simplemente tiene cargado un efecto, ese efecto de reverberación que escuchan en el saxofón y en algunos elementos de la batería. Una carpeta no es el mismo concepto que las carpetas de Windows, sino que simplemente es un conjunto de pistas que están agrupadas acá en esta pista. El bajo y el saxofón. Esta batería en particular es una batería MIDI, es una de las grandes herramientas que tenemos para poder producir. El MIDI es una especie de partitura bastante más completa que una partitura, porque en ella se designa qué instrumento suena, qué tímbrica, qué banco, con qué intensidad. Hay un montón de información más que tiene, que después va a ser procesada por un instrumento virtual, que a veces son con muestras de audio reales, otras son sintetizadas. En fin, hay muchas herramientas virtuales para trabajar que suenan verdaderamente muy bien. Esta bata en particular suena muy bien. Está tocada por una persona con una batería digital, que en lugar de parches comunes de bata, tiene parches que son de tipo malla, que son de un material especial que detectan el golpe y transforman esa información en MIDI. Lo que después queda plasmado en un archivo MIDI y hace que se disparen este tipo de bancos. Después tenemos la pista de bajo, que está grabado por un bajista real. Es un bajo eléctrico que graba un amigo. Y por último el saxofón. Por ejemplo, si ponemos en solo la pista del saxo, este saxo que grabé hoy, hay un poco las apuradas. Ahí está sonando seco, sin la reverberación, pero si voy a la pista FX y la pongo en solo también, ahora se escucha con esa reverberación. Y también un poquito de la batería de fondo, porque está pasada también por este efecto. En cuanto al procesamiento, no tiene demasiado este proyecto en particular, como tiene pocos elementos. Si está todo un poco comprimido, la compresión es un proceso que nos permite acercar la distancia entre el volumen mínimo y el volumen máximo de un audio, para que quede todo un poco más parejo y podamos ganar un poco de volumen general. Un poquito de ecualización, que es esto de modificar el volumen de las frecuencias que son las que componen un sonido. Todos los sonidos están compuestos por una serie de frecuencias. Nosotros podemos modificar cada una de estas frecuencias para colorear, o para dar un efecto en particular, o para limpiar, o para muchas otras cosas. Solamente tiene eso, después algunos efectos como la reverberación, pero no más que eso. Y con estos simples elementos podemos llegar a lograr un buen resultado. Y esto lo hice en, no sé, lo que tardé en grabar hoy, esto una hora, vamos a suponer, traer el MIDI y pasarlo por un instrumento virtual y grabar. No sé, lo hice en un día, por decir algo. Y este tipo de cosas, cualquier persona, obviamente la curva de aprendizaje está, porque cualquier software de este tipo tiene su curva de aprendizaje. No es particularmente ni mucho más difícil, ni mucho más fácil, Reaper, que otros. Pero sin embargo, una vez que uno se embarca en esto, la verdad es que es algo tremendamente maravilloso. Qué bien. De hecho, el resultado es sorprendente porque impacta, ¿no? Estabas hablando de que esa batería era MIDI y, claro, si el banco de sonido era de una batería de mucha calidad y el que había grabado todo lo que son los pulsos MIDI, lo había hecho con una batería también digital, el efecto final, si no lo dices, es de un baterista tocando a lo tuyo. Sí, sí, sí. Es tremendo. Bueno, y así como esa, a medida como toda la tecnología va avanzando, también van avanzando este tipo de software, los instrumentos virtuales son tremendamente realistas, cosa que a uno como músico también a veces lo preocupaba un poco, alguien que se dedica a la música, que vive de ella. Pero sin embargo, bueno, como pasa con la inteligencia artificial, como pasa con un montón de otras cosas, la parte humana nunca va a poder ser reemplazada en cuanto a la música en vivo, el ver a una persona ejecutando con toda su historia detrás y con toda su impronta arriba de un escenario, eso es algo que no se puede computar y es algo que aún teniendo estos instrumentos maravillosos que suenan cada vez más reales, siempre esa energía que fluye de escuchar a alguien en vivo y alguien real, no una máquina, también está. Y ya me estoy yendo un poco de tema, perdón, pero a lo que voy es que, bueno, el software también ha ido avanzando mucho y hoy tenemos un montón, un montón de cosas al alcance de la mano para poder producir nosotros nuestros proyectos sin necesidad de gastar una fortuna en un estudio, que era lo que pasaba antes, ¿no? Se ha democratizado la cuestión de la producción música. Yo lo que quería decir a los oyentes es que probablemente cuando han escuchado lo que han escuchado tan bien hecho, lo de la música de ese gato y, bueno, el recorrido por las pistas, probablemente mucha gente se haya asustado, tened en cuenta que eso, si queréis empezar con ripes, vais a empezar cortando un trocito de audio, moviéndolo de sitio, añadiendo, cositas muy fáciles. Esto cuando llevéis mucho tiempo lo haréis. O no lo haréis porque a lo mejor no os decantáis por el tema de la música, os decantáis por el tema del periodismo, os decantáis por el tema de los podcasts, de crear relatos, hablados, en fin, todo lo que sea sonido. Es posible hacerlo, efectos de sonido, todo lo que sea sonido es posible hacerlo con riper. Entonces puede dar un poco de miedo escuchar toda esta nomenclatura tecnológica y demás y os puede echar para atrás y decir yo no voy a ser capaz de hacer esas cosas. A lo mejor no las hace nunca, a lo mejor no las necesita y si lo quieres hacer seguro que no va a ser lo primero que haga porque tendrá que pasar tu tiempo para poder aprender poco a poco cómo se llega hasta ahí si es el interés que tiene. Así que de miedo a nada. Lo primero, habéis comentado que este software es como muy profesional, ¿no? ¿Qué haría falta para poderlo instalar? ¿Un ordenador especial? ¿Hace falta tener algún hardware? ¿Hace falta un teclado? ¿Hace falta algo? ¿Quién puede utilizar este software? Riper puede ser descargado desde su página de riper.fm, es como habíamos hablado hasta el momento, se puede instalar sin problemas, no necesita una licencia para probarlo. Si después quieren colaborar con el proyecto, mejor aún. Después, en lo básico para uno poder utilizar esto, no necesita gran hardware, la verdad. Riper es muy liviano. Lo que sí puede suceder es que a medida que uno va utilizando después estas cosas de las que estábamos hablando, estos componentes, plugins, que sí son pesados, o por ejemplo, instrumentos virtuales, este tipo de cosas, sí requieren de más hardware, pero en sí, básicamente, para poder empezar a trastear con Riper, no es necesario ningún tipo de hardware especial. Simplemente con que funcione el sistema operativo ya va a funcionar seguro. Hace falta Riper, el instalador de Riper, 64 o 32 bits, dependiendo de la arquitectura. Osara, obviamente, también están buscando en Google Osara Snapshots, lo van a encontrar. Hay versiones para Mac, versiones para Windows, lo mismo que Riper. Y después hay otra cosita más también que es necesaria, que es una extensión de funcionalidades que se llaman SWS Extensions, que un poco extienden ciertas funcionalidades y son necesarias porque añaden un conjunto de atajos de teclado que después Osara va a utilizar también. Así que esos serían como los tres pasos fundamentales. Añadiendo también que si son usuarios de Josh, van a necesitar un script también. Bueno, eso no sé bien de dónde lo pueden descargar porque no lo utilizo yo, pero calculo que googleando se puede encontrar. Requiere de un software más, de un script más, Josh. NVEA no, directamente funciona ya con Osara y nada más. Solamente con eso ya pueden empezar a jugar con este gran programa. Bueno, muy bien. Y para jugar y jugar con cierto sentido de conocimiento y no ir a tontas ni a locas, para tener alguna base inicial, el poder contactar con algún tipo de comunidad que nos dé indicaciones, también de manuales, formación, puede ser posible en español, que es la lengua que hablamos. ¿Nos podéis explicar qué es lo que debemos hacer? Aquí ya intervengo yo. Perdona, Gera, te añado a lo que has comentado, complemento la información. Si lo quieres poner en castellano, en español, no en castellano, en español, hay también un programita que te lo pone en español. Cuando yo comencé con todo esto no había prácticamente información y la que había era en inglés. Pero hoy en día hay muchísima información, solamente con poner en google reaper accesible va a aparecer muchísima información. Yo comencé en aquel entonces, en el año 19, con un blog que se llamaba reaperaccesible .wordpress.com. No os asustéis con lo que ha dicho Gera en el sentido de que ahora donde descargo reaper y ahora que lo otro, yo no me acuerdo como era. Yo desde el punto de vista psicológico sé que la gente nos agobiamos muchísimo cuando desconocemos una terminología, cuando desconocemos un tema. Bueno, pues en este blog que yo he comentado en reaperaccesible, que está en WordPress, pues ahí hay entradas donde explica lo que hay que instalar, tanto para Windows como para Mac y donde descargarlo, con lo cual no vais a tener inconveniente ninguno. Luego también hay dos canales de YouTube con tutoriales de toda índole, como es reaperaccesibleoficial y reaperaccesibleespañoloficial. Tienen una intersesión de vídeos y otros vídeos que son diferentes en cada uno de los grupos. Y luego existe, que esto fue lo que yo creé en principio con otros compañeros, en el año 19, el 12 de abril concretamente del año 19, que es un grupo de WhatsApp que se llama reaperaccesible. Y bueno, ahí te puedes suscribir tanto si eres usuario de Windows como si eres usuario de Mac. Bueno, suscribirte a un grupo de WhatsApp, no agregarte un grupo de WhatsApp. Y entonces ahí puedes preguntar desde el principio todo lo que quieras. Hay muchísima gente, hay 245 me parece que contabilicé ayer o antes de ayer. Entonces bueno, pues te van a contestar seguro, ¿no? Cómo instalarlo, cómo te van a ayudar. Y probablemente, pues cuando tú sepas, ayudará a los demás. Con una comunidad de ayuda en WhatsApp, un grupo de WhatsApp. No tiene más historia. ¿Cómo me uno a ese grupo de WhatsApp? Pues bueno, pues puede enviar un correo a reaperaccesible, así de fácil, reaperaccesible. Todo junto, arroba gmail.com, con nombre, nacionalidad y número de teléfono. Claro, el número de teléfono es fundamental para que se te pueda agregar al WhatsApp. Y a partir de ahí, ya Reaper está en tu mano. Porque ya en el momento en el que estás en el grupo de WhatsApp, pues puedes obtener toda la ayuda que requiera. Direcciones donde hay tutoriales, tutoriales para lo que quieras y demás. Independientemente de que busques el blog que yo he comentado antes, que ya supongo que lo dejarán en los comentarios de este podcast. Y los canales de YouTube, que también dejarán las direcciones de dichos canales. Así que miedo ninguno. Solamente lo que tenéis que tener es ganas de editar audio. Complementando eso y haciendo un poco de autobombo también. Hay una página que he creado hace un tiempito, que es gera.ar ahora el dominio. Donde, si bien hace un tiempito ya que no estoy subiendo cosas todavía, pero en su momento había creado bastante material, tanto en audio como en texto, para el uso también de Reaper y de varias funcionalidades. Está mezclado con otras cosas también, otras cosas de mi interés, como es la programación y otras cuestiones referentes a los sistemas operativos. Pero también puede ser una opción el entrar ahí. Porque tengo algunos que son para, por ejemplo, hay una que es para principiantes específicamente, donde están listados, están linkeados los diferentes elementos que hacen falta y algunas instrucciones mínimas como para no asustarse, como dice Pepe, y poder arrancar desde ahí. Tienes muchísima razón, Gera. Había olvidado de la página, que es una página, gera.ar, así de fácil el dominio. Gera.ar es una página de referencia. Siempre la tenemos como referencia en el grupo de WhatsApp cuando alguien pregunta, ¿cómo puedo hacer tal cosa? Mira, vete a tal entrada de la página de Gera, porque está explicado de manera muy didáctica. Algunas cosas están explicadas en texto y la mayoría están explicadas en audio de manera muy didáctica y concisa. Y, bueno, se complementa con toda la información que se puede encontrar. Pero estas son informaciones de referencia, porque la wiki de Reaper es una cosa que creo, ya me corregiré, que creo que está desactualizada. Que también está para principiantes, también es otra base de conocimiento que puede servir para los principiantes. Vaya, que falta de material no hay, pero creo que eso sí está muy desactualizado ya. Y cuando comienzas como iniciado, como principiante, pero ves que es lo que te gusta y quieres avanzar en el conocimiento de la herramienta, en este caso Reaper, ¿qué es lo que puedes hacer? Y aprovecho ya y os pregunto también, ¿existe posibilidad de dedicarte profesionalmente a algún tipo de actividad relacionada con la edición, tratamiento, producción, sabiendo manejar esta herramienta? Bueno, desde que se creó el grupo de WhatsApp, yo sé de personas que empezaron con Reaper desde cero y que hoy en día están trabajando en un estudio de grabación con Reaper. Tienen el hardware necesario, los micrófonos, la placa de sonido necesaria, todo el material necesario, pero como centro de edición de ese audio es Reaper y están ganando la vida con eso. Con respecto a tu primera pregunta, digamos, el uso de este tipo de software, que son tan completos y tan complejos también, complejos no para asustarse, sino complejos en el aspecto hasta donde uno apunte a llegar, ¿verdad? Llegar a niveles profesionales, obviamente, como en cualquier otro ámbito, también va a requerir de un cierto esfuerzo, un cierto estudio. Y este software, el requerimiento que uno después va teniendo a nivel profesional, ya tiene que ver más con un estudio de cosas acústicas, por ejemplo, aprender a ecualizar, que es a cómo modificar las frecuencias de un sonido. Un sonido está compuesto por un montón de armónicos y de frecuencias, entonces uno puede ir modificando esa característica, pero aprender a hacerlo con certeza lleva mucho tiempo. Y eso ya va más allá de Reaper y demás, sino que es un aprendizaje que uno tiene que tener, que también se da mucho con la práctica, pero para poder avanzar, simplemente, uno puede complementarlo con estudios de la física, del sonido en sí, o también practicando y practicando y practicando, que es siempre la mejor escuela. Y ya otra pregunta, me la olvidé. ¿Te iba a decir algo al respecto de eso? ¿Existe algún tipo de formación más profesional? Ya no te dedico, no digo que se dediquen con ello a una profesión, sino que sea lo que sería un método avanzado. Mira, hay un pequeño problemita con esto, que no tiene nada que ver con Reaper en sí, sino que es costoso. Para poder uno montarse, mi idea, inclusive, hace muchos años fue montarme un estudio de grabación, pero ustedes sabrán también que han invertido para escucharse bien, como se están escuchando ahora. Imagínense que para un estudio de grabación es muchísimo más. Estamos hablando de nivel profesional. Para tener un home studio, como el que tengo yo, como el que tenemos muchos, la inversión no es tan grande, es bastante menor. Va a depender de qué tipo de cosas nos compremos. Pero para poder trabajar de esto, por lo menos montarse un estudio propio. Después de ir a trabajar a otro lugar ya es otra cuestión. Y sí, es verdad, como dice Pepe, hay algunos casos. Este caso de este muchacho inglés, creo que es, o yank, no me acuerdo, pero que él trabaja profesionalmente hace muchos años, y está utilizando Reaper a full. Esa es su estación de trabajo principal. Y ahí, en esa lista, conozco que hay también mucha gente que está trasteando ya hace muchos años con esto, y está trabajando profesionalmente. Sea para trabajar con alguien, o sea para alguna cosa concreta, no solamente para hacer música, por ejemplo, sino podría hacerse para una banda de sonido de una película, o podría utilizarse para efectos de sonido de radio, por ejemplo. Cuñadas publicitarias, ¿no? Exactamente. Sí, sí, sí. De hecho, en el grupo creo que hay varios, José, que trabajan haciéndose, haciendo eso, que también es una herramienta maravillosa para ese tipo de cosas. Sí, sí. Hay periodistas, hay personas que se dedican a la radio, personas que se dedican a la publicidad. Es que como es tan amplio el espectro de las posibilidades que nos brinda Reaper, y hay personas que se dedican, bueno, tienen un estudio de grabación, como es el caso de Beto Berbara. Beto Berbara creo que conoció este grupo de Reaper a través del blog que yo he comentado antes, del blog que yo comencé a alimentar, que hoy en día no lo sigo alimentando porque ya hay demasiada información, ¿no? Y porque me da pereza. Pero además de eso, Beto Berbara tiene su estudio de grabación y utiliza a Reaper como editor. Entonces, él está viviendo de esto y hay más personas, más personas, creo que Marcelo, no lo sé exactamente hasta qué punto, Hugo creo que estaba, no sé si lo ha terminado de montar, que estaba montando también un estudio de grabación. En fin, y eran personas que partieron desde cero, sin conocimiento. ¿Marcelo Sosa? Sí, Marcelo Sosa de Argentina también. Hugo Macías de México. Ellos empezaron desde cero y empezaron con Reaper, por eso insisto tanto en que no tengáis miedo a la terminología porque es lógico que ahora no la conozcáis. Pero si estáis, si tenéis interés, seguro que llegaréis hasta donde queráis llegar. Es que no hace falta llegar hasta ningún punto. Simplemente disfrutar el camino y ya está, ¿no? Es un muy buen punto ese que dice Pepe porque en este tipo de plataformas que son tan, tan amplias, es como la música en sí mismo. Uno cuando piensa en la música no piensa en ser un concertista. Uno quiere disfrutar de tocar un instrumento y si me aprendí tres canciones y soy feliz con esas tres canciones, adelante. Nadie tiene por qué rendir cuentas de nada. Simplemente uno aprende hasta donde quiera, hasta las necesidades, para cubrir esas necesidades que uno tiene. Y el software permite tanto una cosa como la otra. Tanto poder editar algo muy simple, poder cambiar de formato un archivo, poder crear un videíto y nada más, poder entrar a niveles de producción musical muy buenas, trabajar de esto y un montón de otras cosas. Bueno, pues a mí me gustaría saber, con REAPER como editor de sonido, editor de audio, qué versatilidad tiene, qué capacidad de movimiento nos permite dentro de lo que son las pistas, qué curiosidades nos ofrece, qué es lo que podemos hacer. Bueno, hacer podemos hacer de todo. Como dije antes, solamente la imaginación es la que pone el límite en cuanto a audio, video, foto. Bueno, foto no. Puedes hacer un video con foto, pero retocar una foto no puedes. Y puedes retocar un video a nivel de su sonido. O sea, tú lo que no puedes es, como diría yo, no es un editor de video, lo único que ocurre es que tiene la capacidad de soportar video. Entonces tú puedes recortar un video, quitarle una parte, mezclarlo con otro, todo eso sí puedes hacerlo. Quitarle el sonido de ese video y ponerle tu sonido propio. Pero bueno, no es un editor de video. Y con foto, lo que expliqué antes. Eso puede hacer de todo lo que tú, con el audio, con la música, de todo lo que tu imaginación será la que ponga el límite, lo que tu imaginación quiera. En cuanto a capacidad de movimiento, bueno, tú puedes moverte por un audio pues a nivel de décima, centésima y milésima de segundo. Incluso si estás tratando con video por frames, que son cuadros. Te puedes mover por compases y tiempo. Eso es para los que sepan de música. La capacidad de movimiento es tan fina, tan fina, que puedes llegar a sincronizar hasta la milésima de segundo. La versatilidad que tiene en cuanto a movimiento pues es brutal, ¿no? Puedes desplazarte al punto donde quieras. Puedes, si hay un silencio, por ejemplo, puedes saltar a donde, de nuevo, el silencio no existe. O sea, ya hay sonido. Es una cosa que se llama transiente. De manera que en un audio largo, imagínate que, no sé, que grabas una noche, ¿no?, en algún sitio, algún sonido que se produzca en la noche. Entonces, claro, evidentemente, no vas a estar escuchando las ocho horas, ¿no? Tú puedes buscar donde se han producido los sonidos, en qué tiempo se han producido, marcarlo, en fin, mil cosas puedes hacer con todo eso, ¿no? No sé, es que no sabría qué decirse. Me abrumo en el sentido de que son tantas las cosas y además cosas interesantes y cosas muy curiosas que puede hacer Reaper sin complicarnos, ¿no? Desde el punto de vista profesional puede hacer muchísimas más cosas. Pero así, de manera básica... Bueno, os comentabais que estabais casi sacando información de la onda, ¿no?, en decibelios y demás, un poco para tener ese feedback, ¿no?, de cómo estaba quedando lo que estabais introduciendo, ¿no? Claro, puedes sacar información antes de tú empezar a grabar de a qué nivel estás grabando. O sea, tú te estás dando información, o Sara, completamente de accesibilidad, de lo que la gente llama embúmetros, que ven unas barritas que suben y que bajan en función de la fluctuación que hace el sonido. Pues tú sabes a qué nivel exacto, a menos 3,5, a menos 3,4, estás llegando y puedes graduar eso. Pero no solamente te dan la información en, bueno, la dan decibelios en los picos más altos, sino en otros muchos valores que ahora no vamos a entrar, ¿no?, pero en otros muchos valores que se utilizan hoy en día para poder grabar el sonido. Y que, bueno, Gera, añade más cosas porque ahora mismo no se me ocurren más curiosidades. Ahora que estabas hablando de eso también me acordé que un poco lanzaste la pregunta si esto se podía hacer antes. KBook, por ejemplo, lo permitía hacer, pero no al nivel de Reaper Porque lo que te permitía el Keybook era, si vos te pasabas de un cierto umbral, que era el umbral de saturación, digamos, en el audio se trabaja siempre en números negativos, cuando llega al cero, que ese sería como el volumen máximo que un audio puede tener sin romperse. Te avisaba cuando ya rompías. Pero este nivel de conectar un micrófono a una placa de audio generalmente, que tiene un preamplificador, que se llama una perillita que sube o baja el volumen, que está entrando a la placa de sonido, vos con REAPER podés saber que en tus pruebas, sea cantando, sea hablándose, lo que sea, cuál fue tu nivel máximo. Entonces vos podés ajustar también esa parte que es importantísima a la hora de grabar, porque siempre es conveniente grabar al máximo volumen posible, para evitar ruidos y para evitar cosas referentes al audio electrónico, el audio analógico, que es realmente muy, muy importante el poder tener acceso a eso. Otras cosas, por ejemplo, ya sin siquiera entrar en cuestiones que tienen que ver con edición de audio, en mezcla, por ejemplo, algunas cosas que suele usar la gente, o que mismo yo también utilizo a veces, es el modificar una pista. Por ejemplo, descargamos algo de YouTube, una pista de acompañamiento, un karaoke que le llaman, pero está en una tonalidad que nos hace gritar como una ardilla o nos queda muy grave, queremos modificar, y eso es muy, muy fácil con REAPER, simplemente cargando la pista y con un comandito, es decir, un semitono, dos semitonos para arriba, tres semitonos para abajo, exportamos eso y ya tenemos esa canción que habíamos descargado y que en principio no nos servía, podemos utilizarla porque la podemos acomodar a la tonalidad que nosotros querramos. Pasa algo similar con la velocidad, supongamos que, no sé, no quería contar esta incidencia, pero a veces estoy sacando algo de oído y es medio complicado, entonces lo que hago es disminuir la velocidad de eso que estoy escuchando para que me sea más fácil para escucharlo y para poder sacarlo. También es lo mismo que el cambio de tonalidad, con un simple atajo podemos descender la velocidad de algo sin que se modifique la tonalidad, por ejemplo. Y eso es muy importante para un montón de cosas que uno puede utilizar diariamente. Otra cosa, por ejemplo, es la conversión de formatos de archivo. Supongamos que tenemos, no sé, un montón de videos en una carpeta y tenemos que pasarlos a MP3, y es medio engorroso hacerlo uno por uno, hay una cosa que se llama conversión por lotes, que ni siquiera hace falta cargar los archivos a REAPER, simplemente desde la interfaz tenemos una opción en el menú archivo nomás que ya nos permite seleccionar una carpeta y todo lo que está ahí convertirlo a lo que nosotros querramos, a lo que soporte el software. Ese tipo de cosas son realmente interesantes y no tienen por ahí tanto que ver con el tema de editar y demás, que ya un poco hemos hablado a lo largo de esta charla de todas estas posibilidades, tanto musicales como de la creación o edición de un podcast, como de radio aficionado, como, bueno, muchas de estas otras cosas. Así que las posibilidades son muchas. Incluso la creación de un podcast incluso te permite poder crear con metadatos los capítulos dentro de un audio en MP3, por ejemplo. Muy buen dato, mira. Es verdad. Me había olvidado de eso. Exactamente. Me resulta curioso que estáis hablando de tantas acciones que a través de OSARA y con combinación de teclas os permite REAPER, pero vamos, yo sé que tenéis una alta capacidad mental para recordar muchas, pero tienen que haber cientos. ¿Cómo conseguís cuando no recordáis algo acceder de forma rápida y tener esa información? Es una muy buena pregunta. Y tenés una ayuda de teclado, como tienen algunos software, como el NVDA mismo, que vos activando esa ayuda después podés toquetear todo lo que quieras, que no va a pasar nada. Simplemente si encontraste alguna acción, te la va a verbalizar. Esa es una de las maneras. Hay documentación también en la que uno puede ayudarse un poco. No fuimos entrando en todas las posibilidades internas de REAPER, porque realmente sería muy largo, pero hay una cosa que se llama lista de acciones, porque cada cosa que nosotros hacemos en REAPER es una acción. Está asociada a un atajo de teclado, muchas de ellas, inclusive bastante pocas, comparándolas con la cantidad que hay. Que simplemente pulsando F4 en la interfaz tenemos una lista completísima de todas las cosas que se pueden hacer. Y esas acciones, pulsando Intro, se ejecutan. No es la forma de usar REAPER, porque sería muy engorrosa usarla así, pero también nos puede servir para, por ahí, si no sabemos cómo se hace cierta cosa, hay un buscador ahí, podemos poner, no sé, eliminar, y entonces nos van a aparecer todas las acciones asociadas a la palabra eliminar. Y de hecho podemos hacer un remapeo completísimo y sacar todos los atajos de teclado que hay y remapearlo a lo que nosotros querramos. Cosa que no es conveniente para nada, porque después cada vez que hay un cambio de distribución de teclado, nos tenemos que reaprender o reacomodar todo de vuelta, pero sí está esa posibilidad. Claro, porque no todas las acciones están asociadas a combinaciones de teclas, porque las acciones pueden ser miles y las combinaciones de teclas, pues no hay tantas combinaciones disponibles. No alcanza teclado para poder hacer tanta combinación. Entonces uno puede personalizarlo por las que más utilice o las que quiera, pues lo puede personalizar a su gusto. No digo que hasta ese punto, que tantas combinaciones, estamos hablando de teclas, para que un teclado no sea capaz de asumir todas las cosas. Sí, te aseguro que la lista de acciones es tan grande que no te alcanza el teclado. De hecho, una de las funciones maravillosas que añadieron Benozara o Unreaper, es que vos podés crear tus propios mapas de atajos de teclado. Entonces vos te creas un mapa para, por ejemplo, edición, que vos sabés que vas a utilizar ciertas acciones. Entonces te creas tu propio mapa para cortar, eliminar, todo lo que tenga que ver con edición. Después te haces otro mapa que es para mezclar solamente. Entonces pones todas tus acciones, le pones atajos de teclado a todo lo que quieras, solamente, o que te quede incómodo esa voz en los atajos de teclado para que no te quede. Tienes que usar las manos de los pies y de las manos para hacer un atajo, porque a veces pasa que son tantas las combinaciones que no te alcanzan los dedos. Bueno, vos podés remapear y crear tus propios atajos y tus propios mapas. Eso está buenísimo. De cualquier manera, las acciones que más se utilizan, primero es que llega un momento que te las aprendes. Por supuesto que te aprendes sus atajos de teclado, porque evidentemente tú no utilizas cien acciones diferentes. Utiliza cortar, mover, lo que sea. Es que son las más comunes y al final te las aprendes. Pero si no te las quieres aprender porque son acciones que no utilizas muy a menudo, la puedes poner en el menú, la puedes añadir al menú, al menú edición, al menú que quieras. Tiene un menú, una barra de menú, como todas las aplicaciones, y tú la añades donde quieras, porque no quiere aprenderte ese atajo de teclado. Que hay una acción que no tiene atajo de teclado y tú la usas mucho, tú le añades el atajo de teclado que tú quieras. O sea, es que hablar de esto, la versatilidad es tremenda, es completa. Por eso puede apabullar, escuchar tantas cosas que hace Reaper, pero Reaper hace lo que quieres tú que haga. Y en el momento que quiera que lo haga y hasta el punto que quiera utilizarlo. Pero sí, sí, tiene toda esa potencia. Podemos hablar de miles, de miles de acciones que tiene Reaper. 3.000, 4.000, no lo recuerdo exactamente cuántos son. Evidentemente no hay combinaciones de teclado para eso, pero tampoco se utilizan todas esas acciones. Lo que sí se puede hacer con esas 3.000, y ya si eres más avanzado, es hacer una acción personalizada, que es, pues no lo sé, imagínate que yo normalmente lo que hago con el audio es cortar este trozo aquí, ponerlo al final, subirle el volumen, no sé, una serie de acciones que siempre la hago. Una rutina, pues esa rutina yo la puedo unir todas las acciones en una sola, asignarle un comando de teclado, y es como si hubiera hecho un programita. Todas esas acciones se ejecutan de manera secuencial, tal como yo lo hice, y a lo mejor algo que yo hubiera tardado 5 minutos en hacerlo, pues lo hacen en un golpe de teclado. Entonces es que es muy versátil. 6.359 acciones. Gracias. Un poquito. Si fueran del banco de Santander seríamos ricos. Tal cual. Pero no son acciones nomás. Pues yo creo que hemos dado un muy buen repaso a REAPER y a la edición de audio en general. Yo creo que podemos ir terminando el episodio. Si te parece, Ricardo, podemos hacer un resumen. Pues sí, yo voy a poner ahora en rótulos cuatro nombres propios. Creo que hay que destacarlos porque al final nos han facilitado la vida con esta aplicación. El primero es el señor Justin Frankel, que hablamos que en finales de los 90 desarrolló Winamp, y en 2004 montó la empresa Coco y empezó con su REAPER, que es el programa que nos ocupa en este episodio, ya publicándolo en 2005. Así que muchas gracias, señor Justin Frankel, por todo esto. En 2014, Javier Robledo tradujo el interfaz de REAPER al español. Esto también es accesibilidad, porque acceder a tu idioma facilita mucho lo que es el uso de cualquier software y programa. Si lo haces encima con dedicación y con sensibilidad y gusto, pues también se agradece mucho. Así que muchísimas gracias. También hay que poner en los rótulos, y en grande, el nombre de James T. Sabéis que este hombre era junto a Michael Garren, que desarrolló NVIDIA, N-V-D-A. Y en este caso hizo OSARA, que es este complemento tan maravilloso que le dota de accesibilidad o mejora la accesibilidad para lectores de pantalla con REAPER. Y el cuarto nombre, y tenemos el honor de tenerlo aquí, es José Manuel Fernández Cortés Pepe, que un día descubrió la aplicación. Lo primero que hizo fue montar un blog REAPER accesible, y su experiencia la compartió con la comunidad. Pepe habitualmente, todos los proyectos que ha hecho en su vida han sido proyectos altruistas y generosos. Siempre ha compartido todo el conocimiento con la comunidad, y esta vez no iba a ser menos. Y al mismo tiempo montó una comunidad, un grupo en WhatsApp, también de REAPER accesible. Y además tradujo, y está traduciendo, porque aún lo mantiene al español, OSARA, que es el complemento ese de James T. Con lo cual también, Pepe, muchísimas gracias. Y estos son los cuatro nombres que, aunque los hemos nombrado a lo largo de la conversación, yo quería destacarlos ahora aquí al final, y así queréis vosotros seguir recordando lo que hemos tratado. Bueno, hemos pasado un poquito por arriba de las posibilidades de REAPER, que son muchas, a veces un poco abrumadoras. La idea, como se dijo en algún momento, no es vender el producto. Simplemente es contar un poco lo que se puede hacer, de todas las cosas que se pueden hacer, para invitar a que la gente no le tenga miedo, asusta, sí, la verdad. La curva de aprendizaje tiene sus bemoles, pero, sin embargo, son tantas las posibilidades que nos da, la independencia que nos da con un montón de cosas, que realmente vale mucho, mucho la pena. Y va a depender siempre de las ganas que cada uno tenga. No hay impedimentos en esto, simplemente las ganas de aprender y todo lo demás. Así que hemos repasado un poquito cuáles son esas cosas que se pueden hacer con REAPER, tanto a nivel edición como a nivel musical, con multipistas y proyectos, utilizando audio, utilizando MIDI. Andá interrumpiéndome José vos también. Hemos hablado también de cómo un poco surgió todo esto, desde dónde vino, desde la creación con la empresa de Cocos, y después el desarrollo del primer script que no fue Zara, que fue otro, pero que un poco dio el empujón inicial para saber que esto se podía hacer y qué maravilloso que era poder utilizar algo con accesibilidad, que era algo que venía faltando. Hemos hablado también de todas estas cosas que se pueden hacer, que se ofrece, de la gratuidad en sí del producto, aunque no es gratis en sí. Ahí dice que REAPER no es gratis, sin embargo se puede usar libremente, sin restricción. Esto es importante también, siempre que se pueda apoyar este tipo de proyectos que son tan importantes para la comunidad en general, pero también para la comunidad ciega, y si uno tiene la posibilidad de aportar, es muy importante que lo haga, para que este tipo de cosas sigan funcionando y tengamos la posibilidad de seguir con ello. ¿Qué más José? No lo sé, pues hemos hablado de las posibilidades curiosas que REAPER brinda, de las cosas más curiosas que puede atraer a la gente, que le puede llamar la atención. Y así hemos acabado más o menos el episodio este, hablando de esas curiosidades, de esas cosas que puede hacer, algunas de las cosas que puede hacer, que seguro que se nos quedan muchas en el tintero y a lo mejor algunas muy importantes. Pero bueno, hemos intentado hablar de algunas de ellas. Y bueno Ricardo, primero gracias por los elogios y segundo que se puede explicar más alto, pero no más claro todo lo que has explicado con la claridad y el orden que lo has hecho. Y nada, pues ya quedarán escritos en las notas del podcast todas las direcciones que hemos dado, el blog, los de Gerard, los canales de YouTube, los sitios donde podéis recabar información, la dirección de correo donde tenéis que escribir por si queréis agregaros al grupo de WhatsApp. Y nada, eso lo único que hace falta es ganas. Exactamente. Y se nos ha olvidado yo una magnífica demostración que nos ha hecho Gerard con la música de Gafotarce y Gatos y sus aparatos, que también la vamos a colgar en las notas para el que quiera escucharla y la escuche completamente. Pues muchas gracias Pepe, muchas gracias Gera por haber compartido hoy con nosotros esta tertulia acerca de la edición de audio. Y bueno, pues ya vamos terminando. Os emplazamos a que si os ha gustado el episodio pues nos pongáis un comentario en cualquiera de las plataformas donde lo estéis escuchando este episodio y damos los medios de contacto. Pues muy bien, nuestros medios son gafotas.com .es, el correo electrónico y el WhatsApp para mensajes de texto o de audio en el más 34644640792. Muy bien, volver a agradecer a Pepe y a Gerard que hayan accedido a colaborar y contribuir en este episodio. Nos ha estado muy a gusto. Gracias, gracias de verdad. Y a todos los que nos estáis escuchando, muchísimas gracias por llegar con nosotros hasta aquí, hasta el fin del episodio. Os esperamos en el próximo. Así que adiós. Adiós. Subtítulos realizados por la comunidad de Amara.org Podcast, podcast.
Gafotas, cegatos y sus aparatos #11
Fecha: miércoles, 12 de febrero de 2025, a las 00:00:00
En este episodio, nos adentramos en el fascinante mundo de la visión artificial y las IA multimodales, junto a Danais y Roberto. Analizamos cómo estas tecnologías están transformando nuestra vida diaria y, en particular, su impacto en la accesibilidad y autonomía de las personas ciegas o con baja visión.
Temas que abordamos en este episodio:
-La evolución de la visión artificial y su aplicación en la vida cotidiana.
-Los chatbots de IA con visión: cómo funcionan y qué pueden aportar a la autonomía de las personas sin visión.
-IA multimodal y visión en tiempo real: una revolución en el acceso a la información y la descripción del entorno.
-Aplicaciones específicas para personas ciegas: exploramos herramientas como ChatGPT con Visión, Gemini 2.0 Flash y Ally de Envision, enfrentándolas a la misma tarea y analizando sus capacidades para localizar objetos en una escena.
Charlamos sobre el impacto real de esta tecnología en el reconocimiento y descripción del mundo que nos rodea, evaluando sus ventajas, inconvenientes y limitaciones en términos de autonomía y accesibilidad.
No te lo pierdas: descubre cómo la visión artificial está cambiando las reglas del juego.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
La evolución de la visión artificial – Emergent Vision Technologies.r
IAS multimodales y sistemas de visión artificial por IA en tiempo real.
OpenAI lanza el modo Visión en Tiempo Real y Compartir Pantalla en Europa – GPT Zone.
Página oficial de ChatGPT de OpenAI.
Página oficial de Gemini de Google.
Descarga el documento para configurar Gemini 2.0 Flash en tu iPhone
Incluye el prompt personalizado de Roberto
y el atajo de Manuel – Formato Word.
Página
oficial de Lea, personaje de Ally (asistente Beta de Envision) – Traducida al
español.
Meta presenta Llama 3.2: es multimodal y tiene voz propia – WIRED.
Prueba el chat de Meta AI desde su sitio web.
Aplicaciones específicas de visión por IA para personas ciegas o con baja visión
Artículo sobre Be my eyes en SucDePoma.
Be My Eyes, servicio de voluntarios e IA descritptiva (Página oficial en español).
Seeing AI – Aplicación multifunción con OCR y reconocimiento de imágenes (Microsoft).
Aira – Asistencia visual remota con agentes profesionales (Inglés).
Oko – Reconocimiento de
semáforos - Detectando el
semáforo (en verde o en rojo) con la app OKO, A Ciegas – AliBlueBox (YouTube).
Lookout
– app para la Visión asistida - Aplicaciones en Google Play.
Créditos:
Duración: 01:19:59
Descripción detallada del logo de Episodio 11. Veo, veo... ¿Qué ves? Visión en tiempo real para asistirnos en el día a día.
La imagen presenta una escena de estilo cómic retro en blanco y negro con un alto nivel de detalle y trazos gruesos. En ella, dos personas con una apariencia sofisticada y moderna están interactuando con dispositivos tecnológicos en un entorno interior elegante. El personaje masculino en primer plano es un hombre con un aire de misterio y confianza. Lleva unas gafas de sol redondas con un marco grueso, un abrigo con solapas amplias y una bufanda gruesa enrollada al cuello. Su cabello es rizado y voluminoso. Está usando unos auriculares grandes y envolventes, que refuerzan la sensación de que está sumergido en el mundo digital. Su expresión es seria y determinada. Sostiene un smartphone con un diseño moderno en una mano y está realizando un gesto con el índice de la otra, como si estuviera interactuando con una interfaz táctil en el aire. Junto a él, una mujer con un look igualmente sofisticado se encuentra en segundo plano. Lleva gafas de sol similares a las del hombre y unos auriculares de gran tamaño. Su cabello es largo y ondulado, y viste un top sin mangas con un collar grueso en el cuello. Su expresión es relajada pero atenta, como si estuviera escuchando algo con interés. Se lleva una mano a los auriculares, como si estuviera ajustándolos o reaccionando a algún sonido. Sobre la mesa, en el centro de la imagen, se encuentra un altavoz inteligente de la marca "Sonos". Es un dispositivo cilíndrico con una rejilla metálica en la parte inferior y un panel superior con botones táctiles. Su presencia sugiere que el ambiente está lleno de sonido y tecnología conectada. En el fondo, hay una ventana con cortinas, que deja entrever un paisaje exterior con montañas o colinas a lo lejos. También se pueden apreciar detalles de la decoración del interior, como un cuadro en la pared, una lámpara y muebles modernos. La escena evoca una estética futurista con una combinación de elementos clásicos del cómic noir y un estilo tecnológico contemporáneo. El dibujo tiene un trazo firme, con un uso detallado del sombreado mediante líneas y puntos, lo que da profundidad y textura a la imagen. El contraste entre las sombras y los brillos está bien trabajado, aportando una sensación de volumen y realismo dentro del estilo ilustrado.
Transcripción de Episodio 11. Veo, veo... ¿Qué ves? Visión en tiempo real para asistirnos en el día a día.
Bienvenidos al undécimo episodio de tu podcast favorito. Buenas, Ricardo. ¿Qué tal, Arturo? Pues con muchas ganas de comenzar este episodio número 11 y con una temática que a mí particularmente me encanta. Sí, repetimos o tripitimos IA, ya llevamos varios episodios y los que nos quedan, porque bueno, para bien o para mal, pues es lo que está de moda últimamente y va a dar mucho más que hablar, ¿no? Como ya hemos comentado en episodios anteriores, yo creo que ya va a cambiar el mundo tal y como lo conocemos más pronto que tarde además. Así que cuanto más sepamos de esto y por lo menos estemos al tanto de lo que hace, lo que no hace y podamos utilizarlo, pues mejor será para todos. Sí, pero en este episodio vamos a hablar de la IA, pero de una parte de la IA que sobre todo para las personas sin resto visual funcional, pues resulta muy interesante porque es la visión artificial. Es decir, nosotros el sentido del que carecemos es el visual, con lo cual cualquier tecnología que pueda suplirlo o pueda asistirnos es magnífica y de esto vamos a hablar. Sí, eso es. Es una parte muy interesante, ¿no? La IA tiene muchas ramificaciones o es capaz de hacer muchas cosas dependiendo de los modelos, como ya hemos comentado alguna vez, y el de la visión es impresionante, ¿no? Como es capaz de, en los dos sentidos, ¿no? Tanto de pintar, de dibujar, de hacer imágenes hasta de escribirlas, como poder saber lo que hay en una imagen, reconocer objetos, reconocer fotografías, es impresionante. Sí, y no es tan antiguo el tema de la visión artificial. Realmente dentro de lo que es la tecnología y la propia inteligencia artificial tenemos que retroceder al siglo pasado, pero a los años 60 para empezar a hablar de visión artificial. Sí, ha ido evolucionando, yo creo que en poco tiempo, porque de los años 60 a esta parte pues eso, no ha pasado nada. Desde que inicialmente se reconocieran por ahí unas luces o reconocer una equis o algo así. Inicialmente, bueno, todavía no, pues afecta mucho el brillo, el contraste, el color, hay muchos factores que pueden influir y en aquel momento pues la tecnología, la velocidad de proceso, la memoria y demás, no era todavía lo suficientemente avanzada como para poder hacer, pero los modelos matemáticos y tal y los algoritmos pues ya inicialmente estaban, al menos en teoría, y según ha ido avanzando pues toda la tecnología ha ido un poco de la mano y hemos llegado hasta el punto en el que estamos hoy en día. Sin duda, de hecho hubieron dos hitos muy importantes, uno fue en 1959, un grupo de neurofisiólogos que estuvo observando cómo era la visión de un gato y entonces monitorizaron el cerebro y se dieron cuenta que lo primero que percibía eran los perfiles de las cosas y a partir de ahí empezaron ya a realizarse estudios y desarrollos. Y luego dicen que si es el padre de la visión artificial, realmente es un hombre dentro de la tecnología que ha estado situado en eventos, en desarrollos muy increíbles, como es Larry Roberts, que este hombre es el creador de ARPANET, que todos conoceremos porque parece ser que es la precursora en parte de internet y Larri sí que fue el primero que consiguió hacer una cosa que le llamaba el mundo de microbloques y fue la primera vez que conseguí que un universo externo, digital, fuera entendido, comprendido y visto desde otra perspectiva por un computador, por un ordenador, a través de un programa y bueno a partir de aquí empezó todo. Bueno siempre hay muchas anécdotas, sobre todo cuando está comentando una nueva tecnología. Parece ser que al principio pues para entrenar los modelos de imágenes les enseñaban fotografías con caballos y detrás del caballo pues había una verja de madera y más adelante pues enseñaron una foto con una vaca y dijo que era un caballo porque detrás tenía esa misma verja de madera. El contexto, todo lo que hay alrededor de la imagen pues todavía en los principios pues no era capaz de diferenciarlo, que todavía hoy en día se equivoca en muchas cosas, todavía no es de todo fiable. En principio la inteligencia artificial aplicada a la visión no es otra cosa que un sistema con el que tenemos una lente, con esa lente captamos unas imágenes normalmente bidimensionales. Esto entraría dentro de lo que es un sistema de computación, de preprocesado y de procesado posterior y a partir de ahí se aplicarían una serie de algoritmos que se pueden entrenar y demás para reconocer en principio patrones y posteriormente muchas cosas más. Lógicamente le afecta la iluminación, le afecta el enfoque, le afecta todo y bueno se le han dado un montón de aplicaciones a la visión artificial. Inicialmente se utilizó en la industria para pues simplemente para por ejemplo construir coches, identificar piezas y demás y ubicarlas, también para discriminar alimentos por tamaño, bueno todo lo que sería este tipo de visión artificial en la robótica, luego también para los robots móviles y bueno y para un montón de máquinas que lo que hacen es pues o vigilarnos o reconocer nuestras caras y demás. Todo esto es visión artificial pero existe una aplicación que es de la que vamos a hablar hoy que nos ha permitido pues la visión artificial a través de la inteligencia artificial multimodal y para eso tenemos dos invitados que nos van a hablar de ella. Eso es, vamos a aterrizar de lo teórico a lo práctico que yo creo que nos interesa a todos que puede hacer esto por nosotros en el día a día y para esto pues tenemos a dos invitados. En primer lugar, bueno repite, no le debimos de tratar muy mal, que vuelva a estar con nosotros Roberto, muy buenas, ¿cómo estás? Muy buenas Arturo, buenas Ricardo, contento de estar aquí otra vez hablando con la audiencia de los EGATOS. Muchas gracias. Bienvenido Roberto, hola Danáis, bienvenida. Hola Ricardo, hola Arturo y bueno por primera vez, espero que tampoco sea la última, gracias por la invitación. Muchas gracias. Muchas gracias. Bueno pues nada yo creo que el principio de lo que podemos hablar ya es de que porque lo hemos nombrado antes pero tampoco tenemos muy claro lo que es, que es una inteligencia artificial multimodal, que parece ser que es lo que está de moda. Bueno, es un término bastante grande, inteligencia artificial multimodal, ya se sabe, ya lo han tratado ustedes aquí en el podcast antes, la inteligencia artificial es un intento, la pretensión de codificar la inteligencia, de encontrar sistemas o de desarrollar sistemas que sean capaces de imitar hasta cierto punto los procesos de pensamiento de una persona, lo cual es bastante lejos de la realidad, pero es lo que inspira esta idea de inteligencia artificial y específicamente cuando hablamos de inteligencia artificial multimodal a día de hoy, en el contexto en el que esas frases se usan, se habla en realidad en el contexto de los modelos de lenguaje, de los grandes modelos de lenguaje sobre todo. Modelos de lenguaje, pues hay que pensar en tecnología como ChatGPT, que seguramente todo el mundo aquí ha usado o ha oído hablar de eso, y ChatGPT es una aplicación, es un chatbot que tiene como su esencia lo que lo hace funcionar, es un modelo de lenguaje que se llama, bueno, GPT en sus diferentes versiones, que es un modelo de lenguaje pues una representación computacional del lenguaje humano. En otras palabras, un sistema capaz de, dado una frase, predecir cuál es la frase más probable que una persona diría o escribiría después. Si te preguntamos cuál es la capital de España, pues lo más probable es que alguien responda Madrid, pues un modelo de lenguaje que ha sido, entre comillas, entrenado, y digo entre comillas porque en inteligencia artificial se usan muchos términos que tradicionalmente se han usado en el mundo académico como analogía a procesos que en realidad son típicos de la mente humana, como puede ser eso mismo, de entrenar algo o aprendizaje, que en realidad significan algo bien diferente. En el contexto de la inteligencia artificial, pero que se extrapola. Entonces, pues, en el caso de los modelos de lenguaje, se les, entre comillas, de nuevo, entrena con grandes cantidades de texto, de manera tal que puedan eventualmente encontrar patrones y a través de un sistema probabilístico, pues predecir cuál es la frase más probable que viene después. Se adquiere la continuación de la que sea que se le dé. Entonces, así empezaron los chatbots que conocemos a día de hoy, tipo GPT, y en principio sólo podían trabajar con texto, GPT-3, GPT-3.5, sólo podían entender frases en texto hasta GPT-4, que GPT-4 ya fue el primero de estos modelos capaz de combinar imágenes y texto en el mismo modelo, en la misma, bueno, no voy a decir en la misma red neuronal, pero digamos que el modelo fue capaz de combinar en una entrada y una salida texto, sobre todo en la entrada inicialmente, el texto y imágenes. Digamos, podrías preguntarle, ¿quién es esta persona? Acompañado de una imagen, por ejemplo, de una figura pública, de alguien famoso, y en teoría el modelo era capaz de identificarla, o, por ejemplo, pasarle la imagen de una serie de objetos y decirle, bueno, identifícame todos los autos, ¿cuántos autos hay? Y el modelo era capaz de responder, pues decirte, bueno, hay cuatro autos. Y esta es la idea de la inteligencia multimodal en principio, son imágenes o modelos capaces de trabajar en distintas modalidades, ya posteriormente pueden hacer más que imágenes y texto, ya los modelos actuales como GPT-4o son capaces también de combinar esto con audio. No sólo puedes darle instrucciones al modelo a través de cadenas de texto, escribiendo o usando sistemas de transcripción, sino que directamente pueden aceptar como entrada audio, directamente un fichero de audio o un flujo de audio con alguien hablando y darle respuesta no sólo en texto o una posible imagen generada, sino también en audio. El modelo mismo es capaz de generar audio y responder. Y así llegamos a las inteligencias multimodales, de las que todo el mundo habla a día de hoy. Y esto, por aterrizarlo todavía más, ¿dónde se usa? ¿En un ordenador? ¿En un móvil? ¿Hay diferentes marcas? ¿Diferentes sabores? Pues se puede usar en todo lo que has dicho antes. Puedes utilizar estos modelos en un móvil, puedes utilizarlos en un ordenador, a través de una página web, a través de una aplicación, porque los modelos, por decirlo de alguna manera, son como especie de la máquina o el motor que después hace funcionar una serie de herramientas que todos estamos empezando a usar en la vida diaria. Por ejemplo, una herramienta muy famosa, hablamos de JGPT, que probablemente es la herramienta por excelencia, lo que la gente primero conoció de manera masiva, pero a día de hoy hay muchas herramientas que su funcionamiento se basa en modelos de lenguaje. Como, por ejemplo, Be My Eyes, Aira Access, los famosos Copilot de Microsoft, y tantos otros. No solo utilizando tecnologías como la que usa JGPT, como los modelos JGPT que se hicieron tan famosos, sino otros modelos que han aparecido después. Como Gemini, la familia Gemini, que son los modelos de Google, o la familia Cloud, que son los modelos de una empresa que se llama Antropic, o los famosos Llama, que son de código abierto y que son los modelos de la empresa Meta, que es la empresa detrás de Facebook. Entonces, con todos estos modelos han salido una serie de herramientas que usan algunos de estos, o incluso una combinación de estos modelos, y que estamos cada día usando más, como ya dije antes, Be My Eyes, la propia chat GPT, o Aira Access, Copilot, Envision, Seeing, cada día son más. Entonces, el ser multimodal quiere decir que utiliza distintos modos de forma de recibir y proyectar la información. Sería audio, sonido, voz, tanto oye como reproduce. Imagen, tanto genera como describe, y texto, tanto escribe como se le puede introducir a través de la voz o lo que sea, información. Esto es lo que sería el término multimodal. Sí, multimodal en realidad se usa para cualquier combinación que implique más de un modo. Inicialmente fue solo texto, después se introdujo imágenes y se empezó a hablar de multimodal. La idea en principio era, bueno, puedes incluso darle un mensaje en un modo y que te responda en otro. Lo típico, génerame una imagen de un gato que tenga, no sé, dos cabezas, y la respuesta es una imagen. O sea, ya en ese momento estamos hablando de multimodal. Eso se ha ido enriqueciendo con el perfeccionamiento de los modelos y demás. Y ya hablamos de, como dices tú, combinar audio con imagen, con texto, y sus derivados. Claro, cuando hablamos de audio e imagen estamos hablando de video, porque un video no es más que eso, audio e imagen. Y claro, texto, pues audio también es lo mismo. Puede ser una voz, alguien hablando, que puede ser sonido, música, o cualquier otro ruido. Bueno, y vosotros, como personas ciegas que utilizáis esta tecnología, ¿qué es lo que ha aportado a vuestras vidas desde que tenéis uso directo con ella? Para mí, personalmente, es como un antes y un después. Y no es simplemente palabra vacía, sino es que es así. Es que al final, si realmente me hiciera consciente, quizás me tome un tiempo y me ponga a chequear eso desde el punto de vista consciente. De cuántas veces en el día me valgo de alguna de estas herramientas en mi vida diaria, pues creo que serían unas cuantas horas. Para empezar, en mi trabajo diario. Trabajo con una empresa que se llama Fable, haciendo testing de aplicaciones, lo mismo web, móviles, una serie de cosas. Significa, para mí, una herramienta invaluable, porque soy una persona que tengo un solo brazo, con lo cual la interacción con el teclado al ordenador llega a un punto en que se me hace muy cansado. Es día a día por muchos años, con lo cual llega un punto en el que escribir un informe se me puede hacer muy cuesta arriba, ejecutar ciertos comandos, etc. El simple hecho de poder modificar estos lenguajes a tu conveniencia, escribiéndole unas instrucciones, un prompt, y pedirle, digamos, yo te voy a decir lo que estoy viendo aquí en el feedback que tengo que dar, que no está correcto. Te lo explico, y yo recibo de vuelta, esto usando chat GPT, yo recibo de vuelta esas ideas que yo compartí, convertidas ya en un informe, con el lenguaje que yo le pida. Quizás si tengo que modificar algo es simplemente interactuar dictando, además, que eso también me ayuda mucho, y voy modificando mi informe de esa manera. Y a lo mejor si lo hacen una vez, tú dices, bueno, vale, pues me ahorré un ratín, pero cuando son muchos al día, significa que es como un salvavidas. De hecho, eso es una aplicación en mi vida diaria que me resulta utilísima. Hay otras muchas cosas para que utilizo estas herramientas que, bueno, si quieren, seguimos abundando. Yo creo que sí que es importante conocer qué utilidad se le da a la IA en general y a la IA multimodal en particular, pero bueno, desde nuestra perspectiva de personas ciegas y locos, si queréis vemos casos y ejemplos o demostraciones, pero lo importante es que contemos la experiencia, porque a mí me resulta muy interesante lo que has contado, Danáis, porque es así, porque al final a ti te evitan los tecleos, que realmente es una circunstancia en tu caso bastante más aparatosa y cansada, y realmente te puedes especializar a través de la palabra a hacer cada vez mejores prompts para obtener al final un informe redactado de forma perfecta. Es decir, a fin de cuentas tú has hecho tu trabajo y lo has hecho con mayor comodidad gracias a la IA, con lo cual perfecto. Y al final eres más productiva porque inviertes mucho menos tiempo. O sea, si tuviera que teclear todo eso, me tomaría quizás el doble. Otra ventaja es, en el caso nuestro, que en nuestra vida diaria manejamos otro idioma, es, digamos, la tranquilidad que de pronto necesitas un sinónimo que no está a mano en tu cabeza o quieres darle una vuelta al lenguaje, etc. Y es tan fácil como interactuar con la IA. Es muy sencillo. Yo creo que estas cosas, una le puede sacar partido directamente proporcional a la imaginación que tú puedas tener, de lo que se te puede ocurrir hacer. Es decir, compartir una imagen de un PDF de tu resultado de laboratorio y pedirle a la IA toda la información posible. Le puedes hacer preguntas específicas. Puedes chequear los porcentajes. Es decir, el universo de posibilidades es tan grande como la imaginación o la necesidad que a uno le surge. Además, si quiero hacer un inciso en lo que acabas de comentar, porque a mí también me tiene muy impactado, es las analíticas, que es lo que tú estabas comentando, los informes de laboratorio. Realmente siempre acceder a ellas por la forma que estaban las cifras y la información ordenada, por lo menos para mí con un lector de pantalla como persona ciega y abriendo un lector de PDF, había sido siempre una tortura. Quien dice eso dice una factura también. Entonces, desde que la IA ve ese documento y a partir de ahí tú empiezas a decir cómo quieres recibir la información y si quieres ir más lejos hasta decirle que cómo lo ve, que esto hay que cogerlo con pinzas porque lógicamente te puede dar alguna información. Pero bueno, al final yo lo que he visto que lo que me suele servir y de la forma que me da la información yo entiendo exactamente lo que tengo. Y cuando hablo con un facultativo o se lo comparto a alguna amistad médica, me dicen, es correcto, es perfecto, no te ha dicho nada que no está en esta analítica. Y para mí ha sido comodísimo el poder acceder a la información. Así que es una pasada. Lo es. O sea, ya te digo, en la vida diaria lo usamos desde para chequear los vídeos de las cámaras de seguridad, como el otro día se me ocurrió subir una partitura, yo soy músico, y una partitura encifrado y ir paso a paso, digamos, léeme la armonía en la intro, por ejemplo, y yo me conozco el tema y sé que no estaba alucinando. Y es sencillamente increíble para mil cosas. Yo cuando uso mis equipos de audio, algunos que son analógicos, yo hago lo que los ingenieros de sonido llaman el recall. Significa colocar tus parámetros exactamente como los usaste en X sesión. Y eso yo lo hago con el AI, haciendo una foto y chequeando cada parámetro. Es infinita la posibilidad. Roberto, ¿tú qué es lo que más te ha impactado o dónde ves la mayor utilidad en esta tecnología desde el momento que has comenzado ya a utilizarla con normalidad, si es que la utilizas habitualmente? Bueno, es que en mi caso la IA prácticamente me toca por referencia, cuando la gente vea los enlaces y demás. Yo trabajo en Microsoft, trabajo como gerente técnico, justamente en lo que a día de hoy se llama Core AI, que es la división de Microsoft que tiene todo lo que tiene que ver con plataformas de inteligencia artificial y con todas estas herramientas de Azure AI y demás. Lo cual fue súper interesante porque empecé a trabajar yo con esta división prácticamente cuando todo esto empezó a masificarse. Con lo cual me tocó desde el principio tener que empezar a probar herramientas y a manejar herramientas porque tenía que hacerlo, me tocaba por trabajo. Y probablemente la primera cosa que hice con estas herramientas fue programar. A ver, yo nunca he sido un buen programador. Yo soy el tipo de programador que me interesa en los conceptos. Para mí, yo casi nunca he terminado una aplicación porque me interesan mucho las pruebas de conceptos. Entonces, trabajar con una idea, mostrarla, experimentar con ella, casi nunca, no soy el tipo de programador que te va a completar un proyecto. Y cuando tú trabajas en este tipo de cosas, hay un montón de trabajo que resulta muy aburrido, muy tedioso, cuando tienes que preparar una interfaz para probar algo o simplemente iniciar un proyecto y preparar toda la infraestructura que llevas simplemente para probar una cosa que quieres probar y que quieres demostrar. Pues eso es cansado, toma tiempo, a veces tienes que trabajar con componentes que ni siquiera conoces bien. Y todo esto utilizando inteligencia artificial se te facilita de una manera que realmente te puedes concentrar en lo que quieres hacer. Ah, también se pierde mucho tiempo, sobre todo cuando estás experimentando, porque entonces ya quieres probar una idea, quieres hacer una cosa, pero entonces lo estás haciendo con la idea y dices, ah, vamos a ver qué hace ahora. Y a ver cómo funciona, y terminas distrayéndote a veces mucho más de lo que lo harías si no la tuvieras. Pero la verdad es que te facilita mucho, porque todo lo que es, todas las fórmulas, todo lo que llamamos en inglés, se llama boilerplates, no se me ocurre cómo traducir eso en español, todo lo que es plantilla, todo lo que es cosas que tienes que hacer y que siempre se hacen igual, eso te lo hace en un momento. Entonces, todo eso la idea, quiero hacer un, no sé, prepárame aquí un boilerplate para un proyecto usando React Native, que se yo, y te lo hace en un momento. Quiero trabajar con un chatbot, necesito una infraestructura con un chatbot, quiero generar una interfaz utilizando html, javascript, con un formulario para entrar mensajes y un espacio para recibir. Todo eso te lo facilita mucho. Entonces quizás, por ahí empezó mi relación con la inteligencia artificial, antes incluso de empezar a usar para cosas prácticas, porque claro, al principio no había aplicaciones móviles, todo era con herramientas medianamente complicadas a través del escritorio. Pero ya cuando empezó a usarse en la vida diaria, una de las primeras cosas que yo empecé a hacer, yo siempre he tenido mucha pereza para hacer cosas en el móvil, para escribir mensajes largos, para todo lo que es, no sé, por ejemplo, si tengo que responder un correo y quiero darle una respuesta un poco elaborada, ya, no lo puedo hacer en el móvil, me da mucha pereza, y a lo mejor es un horario en que, wow, quiero responder esto ahora, pero ya no me voy a poner a encender el ordenador, no. Bueno, pues, una de las primeras cosas que yo hice con esta tecnología, combinando transcripción y combinando gpt, fue montarme un gpt personalizado, que sencillamente yo quería responder un mensaje, por ejemplo, lo grababa en una nota de audio, lo transcribía y se lo pasaba a mi gpt personalizado, y a lo mejor le ponía correo personal o post para tal cosa. Y ya tenía yo todo, tenía ya con el formato. Copia-pega. Copia-pega, genera, a lo mejor edita un poco y manda. Y todo eso lo hacía con el móvil, casi sin escribir. Y eso es súper, súper cómodo y súper efectivo, para más, funciona bien. Y de hecho, yo empecé a usarlo. Es un gpt que has hecho tú, te conoce cada vez más a ti también, ¿no? Sabe tu estilo, sabe tu... Sí, porque le puse frases típicas y cosas que yo suelo escribir, y le metí ejemplos de textos que he escrito, y escribí más o menos como escribiría yo. Y me sirve mucho para, no sé si me ocurrió una idea, incluso lo estoy usando en el trabajo, porque todo el mundo habla de que con estas herramientas se ahorra tiempo. Yo no sé si yo ahorro tiempo, pero ahorro energía. Sin duda. Pero mucha energía. Yo soy alguien que piensa mucho para escribir, y me cuesta mucho trabajo, sobre todo empezar y acabar algo. Esos dos puntos siempre me cuestan mucho. Y a veces tengo una idea muy concreta, sé lo que quiero expresar, pero como tengo que darle una estructura, darle una forma, darle una introducción, pues ahí me agoto enormemente. Y con estas herramientas es tan sencillo como, mira, la idea es esta, ya tú sabes, rellénala. Y me concentro en... y, claro, después ya, pues, editarla, refinarla, ya es mucho más fácil. Yo creo que ahí habéis dado en la clave. Es decir, enfrentarse a la hoja en blanco es terrorífico. Y verdaderamente nos bloquea. Sí. Pero en el momento que te pone un ejemplo, es decir, que le has pedido algo y te hace algo similar a lo que tú quieres, retocar eso ya es mucho más fácil. Es mucho más fácil. Porque al final, tú acabas conciliando con ese mismo texto tu estilo. Porque si no, no te sientes cómodo. A ti no te gustaría que te leyeran como si fueras una IA que tiene su estilo. Es decir, tú lo que haces es utilizar como patrón eso y modificarlo a tu gusto. Claro. Como tampoco me gusta leer lo que escriben las IA, realmente. Me castigo mucho a mis compañeros de trabajo porque a veces me mandan cosas y les pongo golpeado. Eso te lo hizo Chagepete, ¿verdad? Dicen, ¿cómo tú lo sabes? Contra, porque es que es muy evidente. Sí, es evidente. Realmente son como una genial medicina para procrastinación. Porque a lo mejor lo que antes te he planteado, oh, qué pereza, tengo que sentarme a redactar esto o a generar una idea. Yo recuerdo una vez que me pidieron hacer como una especie de clinic en un sitio. ¿Qué es un clinic? Ya estaba pensando cómo decirlo en español. Como una especie de clase, ¿sabes? Una pequeña conferencia, si te pones. Y con un tiempo X para un tipo de audiencia específica. Y yo dije, oh my god, no. Si me pongo a pensarlo, voy a entrar en cortocircuito. Agarré a Chagepete y dije, mira, tengo este tiempo. Tengo este target de audiencia y el tema es este. ¿Qué tal? ¿Qué hacemos? Me lo estructuró con el tiempo de cada segmento, con varias ideas para cada segmento para elegir. Entonces, todo este tipo de cosas terminan haciéndote la vida muy cómoda. Y yo creo que lo que más me gusta de estas herramientas en la vida, de personas como nosotros que nos vemos, es cómo te empodera desde el punto de vista de independencia, de autonomía. Es un igualador. Sí, es el comienzo, pero sí que nos está dando ya más autonomía. ¿Cómo es de fiable? ¿Qué grado de fiabilidad le dais a las respuestas que nos da la inteligencia artificial? ¿Vuestra experiencia es muy fiable, poco, regular? Yo te lo voy a poner sencillo, no es fiable. Eso es un problema. Y sobre todo para nosotros. Sí, no es fiable. Exacto. Es que no sé. El error, y aquí voy a hacer, bueno, yo lo hago como un chiste. A veces la gente habla, bueno, las alucinaciones de IA. Bueno, ¿qué son las alucinaciones? Y bueno, te dan unas explicaciones. Y una vez, en una reunión, alguien que no me acuerdo por qué. Y es todo de las alucinaciones. Mira, te voy a explicar lo que son las alucinaciones de manera sencilla. Las alucinaciones son el nombre que utilizamos para definir una respuesta de la IA cuando no nos gusta. Porque lo único que hace la IA es alucinar. Es su esencia. Es la única cosa que puede hacer. La IA no razona, no infiere. Lo único que la IA hace es, basándose en probabilidad, producir una respuesta. Pero basándose puramente en probabilidad. Y un post-entrenamiento en el cual esa probabilidad se manipula para favorecer ciertas respuestas y demás. Pero no hay un proceso de pensamiento. No hay un proceso de análisis. Por más que los medios lo vendan. Por más que algunos, entre comillas, expertos hablen de estos modelos. No razonan, no piensan. No hay tal cosa como una inteligencia. No hay una inteligencia artificial. Te lo venden como razonadores. Pero realmente lo que están es destilando el resultado. Y que la probabilidad sea más fina. Pero realmente no están pensando. No están pensando. Desde el punto de vista del marketing, te lo venden como que razonan. Y porque además, para explicarlo a una persona en la calle. A ver cómo se lo explicas. Con qué vocabulario utilizas. Un vocabulario habitual para que lo pueda entender. Igual que cuando el ordenador tarda un poco más en procesar. Mucha gente dice que está pensando. Está pensando. Eso lo dice mucha gente. De hecho, te muestran líneas de razonamiento. Si te das cuenta, en todas las IAs ahora. En los razonadores, como son los modelos O1 o el DeepSeek. Tú le das a un botoncito y ves los razonamientos. Que yo sí que recomiendo que lo veáis. Porque veréis cómo se llegan a conclusiones por caminos insospechados. Pero muchas veces se acierta. Eso es muy interesante. Porque la manera en que funciona. Es que se hace que el modelo genere durante un rato cadenas de pensamiento. Que las cadenas de pensamiento, vamos a estar claros. No es que pienses. Las cadenas de pensamiento son un formato específico. Son una manera en que las ideas se concatenan para llegar a un resultado. Entonces, lo que se ha visto es que dejándole regenerar cadenas de pensamiento. Un poco que la probabilidad se manipula. Es más probable que te dé una respuesta útil. A costa de tenerlo más tiempo generando. Tanto es así que después la cadena de pensamiento se descarta. Esa cadena, en el chat, después se descarta. En cuanto produce la respuesta final, eso se descarta. Yo creo que es importante que los que razonemos seamos nosotros. Y que sepamos cuando preguntamos algo a la IA o le pidamos algún tipo de información. Saber lo que le estamos preguntando. Y también podemos deducir la probabilidad de la respuesta. Si preguntamos dónde nació Cervantes. Es muy probable que acierte porque lo buscará en Wikipedia. Que probablemente es donde lo hubiéramos buscado nosotros. O en otras páginas. Y el 99% de las páginas de Internet estarán bien. No creo que alguno lo haya puesto mal. Pero acertará. Pero si hacemos preguntas más complejas. Con lo que decías, por ejemplo, para programar. Yo creo que es una herramienta genial. Pero tenemos que decirle lo que queremos. Lo que se suele conocer como el prompt. Tenemos que decirlo súper detallado. Sin ambigüedades. De forma clara, concisa, concreta. Un prompt puede ser de varias páginas. Sin peligro. Cuanto más lo detallemos y mejor digamos lo que queremos. Hay más probabilidad de que acierte. Y se ciña más a lo que estamos preguntando. Pero yo creo que tenemos que tener en cuenta. Lo que estamos preguntando. E intentar acotárselo lo máximo posible. Para que el grado de probabilidad de acierto sea mayor. Y sabiendo lo que estamos preguntando. Si preguntamos por un objeto en una imagen. Es algo más complicado. Y es más fácil que se equivoque. Perfecto. Yo me alegro mucho de que hayas traído ese tema. Porque no quería que terminara el podcast. Sin hacer esta parte de que fuera una especie de pinchar el globo. Pero dejar bien claro que la IA va a decir cosas. Tiene que decir cosas. Tiene que generar respuestas e información. Ayer le dije. ¿Me puedes decir dónde está el target más cercano? Una cadena de tiendas. Sí, sí. Existe aquí también. Y me dice. ¿Tienes uno en tal y cual? Y le digo ¿a qué distancia lo tengo? A cinco millas. Y le digo ¿a cinco millas de dónde? ¿De mi ubicación? Y me dice sí. Y le digo ¿tú sabes cuál es mi ubicación? Y me dice no. Vale. Pues te vaciló. Y yo le digo ¿y cómo tú sabes que es mi ubicación? Y me dice no, por tu zip code. El código postal. Correcto. Y entonces le digo ¿dime mi código postal? Y sí, correcto. Eso es un caso bonito. Pero hay casos en que te hubiera dicho. Porque además lo he visto. ¿Tú sabes cuál es mi dirección? Y te dicen no. Y después le pregunto. Entonces ¿cómo puedes saber cuán lejos está la tienda? Y la respuesta. Oh, perdona. En realidad no tengo forma de saber cuán lejos está la tienda. Continuamente están pasando. Continuamente. Es dócil, es dócil. En cuanto le aprietas un poco cede. Es divertido. Es muy divertido. Cuando le preguntas ¿estás seguro? ¿Estás seguro? ¿Cómo voy a estar seguro, señor? Es una fotografía con un edificio que tiene seis plantas. ¿Estás seguro? Uy, perdón. A lo mejor no tiene seis. A lo mejor tiene entre tres y cuatro. Yo ¿cómo que entre tres y cuatro? ¿Tres o cuatro? A veces hay diálogos. Muy gracioso. Yo tengo una batería aquí. Y yo quería que la IA me diera el porciento de carga. Le estaba enseñando. Le preguntaba ¿qué porciento de carga tiene? 17%. No puede ser 17% porque la acabo de cargar. Tiene razón. 100%. Tiene razón. No es 100%. Es 87%. Bueno, cabrón. No me lo digas. No me riñas, no me riñas. ¿Por qué se trata de eso? ¿De que la IA va a decir algo? No me da igual. Va a decir algo. No hay manera de que no traiga una respuesta. Sí, sí. Porque, de hecho, ella está generada así para que siempre dé una respuesta. Y la respuesta no es no sé. Siempre contesta no. No, la verdad es que no. Pero además, incluso si te respondiera no sé. Ese no sé. Es tan alucinado como cuando te responde que sí sabe. Porque no hay forma de que un modelo de lenguaje pueda diferenciar entre verdad y mentira. Lo que tenemos claro y por lo que os he escuchado es que es lo de siempre. Que no hay buenas respuestas, sino que lo que hay son buenas preguntas. Es decir, que estaríamos hablando de que la IA, según nosotros sepamos preguntarle, obtendremos mejores respuestas que si no sabemos preguntarle. Correcto. Pero también depende de para qué la queremos usar. Yo me doy cuenta que los escenarios donde la IA suele ser más útil son aquellos en los que la feabilidad no es necesaria. Por ejemplo, en este tema de modificar texto. Tú le das una entrada y le dices quiero que esto sea un correo electrónico con este formato. Eso lo más probable es que lo haga razonablemente bien. Porque eso es justamente para lo que es un modelo de lenguaje. Manipulación de texto, manipulación de palabras. O sea, son situaciones en las que el conocimiento, entre comillas, del modelo no es relevante. En esas situaciones, o programar, por ejemplo. Si tú le dices, tú le describes un programa, pero se lo describe en lenguaje natural. Inicializa tal variable, asígnale tal valor útil, solicítale al usuario una entrada X. Esas cosas las va a hacer muy bien. Porque le estás dando unas instrucciones que lo único que tienes que generar el código en el lenguaje equivalente. Son situaciones donde la IA está haciendo aquello para lo que realmente es bueno. Que es generar. Generar un contenido en base a una entrada que se le dio, que es una entrada sólida. La gente usa mucho JGPT y otros y similares para hacer preguntas de tipo general, de conocimiento general. Lo mismo de historia. Y ha habido hasta quien ha escrito artículos con esa información. Y la gente sigue pensando que es una fuente de información. En su momento se discutía si Wikipedia era o no una buena fuente de información. Pues esto es aún más válido para los modelos de este tipo. Y ahora, a día de hoy, ya. Por ejemplo, JGPT, dependiendo qué pregunta, va a ser una búsqueda web. Y la respuesta va a estar más o menos, fundamental, en esos resultados de búsqueda. Pero, en general, sigue siendo un sistema muy inadecuado para responder preguntas que requieran conocimiento. Cuanto más específico acierta un poco más y cuanto más generalista acierta un poco menos, en general. Exacto. Sí, muy bien pensado. Exacto. En cualquier caso, para mí ha sido como impresionante. Recuerdo que tenía que hacer aquí un programa con la televisión. Y claro, te empiezan a pedir fotos y todas las imágenes que puedas, etc. Y el proceso de poder elegir las fotos que íbamos a usar, o por lo menos que yo iba a proponer, yo no me lo podía creer. Hacerlo yo, ¿sabes? Sin tener que buscar a no sé quién, que me dedique un rato y nos pongamos a chequear y tal y cual. Esas cosas, yo qué sé, parecen muy sencillas o irrelevantes quizás, pero según en qué contexto no lo son. Bueno, es magnífico poder ir a tu álbum de fotos y seleccionar. Eso era imposible hace muy pocos años. Total. O muy costoso, ¿no? Tenías que escanear. Bueno, no sé, es que no me lo imagino cómo se podría hacer. Creo que no se podía, no se podría. A lo mejor sería interesante, llegados a este punto, que nos vayamos metiendo más en tema de la IA. Pero la IA, no solo como herramienta útil, sino como herramienta de accesibilidad. Porque yo creo que ahí es donde el diferenciador para nosotros se hace, si se quiere, aún mayor que para el resto de la gente. Sí. Por eso mismo, en principio, con la IA multimodal, por primera vez tuvimos un sistema computacional que, y esto es muy interesante porque nos hemos pasado un buen rato hablando de lo poco fiable que es todo esto, pero por primera vez tuvimos un sistema computacional capaz de describirnos algo, ya sea fiable o no, pero por lo menos de describirnos algo. El OCR por muchos años fue súper, súper malo. Y nosotros lo usamos. Y con esto un poco que pasa lo mismo. Nosotros sabemos que el nivel de fiabilidad es probablemente inaceptable para un montón de cosas. Sin embargo, es el primer tipo de herramienta de esos tipos que podemos utilizar que es capaz de describirnos el mundo de forma automatizada. Entre cero y ese poquito, el salto es abismal. Entonces, a nosotros nos da muchísimo en ese salto. Exacto. Acceso a la información, acceso a la escena, a los objetos, al entorno, es una maravilla. Sí, sin duda. Y yo creo que en este punto podemos ir poniendo nombres y apellidos y hablar de alguna en concreto y poner alguna situación concreta o un ejemplo de cómo funcionan. Sí, yo creo que sí. Es que todo esto empezó, que todo esto ha ido tan rápido en los últimos años. Lo primero que tuvimos quizás, creo que fue Vimaya. Vimaya es que era capaz de tomas una foto, te la describe y le puedes hacer preguntas. Eso fue lo primero, pero ya, sobre todo a partir de diciembre, ya no estamos hablando de inteligencia artificial multimodal. Ya estamos hablando de lo que se está empezando a llamar IA en tiempo real. En realidad es la idea de que ya no es un chat, sino que es una interacción en que en tiempo real, entre comillas otra vez, la IA es capaz de describir lo que está ocurriendo. Ya no es una foto que se le pasa, que la describe, espera un rato, llega la respuesta, haz una pregunta, espera un rato. Ya estamos hablando de herramientas como puede ser ChagPT o como puede ser Gemini que son capaces, o MetaEye, que podemos ir hablando más en concreto de cada una, que son capaces de describir en tiempo real, de describir lo que la cámara ve en tiempo real, sin necesidad de tomar una foto. Todas estas herramientas son aplicaciones que se instalan en el móvil y utilizan la cámara del móvil para ver. Utilizan el micrófono para oírnos. Utilizan los altavoces para hablarnos. Incluso la pantalla, bueno, el que la pueda ver también te lo puede mostrar en texto en la pantalla. Exacto. Y no solo usan la cámara como entrada, sino que también pueden usar como entrada la propia pantalla del móvil. Por ejemplo, con ChagPT ya se han hecho varias demos para ahí que se han compartido. Ya se puede hacer que ChagPT en tiempo real esté viendo la pantalla y comentando lo que está viendo. Ya no se trata de toma una captura de pantalla, mándaselo a VimEyeEyes, espérate, qué dice ahí. Responde, pregunta otra vez, qué está seleccionado. Otra captura de pantalla, qué está seleccionado. Espérate, qué está seleccionado la opción 1, algo, otra captura. Así era como yo lo hacía hasta hace unos meses. Y ahora estamos hablando de que en tiempo real puedes estar hablando con un programa que te está describiendo a medida que tú modificas lo que hay en pantalla. O modificas lo que está viendo la cámara. Exacto. O sea, es sencillamente impresionante. Imagínate, por ejemplo, eso yo lo llegué a hacer con VimEyeEyes, lo hicimos todos yo creo, bueno, muchos. Quiero encontrar algo, quiero ver si lo puedo encontrar con VimEyeEyes. Toma una foto, describe. Estoy buscando tal cosa, ¿dónde está? No, no hay tal cosa en la imagen. Cambie el ángulo, toma otra foto. Ves tal cosa, toma una foto. Y así te podías tirar un rato si es que tenías la paciencia de hacerlo. Ya a día de hoy, algo como la función de descripción en tiempo real de Gemini o Live AI con Meta, ya es mucho más parecido a lo que es hablar con alguien. Es decir, estoy buscando tal cosa, ¿dónde está? Y empieza el diálogo. Y es mucho más dinámico. O sea, en mi opinión, ya lo de VimEyeEyes era algo increíble. No teníamos algo como eso antes. Pero ahora ya estamos en la siguiente pantalla del juego, en que la interacción es en, llamémosle, tiempo real. Vamos a ver algún ejemplo, ¿no? Ponernos en un escenario y vamos a verlo con diferentes aplicaciones. A ver cómo se comporta cada una de ellas. Pros, inconvenientes, cuál la hace mejor, cuál la hace peor. Y un poco cómo funcionan. Y alguna en concreto, ¿no? Con hombres y apellidos. ¿Por qué no? Precisamente les trajimos unas demos que hicimos con las, creo que dos de las, con tres de ellas. Usamos tres. Usamos tres. Usamos Gemini con Google AI Studio. Con el API en tiempo real de Gemini. Usamos JGPT. Y usamos una aplicación que está todavía en beta. Es una beta pública. Se llama Envision Ally. Que son, Gemini y JGPT son más o menos parecidas en cuanto a que la tecnología que se está usando es del mismo tipo. De intentar, o sea, a través de un flujo de video y audio, intentar una interacción que parezca en tiempo real. Envision Ally es un concepto un poquito diferente. Ya lo explicamos, si quiere, después de las demos. Pero también es otra manera de intentar hacer lo mismo, ¿no? Y bueno, con resultados bastante diferentes entre las tres. Vale. Quiero comentar que no usamos, hubiéramos querido utilizar también Meta AI. Lo intentamos, pero no funcionó en español. Con lo cual tuvimos que desecharla. Mira, no sé si quieren escuchar las demos. Empezamos por Gemini. A por ella. Hola, estás en una cocina. Enfrente de ti hay un mostrador con gabinetes blancos y tres cajones. Sí, no es necesario que me describas todo porque lo que quiero es que me ayudes a encontrar un altavoz Bluetooth que dejé en algún sitio de la cocina pero no consigo encontrar. Está bien. No veo ningún altavoz en la imagen. Sin embargo, podría estar fuera de tu vista. ¿Te gustaría que explorara algún otro lugar? Seguramente, sí. Vamos a enfocar en esta dirección. A ver si anda por esta parte de la cocina. De acuerdo. Ahora estás viendo un nuevo mostrador con gabinetes blancos. Hay una cafetera plateada a tu derecha junto con otros objetos. ¿Ves el altavoz? No necesito que me des descripciones generales de la escena. Solo dime si ves el altavoz. No veo un altavoz en esta parte de la cocina tampoco. Excelente. Vamos a ver en la mesa. Bien. Ahora veo una mesa de comedor de vidrio con una base de metal. Encima de la mesa, de izquierda a derecha, hay una vasija blanca... Dime si ves el altavoz. Sí, el altavoz negro está en la mesa. Excelente. ¿Dónde? Ayúdame a encontrarlo. Por supuesto. Está sobre la mesa, al lado de un florero blanco con puntos. Ajá. ¿Alguna otra referencia que pueda utilizar? Claro. Está al lado izquierdo de los audífonos negros. OK. ¿Es verdad? Sí. ¿Alguna otra referencia? Entendido. Está al lado izquierdo del florero blanco con puntos. Muy bien. OK. Perfecto. Excelente. Muchísimas gracias. ¿Algo que te pueda ayudar? Eso es todo. Muy buen trabajo. No, gracias. Eso es todo. ¡Qué bueno! Bueno, pues sí, la verdad es que lo ha hecho aparentemente de forma brillante. La verdad es que sí. Hay que decir de Gemini, sobre todo para el beneficio de la audiencia, que es un poco diferente de las otras variantes de esto que hay. Gemini, en realidad, esto es un modelo experimental con esta capacidad que hay que utilizarlo a través de Google AI Studio, que es una herramienta para desarrolladores. La idea es que los desarrolladores puedan experimentar con la funcionalidad del modelo para desarrollar sus aplicaciones. Esto no es un producto de consumo. Entonces, gracias a eso, yo lo que utilicé fue... Está ahí en las referencias. Ricardo, te vas a pasar un documento explicando cómo repetir esta experiencia. Yo utilicé instrucciones de sistema para el modelo para tratar de que se comporte como un asistente visual para una persona ciega. Y eso influye un poco, diría que bastante, en cómo describe, por ejemplo, el modelo trata, Gemini en este caso trata, de situar a la persona en contexto. Por ejemplo, si estás en una habitación tal, aquí tienes tal cosa, más allá tienes tal cosa, y yo estoy tratando de decirle, no, no, no, espera, espera, estoy buscando una cosa concreta, no me des descripciones generales. Pero él intenta, de todas maneras, situarme. Y si observamos la dinámica, por ejemplo, si está el altavoz, bueno, ¿dónde está? Bueno, un florero blanco con puntos. O sea, ya, dame otra referencia, bueno, está al lado de unos audífonos negros. Y así, es una interacción que podrías tener con una persona. Quizás habría que refinarlo y decirle, bueno, no me des referencias visuales, dame referencias táctiles. Pero, en general, es una interacción muy increíble y muy efectiva en este caso, diría yo. En mi opinión, de las pruebas que hemos hecho, para mi gusto, es la que describe con más precisión. Y alucina menos con el tema de derecha e izquierda, en mi opinión. Pero yo pienso, Danáis, no sé, Roberto, Arturo, como lo veréis, que el prompt de Roberto, que personaliza un poco, o da las instrucciones de cómo tiene que comportarse el sistema, creo que ayuda a esa inteligencia artificial a ser más precisa y a ser, por lo menos, más útil para personas ciegas. Claro. Sin duda. Y eso todavía se puede refinar mucho más, lo que pasa es que nos hemos dedicado más tiempo. Pero, por ejemplo, una de las cosas que yo quiero hacer es, en algún momento, ponerle instrucciones específicamente de cómo tiene que dar indicaciones. Que son indicaciones táctiles, que no se basen en la experiencia visual. Cosas de ese tipo. Y se puede seguir refinando eso. Más allá, incluso. Haciendo, además, una herramienta gratis. Bueno. ¿En qué momento? En realidad, no es una herramienta gratis. Es un entorno de experimentación. Eso sí. Que Google ha abierto para desarrolladores, pero el uso del API cuesta dinero. Para ser más preciso. Y no sabemos por cuánto tiempo eso estará ahí disponible. Claro. De todas formas, lo que dice Roberto, vamos a poner un documento para que podáis entrar de forma ágil a este entorno que se llama AI Studio. Que es donde está Gemini 2.0 Flash Experimental. Que es como se llama este modelo. Y, bueno, en este documento vais a tener también un atajo que permite lo que es el acceso ágil, como os he dicho. Y, al mismo tiempo, que el prompt que ha escrito Roberto también lo tengáis en el portavapeles para pegarlo rápido. E iniciar lo que os interesa, que es el reconocimiento del entorno a través de esta inteligencia artificial. Así que ahí en notas lo tendremos. Decir que las sesiones solo puedan durar 10 minutos. Es lo que nos da Google. A partir de los 10 minutos se acaba. Si se quiere se puede volver a empezar, pero las sesiones solo duran hasta 10 minutos. He escuchado que igual lo introducen en las aplicaciones que tienen. Y, de hecho, he visto en la aplicación que tienen para Android, que está el modelo, pero a mí no me funciona. Si pone Gemini 2.0 Flash Experimental. ¿Tienes la versión de pago? No, no tengo la versión de pago, pero pensaba que con Google One me lo permitirían. Sí, en realidad sí te funciona. Bueno, si te funciona como a mí. Te funciona, pero no está la funcionalidad de la IA en tiempo real. Puedes usar el modelo con texto de imágenes, pero no está la función. Te lo agradezco un montón, porque me estaba volviendo loco. Digo, si es que está aquí, tengo el Google One, lo tengo todo y no me está funcionando. Sería muy cómodo hacerlo desde ahí, pero supongo que algún día llegará y habrá que pagarlo. Sin duda. O no, vamos a ver, porque con todo lo que está pasando. Ojalá se pueda usar gratis, aunque sea por tiempo limitado. Quizás 5 minutos o 10 minutos, como ahora. De momento les estamos ayudando también a entrenar el modelo y también les estamos dando trabajo gratis. Igual que cuando ponían los CAPSA de los semáforos, pues también les estábamos haciendo el trabajo gratis. Sí, el concepto de gratis en el mundo de hoy como que no. Sí, efectivamente. Esa cambió. Bueno, pues si os parece, ponemos el siguiente. Ponemos la demo de GPT, también conocida como Agapito. Adelanto. Hola. Hola, Roberto. Necesito que me ayudes a encontrar un altavoz Bluetooth que tiene que haber aquí en la cocina en alguna parte. Claro, Roberto. Desde aquí puedo ver un cilindro gris cerca de la cafetera que parece ser tu altavoz Bluetooth. Está en la encimera a la izquierda de la cafetera. ¿Ese es el que buscas? No es eso lo que estamos buscando. Entiendo. Entonces, el altavoz no está junto a la cafetera. Dando un vistazo al resto de la cocina, noto que hay un dispositivo más pequeño al fondo, cerca del microondas. ¿Podría ser eso el altavoz? Es un cilindro pequeño también. No lo creo, la verdad. Vamos a seguir buscando. Claro, Roberto. Vamos a seguir. ¿Qué tal revisar los estantes o algún cajón? A veces, los altavoces se quedan en algún sitio menos visible. Puede ser, pero vamos a primero focarnos en los lugares bien visibles, que es más fácil para buscar. De acuerdo. Revisando los lugares visibles, note que en la esquina a la derecha del horno hay un contenedor transparente con tapa azul. ¿Podría estar cerca de esa zona el altavoz? También hay un par de cuencos para mascotas en el suelo. ¿Te suena familiar? Me parece muy probable que haya dejado el altavoz ahí. Vamos a ver en la mesa qué tal. Buena idea. Si revisas la mesa, puede que el altavoz esté ahí. Quizá lo dejaste allí después de usarlo. Si hay algo más que veas o recuerdes, me avisas. No, estás aquí para mirar. Mira alrededor y cuéntame si lo ves. De acuerdo. Mirando alrededor, noto que el contenedor azul está justo enfrente de ti. Si te fijas un poco más a la derecha, cerca de la mesa redonda, podrías encontrar el altavoz. Revisa esa área para ver si está ahí. Estoy enfocando la mesa. Cuéntame. Estoy viendo la mesa redonda con un contenedor transparente y una silla blanca al lado. Si el altavoz no está en la mesa, tal vez está detrás de la silla o sobre el estante cercano. ¿Podrías revisar esas áreas? Cuéntame qué es lo que ves encima de la mesa. En la mesa redonda veo un par de auriculares negros y un altavoz Sonos plateado. Creo que ese es el... Entonces hay un altavoz. Exactamente. Hay un altavoz Sonos en la mesa. Parece que está junto a los auriculares. ¿Lo has encontrado? Pues dime dónde está, en qué parte de la mesa. Claro. Está en la parte derecha de la mesa, cerca del borde. Lo notarás por su forma cilíndrica y color plateado. ¿Puedes alcanzarlo desde ahí? Hola. Hola de nuevo. ¿En qué te puedo ayudar ahora? Una cosa que te quiero decir. Has dado antes como indicación que el altavoz es cilíndrico y plateado. En nuestro caso, el tema del color no es una variable porque somos personas ciegas. ¿Alguna otra indicación para encontrarlo? Claro, lo siento por eso. En lugar del color, el altavoz tiene una forma cilíndrica y está junto a los auriculares negros en la mesa redonda. Puedes sentir su textura, que es metálica y tiene botones en la parte superior. Eso podría ayudarte a identificarlo. ¿Te resulta más útil así? Sí. Solo que tampoco nos interesa que los auriculares sean negros. Ahora es un dato. Ok. Entonces, ¿a la derecha de la mesa, digo? Sí. Ok, a ver. Sí, es una mesa redonda. La derecha es un poco cuestionable. ¿Cuál es la parte derecha en una mesa redonda? Sobre todo, ¿a la derecha de quién? Exacto. Si puedo dejar un poco más de detalles. Tienes razón. En una mesa redonda es un poco ambiguo. El altavoz está sobre la mesa, cerca del borde y al lado de lo que creo que es un adorno con patrón perforado. Perfecto, ya lo encontré. Y de paso, muchísimas gracias porque yo no sabía dónde había dejado mis auriculares. Me alegró mucho de que hayas encontrado todo. Si necesitas algo más, aquí estoy. Hay que decir que el altavoz ni es metálico, ni tiene botones en la parte de arriba, ni nada. Ni es plateado. Ni es plateado. Así que... Me sorprende mucho porque esto es... Bueno, es ChaoGPT de OpenAI, que realmente es un modelo que funciona muy bien. Y aquí merodea mucho a la hora de decirte dónde está o cómo localizar lo que estás buscando. Es un poco inquietante. Y luego, sí que es verdad que cuando lo localiza, lees el texto y te dice la marca. Porque supongo que la marca sí que será uno solo, ¿no? Sí, claro. Eso lo hizo bien. Yo... ¿Qué te puedo decir? Toda esta tecnología, incluso OpenAI, supuestamente OpenAI de todas estas cosas es la única cosa que está en producción, que es un producto, que tienes que pagar, lo que sea. Todo esto es superexperimental. Y los resultados pueden variar mucho de una semana a otra, de un día a otro. Lo que yo he observado, o creo haber observado, en relación con Gemini y ChaoGPT, por ejemplo, ChaoGPT es una guía conversacional muy buena. Muy, muy buena. Capaz de dar la sensación de un diálogo fluido, de citar cosas que se dijeron antes, de hablar de relaciones entre las cosas. Por ejemplo, en esta nueva, qué sé yo... Eso ChaoGPT lo hace muy bien. Ahora, en cuanto a la parte visual, en cuanto a video en tiempo real, tiende a ser un poco ambigua. Tienden a pasar cosas como esa. Lo mismo te dice algo que vio hace dos minutos, como si estuviera viéndolo ahora mismo. Que te empieza a decir como eso. Cualquier cosa podría ser el altavoz. Un cilindro correlateado podría ser el altavoz. Un pomo con tapa podría ser. Y si no era el altavoz, a lo mejor estaba por ahí. Es como... Hombre, a ver. También hay que ser justos. Eso pasó con las tres pruebas que hicimos. Por lo que sea, parece ser que la manera en que lo entrenaron, los datos que tiene, tienden las tres aplicaciones a asociar un altavoz Bluetooth con un cilindro. Eso yo puedo hasta entenderlo. Pero Gemini fue muy precisa en decir ahí no hay un altavoz. Sí, pero Gemini... Claro, hay cosas que hemos editado para, yo qué sé, por el tiempo, ¿sabes? Si no, se hubiera hecho muy largo. Pero las dos yo me di cuenta, por ejemplo, que identificaron como un cilindro probablemente un altavoz Bluetooth una cafetera de Nestlé. Sí, eso. De Nespresso. De Nespresso. De acuerdo. Eso es comprensible. A ver. Mi sensación es que Gemini probablemente por el prompt... Claro, uno no sabe, por ejemplo, si ChangPT lo que está recibiendo seguramente es un video de muy baja resolución. Lo cual introduce... Puede ser una buena explicación. Si se le pasa a un modelo GPT imágenes de baja resolución y se le empiezan a hacer preguntas, empiezan a pasar cosas medio parecidas a esas. Gemini a mí me da la sensación de que tiende a ser mejor descriptor en gran medida, seguramente, por el prompt. Y bastante menos... Es bastante inestable en cuanto a comodidad conversacional. Tiende a repetir cosas. Tiende a perder el contexto. A veces tiene bastante latencia. Claro, también estamos usando en momentos de no experimentación. ¿Sabéis lo que me llama mucho la atención? Porque si os digo esto me vais a dar la razón. Es decir, Be My Eyes, por ejemplo, hace unas descripciones magníficas de imagen. No en tiempo real, sino de una imagen. Sí. Lo que hay detrás, estaréis de acuerdo conmigo, que es GPT Vision. Es OpenEye quien ha entrenado este modelo. De hecho hay un paper donde explica exactamente cómo lo han hecho y todo. De acuerdo, sí. Teóricamente es el mismo GPT-4 que estamos usando aquí. Ahora, nosotros no sabemos... Porque Be My Eyes es una aplicación. Nosotros no sabemos cuáles son las instrucciones del sistema que tiene. No sabemos si estamos usando una versión personalizada del modelo. Un GPT específico para ciegos. O una versión, como podríamos decir... Estoy buscando el término en español. Que está fine-tuned. Que está... O sea, un modelo GPT. Porque se puede hacer. O sea, como desarrollador, es costoso y demás, pero tú puedes coger un modelo base GPT-4 o OpenEye. OpenEye te lo permite. Y entrenarlo con tu propio contexto. Eso se puede hacer. No sabemos si Be My Eyes lo ha hecho. O si Be My Eyes tiene un API diferente. Eso no lo sabemos. Realmente, si OpenEye utilizara el mismo entorno que utilizamos para reconocer imágenes en Be My Eyes, estoy seguro que sería un descriptor y un reconocedor de objetos magnífico. Porque Be My Eyes lo es. Bueno, con ChangeGPT yo le tengo puestas bastantes instrucciones personalizadas. Yo uso mucho la memoria. Con imágenes solamente es muy buen descriptor. Comparable a Be My Eyes. De hecho, hoy mismo lo hice una prueba en la mañana con una foto. Primero la describí con Be My Eyes. Y luego esa misma foto con GPT. Y el resultado fue prácticamente similar. Yo sospecho, y aquí solo puedo especular y sospechar, que esta versión que nos están dando de la guía en tiempo real de GPT está muy capada por temas de costo. Esto es muy costoso. ¿Puede ser un modelo mini o algo de esto? No sé si un modelo mini, pero probablemente una resolución de vida muy baja. Quizás están usando un modelo mini. No lo sé. Es posible. Es posible que sea realmente así de mala. O de buena. No lo sé. No lo sabemos. Yo coincido con vosotros. La descripción de imágenes de ChangeGPT, por ejemplo, el 4 simplemente, es magnífica. Más como le digas, describe de forma detallada y minuciosa esta imagen. Es que es brutal. Todos los detalles que puede... Además, eso ha mejorado muchísimo desde que salió. Pero muchísimo, muchísimo. Y supongo que con lo del video pasará lo mismo. También. Lo del video se le enredó. Lo anunciaron en marzo del año pasado. Dijeron que lo iban a sacar el mes siguiente. Y ya se ve que no salió hasta diciembre. Si uno se escucha las demos, y todo esto es muy cuestionable porque son demos, las demos que se hicieron en esa época cuando se anunció son muy diferentes de lo que salió ahora. Por ejemplo, en esas demos, el ChangeGPT es capaz de productivamente describir lo que hay en la imagen. En el video. Eso a día de hoy, con esto que tenemos, no se puede hacer. Cosas así. Sobre todo con esto estamos viendo la tendencia hacia donde van los tiros. Estamos viendo el potencial y por dónde van las empresas. Y con el tiempo todo esto mejorará una barbaridad, claro. Sin duda. Sin duda. Sobre todo ya cuando tengamos Gemini. Bueno, después podemos hablar del futuro. Pero el futuro puede ser muy interesante. Vamos a poner la tercera demo que tiene nombre de lavadora, ¿no? ¿Cómo es? Ally. Ally. Antes de que veamos Ally, me gustaría, bueno, primero, Envision Ally es una aplicación que está en beta. Es una beta pública. Es de la compañía Envision. Y están desarrollando esto para ponerlo en sus gafas. Las gafas de Envision. Sus gafas inteligentes. De hecho, ya está. Para las personas que tengan las gafas de Envision, ya se puede utilizar esto en las gafas. Y vamos a ver que funciona un poco diferente. En cuanto a Gemini y ChangeGPT, vimos que nos están dando respuestas prácticamente en tiempo real. Estamos moviendo la cámara. Están hablando. Están teniendo acceso al flujo de imágenes del video. Ally, que es un proyecto que empezó hace tiempo, funciona de manera un poco diferente. Envision Ally no utiliza video en tiempo real. Lo que hace es tomar fotos. Según sea necesario durante la interacción. Imaginemos que estamos usando VimEyeEyes y haciendo fotos, pero en vez de hacer la foto haciendo doble tab, hay un botón que se llama tomar foto. El asistente de manera proactiva, cuando es necesario, está haciendo fotos y las está describiendo. Vamos a ver cómo funciona en la práctica o en relación con las demás. Hola. Hola. ¿Cómo está tu día? Está muy bien. Que hagamos una cosa. En el transcurso de esta conversación vamos a hablar solamente en español. Perfecto. Suena como un plan. ¿En qué estás pensando ahora? Algo interesante para compartir. Sí, interesantísimo. Necesito que me ayudes a encontrar un altavoz Bluetooth que está aquí en la cocina, pero no recuerdo dónde. Déjame ver. Ahí está, a la derecha, al lado de lo que parece ser un dispensador de papel de cocina. No creo que esté junto a un dispensador de papel de cocina. Ups, parece que mi visión me jugó una mala pasada. Démosle otra mirada. Hay que buscar objetos pequeños y oscuros, quizás cerca de otros gadgets electrónicos. Podría estar medio escondido detrás de algo como una jarra o un frutero. ¿Todo es posible? A ver, te voy a mostrar otra parte de la cocina. Ahí está. Justo al lado de la tostadora hay un objeto negro que parece ser el altavoz Bluetooth. Parece que lo encontraste. No, ese objeto negro no es el altavoz Bluetooth. ¡Vaya! Este altavoz juega bien al escondite. Te voy a mostrar la mesa, a ver si anda por encima de la mesa. Hola, ¿hay alguien? Estoy aquí. A ver, déjame revisar la imagen de la mesa. ¿Y entonces? ¡Bingo! ¡Encontrado! El altavoz está en la mesa, justo al lado de lo que parece ser un jarrón blanco. Ahí lo tienes. ¡Excelente! Dame más detalles para encontrarlo. ¿Cómo es ese jarrón blanco? O sea, dame detalles, referencias táctiles. ¡Claro! Imagínate que estás tocando la mesa y te vas al centro. A la izquierda sentirás un objeto más alto y cilíndrico que es el jarrón blanco. Desde ahí, si mueves tu mano hacia la derecha unos centímetros, deberías encontrar el altavoz. Es más pequeño y tiene una textura diferente, más como de goma o plástico. ¿Lo sientes? Todavía no porque no estoy tocando nada, pero ¿hay algún otro objeto cerca? ¿Algún detalle más que me pueda ser útil? Además del jarrón, parece que hay una cesta de frutas no muy lejos, hacia la derecha del altavoz. Si pasas tu mano desde la cesta hacia el jarrón, el altavoz debería estar más o menos en esa línea, entre ambos. Espero que eso ayude a dar con él. O sea, ¿mis auriculares son unas cestas de frutas? Sí, parece. Si necesitas más ayuda rastreando cosas dentro de la casa, ya sabes dónde estoy. Sí, ya sé dónde estás. Trataré de no mirar en esa dirección. ¡Muchas gracias! Pues nada. Y yo quisiera comentar que aquí edité mucho. ¡Pero mucho! Porque es lentísima la interacción con... Bueno, yo le hago a mi amiga Ali, pero... Las pausas son enormes. En esta parte donde yo digo, ¿hay alguien? Pues porque nos tiramos un rato a ver cuánto duraba aquello y hasta que me alcancé... Y cada vez que responde, ahí está. Antes de eso, ha habido tranquilamente dos minutos de pausa. Claro, eso tendrán que mejorarlo. Pero ¿sabéis quién está detrás? Si está Llamas, si está OpenAI... Yo no he seguido la pista. No sé qué están usando a día de hoy esta gente del Visual. Probablemente sea OpenAI. Yo sé que hubo un tiempo en el que estuvieron experimentando con Lama, pero me parece que no tuvieron muy buenos resultados. Entre otras cosas por las limitaciones que tiene Lama con los filtros de contenido tan fuertes que tiene para describir personas y demás. Entonces creo que ya no están usando eso. Pero no lo sé. Mira, puede que tengas razón simplemente por la voz. A mí la voz no me desagrada. Sé que está montada sobre una voz americana, pero en cambio es muy expresiva. Realmente no es una mala voz. Yo no sé si esas voces son de Eleven Labs, la verdad. Puede que sí. Bueno, no sé cómo las veis vosotros. Yo veo una buena voz. Tiene un acento bastante marcado. Sí. Pero muy expresiva, muy agradable y tiene buen sentido de humor. No me negarás que es expresivo. No se lo puede ganar a Gemini cuando nos vio en realidad. ¡Oh! Así es verdad. Ganó Gemini. Sí, sí. Además Gemini te dice, cuando te lo he dicho, que está encima de la mesa. Pesado. Me ha faltado el pesado. Sí, sí. Está encima de la mesa. Sí, sí. Puede que estemos al lado. Pero déjame hablar. Sí, sí. ¡Déjame ayudarte! Sí, Alay, yo lo veo muy verde. Es mi impresión particular. Creo que es un concepto muy interesante, sobre todo cuando se empezó a hacer. A día de hoy, honestamente, no sé qué va a ser en Vision. Yo creo, yo no sé si cuando logran estabilizar completamente esto ya va a estar obsoleto. Porque con todas estas APIs de Vision en tiempo real. Es que la velocidad de respuesta a la latencia es increíblemente menor. Pero además, Alay alucina que es una barbaridad. Yo no sé si por la resolución de las fotos otra vez. No sé cómo lo están haciendo. Probablemente estén usando modelos mini también. Para ahorrar, no sé. Pero los niveles de alucinación de Alay son altos. Y yo no sé por qué. Tengo la sensación de que en Vision no está poniendo ningún énfasis en hacer que describa como lo haría para una persona ciega. Pues error. Porque encima de que el hardware está obsoleto y es caro. Y si no tienen este plus de que tengan un asistente que funcione mejor que los demás. No saludos menos tienes de Alay. Bueno, a mí particularmente, tengo la misma impresión que tú y no me gusta. De hecho, probablemente me guste aún menos porque conozco los otros. Entonces, me inquieta mucho ver que es tan sumamente torpe, lento. Y sí que de verdad que alucina. De todas formas, yo no puedo ser muy objetivo tampoco. Porque llevo casi semana y media o dos semanas sin probarlo. En los principios era caótico. Ahora he visto que está un poco mejor por la demostración. Pero bueno, si me dices que lo has editado, pues ya no sé yo qué pensar. No, no, eso está muy editado. Yo no uso eso en la práctica. A mí no me parece útil. Yo ni me planteo siquiera instalármelo. O sea, no. Tendría que mejorar, pero de una manera drástica. Pero de momento ni lo considero. Y con vuestras Ray-Ban Meta y Meta Eye con función de visión. ¿Las utilizáis diariamente? ¿Utilizáis las gafas a lo largo del día? Yo ahora mismo las tengo aquí. Yo tengo acceso a Live AI como parte del programa de acceso temprano. De vez en cuando lo pruebo. Te diría que si la comparamos con Gemini y JGPT es la peor de las tres con diferencia. Tiene los mismos problemas que tiene Meta cuando intentas hacer fotos con la función de Look and Tell. Mira y describe. Que hay muchos tipos de información que sencillamente se niega a dar. Por supuesto, cuando usas la inteligencia en vivo. O sea, la AI en vivo. Las respuestas son súper rápidas. Así como Gemini y JGPT. La interacción es muy fluida. Es muy conversacional. Pero la retroalimentación visual es bastante mala. Cuesta mucho trabajo que describa de una manera útil. Todas estas IA, incluido Meta AI, tienen grandes problemas en la localización espacial de las cosas. Es un problema serio. Y Meta AI es mucho más notable. Le dices que tengo delante y lo mismo puede ser algo que tienes, no sé, un poco a la izquierda. Y quizás para una pregunta muy concreta puede estar bien. Pero yo no la encuentro muy útil. Sobre todo, o en parte también. Porque cuando estás usando la inteligencia en vivo, no puedes usar VoiceOver. ¿Sabes por qué? Saques el audio de VoiceOver antes. Por otro lado, porque es como cuando se está en una videollamada. De hecho, es lo mismo. Cuando tú dices la palabra clave, que es Start Live AI. Él inicia algo que podría ser como una videollamada con la AI en vivo. Y a partir de ahí no puedes usar otra cosa. No tiene memoria, con lo cual no puedes preparar el escenario. Por ejemplo, una de las cosas que hago mucho con ShareGPT es... Y en ese sentido la verdad que me ha resultado un diferenciador enorme. El tema de elegir ropa. Seleccionar ropa para lo que sea. Porque es muy fácil, sobre todo ahora con la AI en vivo. Yo sencillamente activo la AI en vivo, enfoco la ropa y ya ShareGPT sabe lo que yo quiero hacer. Y sabe qué tipo de información quiero. Ya no se va a poner a decirme que si la ropa está en un perchero y que si el perchero es de tal color. O que si hay un armario. No. Directamente, ah, vas a elegir ropa para tal cosa. Bueno, tienes esto, esto, aquello. Esto coordina con esto. El estilo es tal, qué sé yo. Es muy concreta. Eso no lo puedes hacer con... No, lo puedes hacer con Geminis. Te tomas el trabajo de escribir un prompt específico para eso. Con Live AI. Tienes que explicárselo. Si lo quieres hacer, tienes que explicárselo cada vez. No sé yo si lo haría bien. Es porque no me supiera, no lo he intentado. No me funciona lo suficientemente bien, la verdad. Yo tampoco uso Live AI. Las gafas, sí, mucho. Sí, las gafas son geniales. Pero mucho. Otra vez, para mí, como una persona con una sola mano, es una pasada poder tener un manos libre como ese. Pero Live AI no. Y la, bueno, comentaba Roberto antes que todo se lo posicionaba a la izquierda. Probablemente es porque solo hay una cámara que está en la patilla izquierda, ¿no? O derecha, ¿no? No sé, no recuerdo bien dónde. En la izquierda, ¿no? Por delante, en el ángulo. Sí, en el ángulo de la izquierda. Curiosamente, la función de Lugantel es bastante más efectiva en decirte lo que tienes delante. Vale. Sería lo que es captura de imagen y descripción. Eso sí. Y eso lo utilizáis mucho en el día a día para reconocer, bueno, un medicamento, un cosmético, en la cocina, en la nevera. Todo eso lo utilizáis. Para reconocer, por ejemplo, si llegas a un sitio nuevo. Imagínate que estás buscando un número específico de oficina, de consulta del médico, lo que sea, en un pasillo lleno de puertas. Pues, vas buscando el número que necesitas. O referencias específicas. Bueno, recuerdo una vez que salimos del aeropuerto de Orlando y estábamos en el parking esperando por un Uber que nos recogiera. Y le pregunté, o sea, le di la información del tipo de carro que estábamos, el auto que estábamos esperando. Y me dijo exactamente en la posición que estaba con respecto a mí. Incluso recuerdo que le dije, ¿qué tengo que hacer? ¿Camino recto? ¿Tengo que doblar un poco? Me dijo, no, no, no. Sigue adelante unos tres pies y vas a encontrar la puerta. Y así fue. Qué bien. Yo lo uso mucho para organizar la correspondencia. Recojo la correspondencia y directamente le digo a la casa, look and read. Enfoco el sobre, look and read. Y con la información que me da, ya me da para saber si es propaganda, si es un anuncio, si es una oferta de alguien que me quiere vender algo. Más o menos para esa primera descartar lo que no es interesante. Es muy rápido y muy cómodo. Agarro el sobre, enfoco, look and read. Y ya está. Y si eso hago una pregunta de seguimiento, no sé, ¿quién la envía? ¿Cuál es la dirección de envío? La gran ventaja de Meta es la comodidad respecto a las otras. Aunque a lo mejor en cuanto a calidad de descripción sea un poco inferior. Pero es que llevarlo encima y de forma instantánea, inmediata, mencionarla, invocarla y que te conteste. Es la gran diferencia respecto a las demás. Sí, pero claro, Meta con respecto a usarla en la Ray-Ban Glasses. El gadget como tal. Sí. Decir que estas ya en vivo todas son muy malas leyendo texto. Pero malas. No son OCRs. No son OCRs. Pero bueno, aún sin ser OCR tú tiras una foto con Be My Eyes o incluso hasta cierto punto con Meta. Y es posible, es bastante probable que te diga, que te dé información útil. Sobre todo con Be My Eyes, sin ser un OCR. Ahora las inteligencias en vivo, funcionando en modo tiempo real. A mí me recuerdan mucho. Todas ellas. Me recuerdan mucho a GPT-4 en sus inicios, la verdad. Cuando alucinaba que era una barbaridad. Cuando lo enredaba todo. Me recuerdan mucho a eso. Y una de las cosas que pasaba al principio con GPT-4 es que la lectura de texto era muy, muy, muy mala. Alucinaba muchísimo. No veía el texto donde se había. La lectura integral y continua. Porque bajo demanda, si vas preguntando, escucha bastante bien. Exacto. Pero si estás usando la cámara en tiempo real, se inventan unas historias. También es cierto que con las gafas de Meta, de Raiden, aquí nosotros disfrutamos del beneficio del poder usar Be My Eyes y Aira. A través de las gafas. Y la verdad es que eso es una funcionalidad con una utilidad impresionante. Eso es brutal. Andar por la calle con un agente de Aira. Y más que ahora ya usar GPS. Diciéndote exactamente dónde doblar. Por ejemplo, el otro día que estábamos medio perdidos en un área de parking bastante grande. Donde había varios edificios y no sabíamos exactamente en qué dirección ir. Y donde estaba la entrada del edificio que estábamos buscando. Llamamos a un agente de Aira. Que además tiene acceso a GPS. Está viendo el mapa. Está viendo el sitio. Y dónde estás. Y te está ubicando. Es una maravilla. Eso es increíble. Por eso me acuerdo que iba caminando. Y me dice el agente. No sé qué distancia. Tienes la puerta. Sigue recto. Tienes el handle. Tienes la manilla a la altura del codo. Y otra vez. Eso para mí es un salvavidas. Normalmente las personas ciegas. Vamos por la vida con una mano menos. Ostras. Una mano menos. Porque llevas un bastón. O llevas el handle de tu perro guía. O lo que sea. En mi caso. Literalmente me quedo sin ninguna. Porque ya tengo una menos. Con lo cual. En lo que agarro el bastón. No sería funcional para mí sacar el móvil. Llamar a Aira. Eso para mí es sencillamente un game changer. Es que no tener que andar con el teléfono en la mano. Tratando de mantenerlo estable. De que no se te incline. Para que la gente tenga la vista de lo que tienes delante. Eso es muy cansado. Sí. Explicamos un poco para la gente que no esté familiarizada con términos. Aunque Roberto ya explicó en el episodio de Ray-Ban lo que era Aira. Pues Aira es un servicio profesional de asistentes. Que están formados en cuestiones de movilidad y rehabilitación. Y entonces ese servicio se ha integrado en las gafas Ray-Ban Meta. O pueden utilizar su cámara. Entiendo que es esto. Y a partir de ahí los solicitar. Creo que tienes que contratarlos. Tienes que tener algún tipo de suscripción con ellos. Puedes invocarlos, llamarles. Y a partir de ahí ellos te asisten. Y lógicamente lo que habéis comentado ahora. Que tanto están viendo lo que tenéis delante. Como disponen de un GPS a la vez para saber la posición y todo. Exacto. Ellos a día de hoy no tienen integración con Meta. Como lo que sería Be My Eyes. Lo que están haciendo es usando WhatsApp. O sea, tú inicias una llamada con Aira. A través de la aplicación de ellos. Y el agente te envía un enlace a una llamada de WhatsApp. Te unes con ese enlace a la llamada. Entonces como claro. WhatsApp tiene integración con las gafas. A partir de ahí ya puedes usar las gafas como interfaz. Genial. Pero claro que eso vale para orientarse. Pero también te puede valer. Yo qué sé. Para que te ayuden a armar un mueble. No sé. Las aplicaciones son múltiples. ¿Vosotros utilizáis vuestros servicios indistintamente? Be My Eyes que también tiene servicios de voluntariado no formado. ¿Lo utilizáis también o siempre recurrís a Aira? No, los dos. Los dos. Depende también de la situación, digamos. Pero para algo así muy específico como orientación en la calle, en espacios abiertos, con ciertos riesgos, etc. Yo no tengo ninguna duda. Aira. Además, ahora Aira lo ha puesto muy fácil porque tienen un servicio que si tú autorizas el uso de la llamada para entrenar de ahí, te dan 10 minutos gratis. Y la verdad es que hay un montón de cosas que requieren menos de 10 minutos. Entonces, en general, por supuesto, el servicio de Aira es mucho mejor. Son agentes entrenados. La verdad es que desde que pusieron Build AI, que es como se llama esa oferta, yo prácticamente no uso Be My Eyes. Porque es que para el tipo de cosas que yo usaría Be My Eyes, necesito menos de 10 minutos seguro. Porque son cosas muy sencillas casi siempre. Y si tengo un servicio gratuito de Aira, a mí no me importa que usen la llamada para entrenar de ahí, porque de hecho yo soy bastante cuidadoso con lo que les enseño. En cualquier caso, si quiero algo confidencial, pues mira, tienes la opción de no usar Build AI. De todas maneras, Aira, aunque no uses Build AI, tienes derecho a 5 minutos de llamada gratis diario. Exacto. Sí, eso es lo que hace extenderlo. En vez de 5, son 10 en cada llamada. O sea, en cada llamada que aceptes la oferta de Build AI. Y si está disponible, no siempre lo está. Pero cuando lo está, si lo aceptas, tienes 10 minutos gratis. Bueno, le hemos puesto todos los dientes largos a la gente de aquí, de Europa, de España. Y este servicio solo está en Estados Unidos, ¿no? No, está en varios países. Está en el Reino Unido. ¿Ah, sí? Vale, vale, vale. En Nueva Zelanda. Ah, bueno. En Canadá también, por supuesto. ¿Seguro? Sí. Si os parece, podemos dar algún consejo práctico, alguna recomendación, algún tip. Yo, por ejemplo, recomendaría en la de Gemini, utilizar el prompt que Roberto compartió, que con eso pues también mejora, ¿no? Es más específico y nos da más información. No sé, ¿algún otro consejo que se os ocurra? Con Gemini, tener en cuenta, no porque lo diga yo, sino porque lo dicen sus términos y condiciones. Es un entorno de experimentación y todos esos datos se van a utilizar para entrenar al modelo. O sea, no es que podrían utilizarse. Es que, o sea, no es una especulación. Está en sus términos y condiciones. Tu voz se va a usar para entrenar al modelo. Lo que le enseñas con la cámara se va a usar. Si alguien tiene alguna preocupación con eso, pues que lo use con ese entendimiento. Por ejemplo, mucho cuidado con mostrar imágenes confidenciales o imágenes que puedan ser de contenido explícito, porque existe una probabilidad de que después el modelo reproduzca esas imágenes. Yo creo que eso valdría para cualquiera en general, de todas maneras. Sí. En Hashtag FPT, por ejemplo, tienes una opción para activamente decidir que no se usen tus datos para entrenar al modelo. Si lo usan después o no, ya no puedo. Ahí no me voy a meter. En general, en general, con todas estas herramientas, ser muy cuidadoso con lo que se envía y mucho más con algo como Gemini Live, donde expresamente la intención es colectar datos de entrenamiento, ya sea para evaluación de servicios como para entrenar. Y sobre todo, tener en cuenta todo lo que dijimos antes. No usar estas herramientas en una situación donde la fiabilidad sea esencial, excepto que se tenga un método adicional de verificación. Sobre todo se me ocurre identificación de medicamentos. Mucho cuidado con esto, porque si te dijera que no lo identifica, muy bien, pero es que te puede inventar un medicamento o decirte que es otro medicamento que tengas también. O confundir la dosis. Y no, definitivamente no. Si es por una cuestión de verificación o de, no sé, de algo que es fácilmente verificable de otra manera, pero por conveniencia, vas a utilizar la herramienta quizás o por experimentar. Pero en situaciones donde la fiabilidad sea importante, no. Definitivamente en la calle, no. Salvo que sea por experimentar. Uno quiere saber cómo funciona y demás. Muy bien. O que tengas un backup. O sea, un entorno que tienes muy controlado. Exacto. Simplemente por experimentación. Pero en una situación donde realmente necesitemos guía, donde necesitemos ayuda, no debería usarse una herramienta de esta manera. Esto de los medicamentos es interesante. Entonces, vosotros descartáis todas estas guías que hemos estado hablando ahora, ¿cuál es la mejor manera de buscarse? ¿Y qué tecnología estáis utilizando para reconocer con fiabilidad un medicamento? La función de texto corto, de CNI, es muy fiable para esto. Sí, es mi go-to. Es OCR tradicional. Lo peor que puede pasar es que no te encuentra el texto, pero si te lo lee, se lo va a leer bien. Y si no se puede hacer con CNI, pues mira, se puede llamar a un Be My Eyes, se puede llamar a un agente de aire. También en CNI hay una de las aplicaciones que tiene, es reconocer productos. Y eso yo lo he usado muchas veces. Y te encuentra, si eres capaz de encontrar el código en el recipiente o lo que sea que estés chequeando, pues encuentras la información. Y eso es muy útil también. Muy bien. ¿Y para cosas críticas en tiempo real, como un semáforo de la calle o cosas de esas? Pues tampoco. Ni pensarlo. No, no, no. Definitivamente no. Para eso supuestamente, hablando de ese futuro, quizás con Glide. No, hay una aplicación que se llama OCO. Tenemos que probar eso. Sí, no la hemos probado, pero la está usando mucha gente. Ahora es de pago, antes era gratis. Es para identificar semáforos. Igual, como también funciona con IA, pues bueno, funciona, pero con muchas reservas. Porque si hay varios semáforos, cerca, en un cruce y demás, pues... Yo no sé cómo funciona. No sé si te dirá la calle concreta. Bueno, ahora han implementado esto. Yo no lo he utilizado. Yo sí que lo he utilizado como reconocedor de color, de semáforo, y eso lo hace bien. Si no te equivocas y enfocas al semáforo, que no es lógico. Ahí está el peligro. En una calle muy ancha que tiene dos tramos de semáforos, a lo mejor te reconoce el cercano o el que está más lejos. No te diferencia cuál es. Entonces hay que tener cuidado. O se cruza una persona por medio. No solo que son enormes las calles, sino que la densidad de tráfico es salvaje. Es muy alta. Y yo no me fío, porque además estás en unos entornos de ruido, etc. Y bueno, en la pregunta del futuro, yo creo que en este caso creo que merece la pena, porque todo lo que podemos imaginar nos vamos a quedar cortos posiblemente. Esto puede cambiar. Y además el futuro puede ser en una semana. Esto puede cambiar muchísimo en poco tiempo. O la última que ha salido de China, o en cualquier momento sale una ya que revoluciona todo. Es posible. Yo diría que es bastante menos probable que revolucione todo. No ocurren ese tipo de grandes cambios a menudo. Lo que sí sabemos con certeza es que este es el año en que todo el mundo quiere sacar agentes. Ya estamos hablando no solo de una IA capaz de entender las imágenes o de comunicarse con el usuario, sino de realizar ciertas acciones en nombre del usuario. Por ejemplo, no solo una IA que te dice lo que está en la pantalla, sino que es capaz de interactuar con los elementos que están en la pantalla. Ya OpenAI de hecho sacó su operador, que es un agente, que es capaz de abrir una sesión en un navegador remoto y completar tareas, hacer vuelos, o incluso desplegar una aplicación web. Tareas bastante complejas. Google tiene el proyecto Marinette que es como una extensión para Chrome. También es capaz de realizar acciones en un navegador. Del mismo modo en que el año pasado vimos aparecer, primero con el anuncio de OpenAI en marzo y finalmente en diciembre, todo esto de la IA en vivo, creo que este año vamos a ver la IA en vivo desarrollarse más hasta un punto donde sea mucho más útil de lo que es hoy. Y eso creo que lo vamos a ver bastante antes de que termine el año. Vamos a ver agentes que quizás no de manera inmediata, pero que a mediano-largo plazo vamos a poder utilizar quizás para simplificar cosas que ahora tenemos que hacer a mano y que quizás los agentes puedan hacer. Y vamos a ver, estoy seguro, más allá de... Vamos a ver aplicaciones para ciegos específicamente implementando variantes de esta inteligencia en vivo, quizás no exactamente como lo estamos viendo ahora, pero variantes de esta misma tecnología. Yo creo que todas estas cosas las vamos a ver este año. Qué bien. Ojalá sea así. El tema del precio actualmente, por ejemplo, para utilizar el servicio de visión o el servicio multimodal de ChatGPT con la suscripción de 20 dólares creo que... Es un tiempo muy restringido el que puedes utilizarlo. Te da una hora diaria para modo de voz este y las sesiones de video son más cortas de una hora pero puedes volver a empezar. Eso va variando, también lo van ajustando. No sé si son 25 minutos, 20 minutos. No recuerdo. ¿Pero tú crees que es suficiente? A día de hoy probablemente sí porque no creo que estas tecnologías funcionen lo suficientemente bien para que se justifique usarlas más que eso. Yo por lo menos no necesito más porque para lo que son útiles se hace en periodos bastante más cortos que una hora. Cuando empiecen a ser más útiles no sé, eso va a depender mucho de cuánta ayuda visual una persona necesite. Yo no uso ni Aira ni Vimaya. Bueno, un día por una situación muy concreta puede que más de una hora incluso. Salvo, por ejemplo, tenemos un amigo, Aira funciona gratuitamente aquí en varias locaciones digamos, en muchos de los aeropuertos de las grandes ciudades, en cadenas de hoteleras específicas, en todo South Miami Beach es gratis. Es Walmart. Y entonces tenemos un amigo que hizo toda la compra para Thanksgiving, para la cena de Thanksgiving en Walmart, con sus gafas y Aira. Claro, ahí requiere bastante más que 25 minutos. Sí, eso me refiero. Hay tareas muy concretas que requieren más tiempo pero ninguna de estas tecnologías está a día de hoy al nivel donde se pueden usar hasta 10 minutos por sesión ya sea para compartir pantalla o para mirar a través de la cámara. La función de compartir pantalla funciona, yo sé que funciona en escritorio, sé, pero no me consta si funciona, no me consta que funcione en móvil. Por lo menos en iOS no, en Android no lo he probado. Sólo se puede usar en escritorio a través de Chrome. ¿Alai todavía está un poco en versión alfa? Yo diría que sí. Yo le doy poca... Yo no le veo futuro claro a eso. Y lo lamento porque me parece que Envision es una compañía interesante que en su momento tuvo un producto muy interesante que fue las gafas con la especie de lector de pantalla que se inventaron para manejarla. Creo que es el tipo de empresa que a mí me encantaría que tuviera éxito. Yo no sé. Yo veo el futuro de esa aplicación específicamente y de esa tecnología que ellos están usando no lo veo claro. Bueno, y luego está la China que es más barata pero todavía no tiene función multimodal y todavía está empezando. Sí tienen un modelo multimodal. ¿Sabes algo de él? ¿Nos puedes hablar? No, lo he probado. No está disponible en las versiones gratuitas estas que tenemos. No es una IA en vivo. Es sencillamente como lo que podría ser GPT-4 que es capaz también de código abierto. No sé ahora mismo si está en holding face o en los espacios donde se comparten este tipo de modelos, pero sé que está. Sé que tienen un modelo multimodal. Además es open source, es código abierto. Es un modelo interesante. Es un modelo súper interesante porque es muy barato de ejecutar. Es muy barato de entrenar y vamos a ver. La verdad, Microsoft lo está incluyendo como parte de la oferta de modelos disponibles en su plataforma de Azure AI, lo cual quiere decir que los desarrolladores ya pueden desarrollar. No el de visión. El de visión no está, pero el que todo el mundo está usando de texto sí está en Azure AI, como también están las versiones de Lama. Yo creo que vamos a ver más y más modelos de código abierto, más baratos de ejecutar, más rápidos, con mejor rendimiento. Vamos a ver si eso continuará. DeepSeek es ahora mismo un fenómeno que está Not as trending. Está as trending. Tiró a las acciones de Nvidia, tiene a todo el mundo ya diciendo que porque cada vez que pasa algo como esto, todo el mundo piensa que es la gran revolución y que es el todo el mundo anuncia grandes cosas, pero en la práctica hemos visto que no necesariamente tiene que ser así. Hay demasiada, en inglés le llamamos DeepSeek, pero hay demasiada excitación con la IA. Demasiada humo, demasiada desinformación y demasiados intereses. Y un poco de guerra fría, también de las IAs. Sí. No, yo creo que está ardiente. Sí, sí, sí. Muchas expectativas, un poco de marketing, un poco de política, se junta un poco de todo. Sí, ok, DeepSeek está muy bien. No sea el último modelo. Ni de los chinos, ni de Meta, ni de nadie. Todavía vamos a ver cuando Meta saque el AMA 4, qué es lo que nos da. Esto continúa. DeepSeek es solo un modelo más. Muy relevante porque logró topar a OpenAI con sus modelos super caros en los benchmarks, pero eso no significa necesariamente que en la práctica le sea útil a la gente. Hay mucho ruido con los benchmarks y te dicen que tienen un 77% en generación de código. Pero eso no necesariamente refleja los usos reales que se le da a los modelos. Y todavía lleva muy poco tiempo. Todavía la gente no lo ha usado lo suficiente. Y saldrán más porque todos estos modelos de código abierto separan uno sobre los hombros del otro. Pero casi con total seguridad usando LAMA y usando OpenAI. O sea, no se hizo de cero. Como otros modelos también se van a hacer apoyándose en lo que se han sacado los chinos con DeepSeek. Esto continúa. Más que continúa, creo que está comenzando. Oh, sí. De todas formas, somos unos privilegiados y queremos verlo así porque en un futuro muy futuro la gente utilizará la IA para hablar ni conversar sobre ella porque no conoce su evolución. Nosotros es muy excitante el estar viendo los cambios minuto a minuto. Y como somos actores dentro de esta como usuarios, vamos, no como nada más. Pero sí que es verdad que, bueno, fijaros que es lo que supone hoy la inteligencia artificial y todos los avances dentro de lo que es nuestra forma de relacionarnos y de nuestras conversaciones y demás. Realmente está en trending todo lo que es la información de cabecera. Y es un hecho, pues, bueno, un hecho que nos toca vivir a nosotros porque esa tecnología comienza ahora sí. Muy interesante que digas eso porque yo siempre he dicho, wow, leyendo historias de los principios de Internet y demás, y siempre he pensado, wow, qué interesante tiene que haber sido estar en ese momento, en un sitio donde fuera posible acceder a cosas y experimentar toda esa tecnología. Y lo que estamos experimentando ahora, si se quiere, es mucho más. Está moviendo el suelo mucho más y mucho más rápido de lo que en su momento fue los inicios de Internet. Creo que sí, que es un momento. Yo, como una persona que le gusta mucho la tecnología y que yo estoy disfrutando mucho todo este proceso en cuanto a probar cosas, la oportunidad de estar, eso lo disfruto muchísimo, en algunos casos, en el centro de ciertos desarrollos y de poder, no por tener acceso antes porque eso no vale para nada, pero sí acceso a cosas que están surgiendo sencillamente porque es un momento interesante. La mayoría de las veces vemos productos que ya están terminados y no tenemos la oportunidad de ver cómo surgen, que para mí, toda esta revolución, por decir algo, toda esta ola que llegó como de repente, lo que más me llama la atención de todo es el impacto que tiene, el impacto potencial que tiene sobre la vida de las personas. Para bien o para mal, y para gente como nosotros, el potencial de empoderamiento como individuos capaces, como individuos autónomos. Es probablemente imprecedente y creo que es algo que no todo el mundo está observando y de lo que no se está hablando lo suficiente. Para las personas con discapacidad, no solo visual, porque para gente con dificultades del habla, por ejemplo, es también muy, muy interesante y de eso quizás no se esté hablando lo suficiente. Con tanto ruido y con tanto marketing, eso se soslaya, yo creo, en los espacios donde se habla de ellas. Bueno, pues, muchísimas gracias, Danai y Roberto y gracias por explicarlo también todo y bueno, estamos, igual que vosotros, muy impactados y encantados de ser testigos de esta tecnología y de vivirla y de vivirla también como personas ciegas y de todo lo que nos aporta y del potencial que tiene, por supuesto. Así que, muchísimas gracias, os esperamos próximamente. Muchas gracias, porque esto da para seguir hablando muchos días, así que seguiremos. Seguro. Hasta pronto. Adiós. Nuestros medios de contacto, Ricardo. gafotas@cegatos.es o a través de WhatsApp en el más 34 Y como siempre decimos, gracias por acompañarnos hasta aquí. Hasta el próximo episodio. Chao. Adiós. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Este hombre es el creador de ARPANET, que todos conoceremos porque parece ser que es la precursora en parte de internet y luego también dentro de la historia de la conspiración pues es la que nos controla y nos vigila a todos, pero bueno, esto lo voy a dejar porque no es importante. Vamos a escuchar a Arturo. ¿Y tú, Arturo, qué haces? Aquí, escuchándonos. Muy interesante. ¿Qué haces con la inteligencia artificial? Y grabarnos, que es peor que el de ARPANET. Bueno, esperemos. OK. Excelente. Muchísimas gracias. Eso es todo. Muy buen trabajo. No, gracias. Eso es todo. Bueno, pues, aquí llega nuestra pérdida. Aquí hay una irrupción de... Muy bien. Yo creo que, más que resumir todo lo que hemos hablado, que creo que, bueno, que prácticamente hemos hablado muchas veces de... Fuera. No he dicho nada. He hecho un lío. Nos quedan dos minutos. Quedan dos minutos. No, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no,
Gafotas, cegatos y sus aparatos #10
Fecha: domingo, 2 de febrero de 2025, a las 00:00:00
Con el título "Sílbame que no te veo: De la tablilla de arcilla a la Tablet digital", contamos de nuevo con Jonathan Chacón, reconocido experto en accesibilidad tecnológica, para adentrarnos en el interesante mundo de la comunicación humana a lo largo de la historia.
En este décimo episodio, viajamos desde las primeras formas de escritura en tablillas de arcilla hasta las herramientas digitales más avanzadas, analizando cómo los sistemas de lectoescritura han evolucionado para adaptarse a las necesidades de las personas en cada época.
También exploramos las tecnologías actuales que facilitan la comunicación y el acceso al conocimiento para quienes enfrentan limitaciones sensoriales, cognitivas o físicas. Jonathan nos comparte ejemplos prácticos de dispositivos y recursos que están marcando una diferencia, así como anécdotas que nos invitan a reflexionar sobre el impacto de estos avances.
Este episodio es un recorrido trepidante y ameno por la evolución del lenguaje, la escritura y la tecnología, y cómo estas herramientas han moldeado nuestra forma de expresarnos y conectar con el mundo.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Comunicación no verbal y supervivencia, un terrible experimento – 20 minutos.
Los inicios de la Escritura a través de los primeros signos - Tipos con carácter.
Louis Braille, inventor del sistema de puntos en relieve – ONCE.
Alfabeto manual o dactilológico — Fundación ONCE para la Atención de Personas con Sordoceguera.
¿Cómo funciona la tecnología que le permitía hablar a Stephen Hawking? - BBC News Mundo.
Créditos:
Duración: 01:34:13
Descripción detallada del logo de Episodio 10. Sílbame que no te veo: de la tablilla de arcilla a la Tablet digital.
La imagen muestra una escena con una estética retro-futurista y un estilo de cómic vintage con tonos cálidos y contrastes marcados. Dos personajes, un hombre con aire de académico, parecido al personaje del logo de este podcast, y una androide de apariencia elegante y sofisticada, están sentados en una mesa analizando una tablilla con símbolos enigmáticos, rodeados de varias piedras talladas con inscripciones similares. Descripción de los personajes: 1. Hombre con gafas y auriculares: o Viste un traje marrón con camisa blanca y corbata azul, lo que le da un aire distinguido, como un investigador o arqueólogo de una época alternativa. o Tiene el cabello oscuro, bien peinado hacia atrás, y luce una barba espesa y bien recortada, lo que refuerza su imagen intelectual. o Sus gafas de cristales oscuros y redondos le dan un aspecto misterioso, como si estuviera inmerso en un mundo de secretos y conocimiento oculto. o Lleva unos auriculares voluminosos de estilo retro. o Sostiene una tablilla de arcilla rectangular con inscripciones extrañas, examinándola con atención y un gesto de concentración. 2. Androide femenina con auriculares: o Su diseño es una combinación de tecnología avanzada y un aire retro-futurista. o Su rostro es humanoide pero con un tono metálico sutil y detalles mecánicos en el cuello y los brazos. o Luce gafas similares a las del hombre, pero con un marco más integrado a su diseño robótico. o Su cabello, de un tono rojizo con reflejos metálicos, está peinado con ondas bien definidas, lo que refuerza su apariencia estilizada. o Su vestimenta parece una armadura elegante con detalles circulares y un diseño aerodinámico. o Tiene un micrófono integrado cerca de la boca. o Un brazo mecánico articulado, posiblemente una extensión de su propio cuerpo, parece ayudarle en su tarea de análisis. Elementos en la escena: • La tablilla de arcilla con inscripciones: o Está hecha de un material que parece arcilla o piedra envejecida o Los símbolos en ella son de un alfabeto desconocido, lo que podría indicar que los personajes están descifrando un lenguaje antiguo. • Tablillas talladas sobre la mesa: o Varias piedras planas con inscripciones similares están dispuestas sobre la mesa. o Algunas tienen formas más redondeadas, mientras que otras son más angulares. o Esto sugiere que forman parte de un rompecabezas lingüístico o de una colección de artefactos de una civilización perdida. • El fondo y la iluminación: o Un degradado cálido con tonos naranjas y marrones enfatiza el ambiente clásico y la iluminación tenue, con sombras bien marcadas. o El estilo de ilustración recuerda a los cómics pulp de ciencia ficción de los años 50 y 60, con líneas gruesas y texturas detalladas. La escena en su conjunto transmite una mezcla de arqueología, ciencia ficción y misterio, como si los personajes estuvieran en medio de una investigación sobre conocimientos ocultos o la historia de una civilización perdida.
Transcripción de Episodio 10. Sílbame que no te veo: de la tablilla de arcilla a la Tablet digital.
Bienvenidos al décimo episodio de tu podcast favorito. ¿Qué tal estás Ricardo? Pues muy bien Arturo, una alegría escucharte y también saber que estamos ya en el aire y nuestros oyentes nos escucharán a nosotros también, así que un saludo a todos, bienvenidos. Ahí estamos un episodio más contando cosas interesantes y bueno pues hoy queremos pensar un poco sobre el tema de la comunicación, es algo que muchas veces damos por sentado pero es muy curioso que pues para que ahora mismo estemos aquí y pues yo estoy hablando con Ricardo hay un mínimo común que tenemos que ponernos de acuerdo en el vocabulario, en el idioma, en lo que yo estoy diciendo y Ricardo pues pueda entenderlo, es muy curioso. Sí, sí, de hecho los grupos se convierten en sociedades y en su conjunto en civilización gracias a esa comunicación. Y gracias también a dejar un legado de lo que van descubriendo y van compartiendo y bueno van heredándolos conforme pasan las distintas generaciones, entonces todo eso es comunicación. Yo creo que el sistema de comunicación que se utilice pues es el que al final nos hace personas, pues incluso puede modelar el carácter, puede la personalidad que tenemos. Pues depende muchas veces, yo creo que en una grandísima medida de la comunicación, del lenguaje que se utilice. ¿Y tú cuál crees que es el mejor de todos? ¿Hay algún lenguaje que está por encima? ¿Cuál es el bueno bueno? Yo creo que hay una mezcla de lenguajes, por lo menos en los humanos, que es el lenguaje emotivo-afectivo, que sería la parte física y luego el verbal. Para los humanos el lenguaje verbal y generar relatos y vender relatos es un lenguaje que se utiliza en la comunicación, pero en la comunicación es un lenguaje que se utiliza en la comunicación. Y compartirlo y todo esto pues hace de ellos una forma de relación y prácticamente de vida, ¿no? Tanto para lo positivo como para lo negativo, como para que nos vendan ilusiones a base de palabras y vivamos en esa irrealidad que hoy en día es muy común y le suelen llamar fake. ¿Y de los lenguajes verbales, del lenguaje oral, cuál sería así como el más importante o primoginio? ¿Cuál sería el que prevalece por encima de los demás? ¿Cuál sería el que salvaríamos así de forma nativa si no nos enseñara el otro? Bueno, sobre esto hay una historia que no sé si la conocerás, es muy famosa. Bueno, no sabemos si es historia, es leyenda urbana y tiene que ver con el emperador y por tres veces rey, Federico II. ¿Tú la conoces, Arturo? Pues un poco me quiere sonar, cuéntanos. Bueno, pues Federico II, que era conocido como Estupor Mundi. Y realmente le conocían con este nombre porque generaba estupefacción entre las personas de su entorno. Era un hombre muy sabio, un investigador nato, además de ejercer su papel de gobernante y siempre estaba realizando investigaciones. Y entre todas, hay una de ellas que trascendió, no se sabe bien si por sus detractores, porque no lo pone en buen lugar. Y entonces, bueno, pues la voy a comentar, tiene que ver con la comunicación. Con lo cual es muy adecuada para el episodio de hoy. Parece ser que este hombre quería conocer cuál era el idioma originario, el que se hablaría en el Edén o el que traían los ángeles a la Tierra. Hay que recordar que este hombre era rey de Sicilia, rey de Alemania, era también rey de Jerusalén y emperador del santo imperio germánico cristiano. Entonces, el planteamiento de este experimento fue aislar en un cuarto, en una habitación. Y en ese cuarto, el hombre se fue a la habitación a varios neonatos, niños recién nacidos. Y dio la siguiente indicación. Los niños tenían que ser alimentados e higienizados, es decir, los tenían que limpiar y demás. Pero no podían tener ningún tipo de contacto con ellos. Pero vamos, ni tocarlos afectivamente, ni en cuanto a los mismos, ni tampoco... No podían tener ningún tipo de contacto con ellos. El visitaba mucho lo que era aquellas salas de experimentación. Y recorría en silencio y veía la evolución de todo. Y aunque los niños nunca los dejaron de nutrir, nunca los dejaron de limpiar, al cabo de unos meses todos comenzaron a enfermar y murieron. Esto lo que viene a contar es la importancia de la comunicación en el ser humano. Comunicación, como decíamos antes, es todo. Es la... Es la... Son las palabras, son los abrazos, son los afectos. Y realmente es el, por lo menos para los humanos, y yo supongo que para la mayor parte de los mamíferos, es el sostén, ¿no? El sostén de la propia vida. Este contacto y esta comunicación. Y esto es lo que quería comentar. ¿Qué te parece? Me parece una historia, bueno, interesante y un poco trágica. Pero sí, esto demuestra que la base del ser humano es la comunicación, ¿no? Desde los albores, pues siempre nos hemos comunicado visualmente. Por señales de humo, por sonidos con el tam-tam o por el tacto. Bueno, hay muchas formas y muy variadas para podernos comunicar. Y para eso hoy tenemos a un invitado con nosotros que nos va a contar y nos va a hablar de todas ellas. Muy buenas, Jonathan. Buenas, Arturo. Buenas, Ricardo. Buenas a todas y todos. ¿Qué tal, Jonathan? Ya no es un nuevo invitado, ya es la segunda vez que pasas por esta parroquia y te lo agradecemos un montón. Un placer y un tema un poco controvertido porque aunque hay muchos estudios antropológicos de la comunicación, también hay muchos estudios de sociólogos, psicólogos y en muchos casos pocos se ponen de acuerdo. La comunicación entre animales, entre comillas, superiores, en el caso del hombre, pues en un origen se dio la comunicación inmediata a corta distancia. Bien sea por gruñidos, lenguaje corporal, mezcla de ambos, evolucionó al habla rudimentaria, a un lenguaje basado en expresar conceptos, luego a un lenguaje con una gramática para expresar primero la acción, luego el... el elemento que va a ser accionado y luego el sujeto, luego al revés, principalmente en construcciones imperativas o construcciones descriptivas. Y luego pasamos a una comunicación a larga distancia, como puede ser el clásico de te pego dos voces en medio del monte y se escucha bastante lejos, o al silbo canario. ¿Pero por qué? Porque el ser humano necesitó pasar a un lenguaje escrito, porque esa necesidad de dejar una comunicación escrita, bien sea en el suelo, bien sea en una piedra, bien sea una señal en el tronco de un árbol, porque a diferencia del lenguaje inmediato o el lenguaje a distancia, el lenguaje escrito permite que el mensaje sea persistente, sea... imperecedero. Tenga una permanencia, se mueva en esa dimensión del tiempo. Yo, para hablar con Ricardo, puedo hablar con Ricardo ahora. Puedo utilizar un lenguaje hablado inmediato o incluso ponerme a pegar voces, que yo estoy en Sevilla y digo, Ricardo a Málaga, si cojo un megáfono lo suficientemente fuerte, pues a lo mejor le llega. Pero si Ricardo no estuviese conectado ahora, mi única manera de mandarle un mensaje a Ricardo es utilizar un mecanismo más persistente en el tiempo. ¿Veis? Sí. Sí. Sí. Sí. Sí. Sí. Le dejo una nota en braille o le dejo un mensaje en papel o le grabo una tablilla de arcilla o de cera. Por eso esa necesidad de dejar mensajes no tienen por qué ser escritos, también pueden ser tallados, dibujados, pero de ahí nace todo el concepto de lectoescritura, de dejar esa comunicación. Antes has nombrado el silbo canario y sí que me gustaría que nos explicaras un poco, para la gente que no lo pudiera conocer, porque para nosotros supongo que aquí los españoles es algo muy conocido, pero es una circunstancia que es muy pintoresca y que probablemente venga determinada por la orografía de la isla de la Gomera, que es donde viene el silbo, ¿no? Así es. Los gomeros necesitaban comunicarse entre montes. Estamos hablando de distancia de entre uno a cinco kilómetros. Y para ello, pues, idearon un sistema basado en el mecanismo con el que pastoreaban al ganado, que era mediante silbidos. Y por reducirlo un poco, porque el silbo es un lenguaje bastante rico y ahora, desde el 2015 para acá, se está promocionando e intentando proteger, porque estuvo a punto de extinguirse por completo y ahora... El patrimonio de la humanidad. Sí, sí, sí. Pues se está recuperando poco a poco. Y consiste principalmente en silbar e imitas las vocales del mensaje que quieres transmitir. Para evitar ciertas confusiones, pues, se limitan a ciertos vocabularios. Cuando la palabra no está dentro del vocabulario inicial, o sea, el mensaje que quieres transmitir no es compatible con el silbo, lo que se hace es indicar... Bueno, es un poco muy complicado. Y vamos, ¿qué dicen otorrinolaringólogos? Dicen el del oído, ¿no? Ahí está, totalmente. Entonces, hacen una adaptación y básicamente consiste en silbar las vocales. Y ya con eso tú te construyes. Por ejemplo, la casa está rota, pues, a-a-a-e-a-o-a. Y eso lo silban. Y, por cierto, hablabas de que cuando dejamos... Bueno, cuando dejamos esto registrado y trasciende en el tiempo, que se llama escritura, ¿no? Bueno, esto no me dirás que fueron los sumerios también los primeros que dejaron en constancia de algo escrito. O eso ya está. Pues, te pensaba y se ha defendido esa idea de los sumerios fueron los primeros en todo. Y hay mucha controversia porque hay datación escrita de... La misma época, incluso se sospecha de anteriores. Ten en cuenta que cuando vemos unas marcas en una piedra, podemos pensar que simplemente era un oso cavernario que venía ahí a rascarse las pardas. Pero cuando, investigando con las herramientas que tenemos ahora, vemos ciertos patrones y cierta tecnología a la hora de definir esas longitudes, dices tú, esto no es un azar. Esto no... Se están descubriendo cosas muy interesantes. Y luego volvemos al tema de que Europa no es el ombligo del mundo. O sea, no todo va a ser el origen del Mediterráneo. Es más, recientemente se sabe que la especie humana actual proviene de una extinción de primates donde quedaron menos de 20.000 ejemplares del sur de África. O sea, que muchos de los posibles... Entonces, en labones perdidos, que ya no se habla de ese concepto de labón perdido entre el Homo sapiens y lo que había antes, estamos aquí de casualidad y con mucha suerte. Y en realidad todo se origina del sur de África, de un hominido que aprendió que como hubo un problema climático grave, en vez de comer plantas, que las plantas no estaban disponibles, pues empezaron a comer plantas. Y empezaron a comer mariscos y a comer pescado. Y de ahí venimos. Y ahí ya se comunicaban, a partir de gruñidos y demás. Y pensar que de un homínido arborícola somos omnívoros por necesidad, porque nos hemos adaptado a comer de todo, porque empezamos siendo forrajeadores. O sea, nos movíamos en manada forrajeando, comiendo. Enceptos, vegetales, algún animal pequeño. Y cuando fuimos evolucionando empezamos a cazar cosas más grandes. O sea, el movimiento de forrajeamiento consiste en que llevas uno o dos vigías o scouts que van explorando la zona y los de atrás van acumulando. Entonces, ¿cómo se establece la comunicación? Imagínate que tú vas por un camino y se bifurca. ¿Cómo establece? Esa comunicación para los que vienen de atrás. Lo menos productivo, lo más seguro, es tú esperas a que el pelotón de atrás te alcance. Pero entonces la ventaja de los forrajeadores o los scouts se pierde. Solución. Pintas una flechita indicando por aquí. Ya tenemos un lenguaje escrito. Entonces, de la marca de glifos o señalización, de rutas, procedimientos de forrajeo y caza, fue evolucionando el lenguaje, tanto el hablado como el escrito, porque el escrito se va actualizando según la evolución del lenguaje hablado. Porque la gente tiene que dejar mensajes cada vez más complejos. Porque al principio lo típico de las tres Fs, de alimentar los otros y los otros. Vamos a verlo. De eso pasamos a tablillas de arcilla, donde te pactan entre comunidades qué quieres decir. Y entonces ahí aparecen tres formas de transformación. Están los logogramas, que son traducciones de los conceptos que se quieren comunicar en una runa o figura que transmite, ese concepto. Por ejemplo, un triángulo isósceles sin la base, con un cuadrado, transmite la idea de hogar, casa. Un círculo con una línea diagonal, transmite el concepto de grupo cerrado, que actualmente es un cero. Pero bueno, ya los árabes cambiaron muchas cosas. Un... Un símbolo de una flecha hacia abajo es el aquí, el artículo de lugar. Entonces son conceptos que misteriosamente coinciden en las runas nórdicas, las runas mesopotámicas, las runas precolombinas. Son figuras que aparecen en... ¿En todos los sitios runas son piedras pintadas con símbolos? No, son los símbolos que se pintan. Vale, vale, vale. Lo que pasa es que la piedra era, junto con la arcilla, el medio donde dejarlo. ¿Qué pasa? ¿Por qué no nos han quedado apenas tablillas? Porque la arcilla es muy perecedera. La piedra dura más. Correcto. Y una cuestión, Jonathan. Un glifo, aparte de que en Asia puede ser el instrumento canilla que lo abres y sale agua, ¿qué es exactamente? Que lo has nombrado antes. Un glifo es... Un conjunto de runas que transmiten un concepto más complejo. Transmiten un mensaje más completo. Entonces, el glifo, por ejemplo, los hay pentagonales, los hay en espiral, los hay lineales. Cuando es lineal puede ser tanto en vertical como en horizontal, que a partir de la escritura de glifos tenemos las escrituras de por qué escribimos de izquierda a derecha o de arriba a abajo, o de izquierda a izquierda, o de izquierda a izquierda, como en lengua norafricana. ¿Y el soporte de los glifos? ¿Qué suele ser? Dependiendo de si querías mantener un mensaje mucho tiempo o poco tiempo. Por ejemplo, si querías decir, yo he ido para la derecha porque he visto un mamut de 4 toneladas y parecía que estaba herido, pues ahí pones 4 o 5 glifos, pero eso a los 3 días va a desaparecer. Pero si quieres poner, aquí se venden mejor estos faros, y si quieres poner un cuadro de mamut alrededor de todo este bosque, pues coges una tabla y lo pintas con sangre seca de lo bicho que sea. También con la evolución de los logogramas pasamos a la necesidad de pactar que mi concepto de glifo o de runa de mañana va a llover o a 5 días de camino de aquí hay un rebaño de ñoques, a lo mejor la comunidad de al lado no compartía ese concepto, ese logograma, ese significado. Entonces evoluciona a que si ambos utilicemos el mismo lenguaje hablado, pero no tenemos la misma escritura, cambiamos de los logogramas de escribir o dibujar conceptos a escribir lo que hablamos. Entonces ahí tenemos los alfabetos, que es escribir cada sonido que pronunciamos o escribir las sílabas que pronunciamos, que son los silabarios. Están los alfabetos, que es escribir todas las consonantes y vocales que pronunciamos o las que podemos pronunciar, ya que hay lenguajes donde se emiten sonidos que no son producidos por la musculatura de la lengua y de los labios, por ejemplo, chasquidos, que se producen en ciertos dialectos centroafricanos o también de sudamericano, de carácter indígena. Entonces ahí los alfabetos no son apropiados, entonces se utilizan silabarios. Porque no es lo mismo el ac del jaj del caj, pues esa es la diferencia. Si pronunci Champions, por ejemplo, el árabe clásico, el farsi, tiene algunas pronunciaciones que son guturales. Entonces, ahí el árabe actualmente, utiliza un alfabeto, pero para el farsi sí hay un silabario. Y volviendo al tema de los escritos, de las tablillas de arcilla, donde dejábamos por ejemplo el tablón de álcool, que es de tipo químico, por ejemplo, contratos de yo te doy 30 vacas y tú me das 50 corderos y dos vírgenes, pues empezaron a escribir en maderas, en construcciones y demás, y ahí empezó la publicidad. Se sabe que uno de los escritos más antiguos del que tenemos constancia y se conserva era un cartel publicitario del Antiguo Egipto, antes de los grandes faraones. Se conserva, después de traducirlo, de un señor, no me acuerdo si vendía telas o vendía ánforas de vino, pero se tiene ahí, o sea, se utilizaba el lenguaje escrito para hacer publicidad. ¿Por qué? Porque el lenguaje estaba pactado y todas las comunidades de alrededor escribían de la misma manera. Podíamos hablar un poquito diferente, pero a la hora de escribir sí se mantenía ese pacto de... compartir el significado. Serían jeroglíficos, ¿no? Sí. Lo que utilizaban los egipcios. Un alfabeto, porque lo que se escribía es cómo se pronunciaba, pero la forma de escribir cada alfabeto, pues, por ejemplo, el que tenemos nosotros es una evolución del alfabeto griego que pasó al romano y a Europa. En el mundo occidental, Estados Unidos y Latinoamérica, principalmente se utiliza un alfabeto latino. Si te vas a Europa del Este, Rusia y gran parte de los países que acaban en Están, pues, utilizan un alfabeto cirílico. Casi todas las lenguas que se hablan en Europa y en la India occidental, Oriente Medio y Oriente Sur, Oriente Próximo, vienen del endoeuropeo. Vale, que ya ahí se pierden en el principio de los tiempos. Ya ahí no me voy a meter porque no soy lingüista. El endoeuropeo, que es de la parte de India y de la parte de Europa. Sí, esa parte de esa región, porque había mucho movimiento. Por la zona que Alejandro Magno y todo eso, ¿no? Pues, más o menos... Sí, tanto de los Carpatos para la derecha hasta la península de Beria. Y cómo puede influir la complejidad en el lenguaje y, por tanto, en las sociedades. Porque no todos los sistemas de comunicación tienen la misma complejidad. Hay sistemas, incluso eso con dibujillos, otros que tienen declinaciones, otros que son... Bueno, hay más complejos, hay menos complejos. Los esquimales tienen un mogollón de palabras. Para referirse al hielo, nosotros con una sola nos apañamos. Claro, pero ahí hay un tema de la necesidad. ¿Cómo modela las sociedades? O sea, si tú vives en una zona donde el principal conflicto es encontrar agua porque vives en un desierto, tu sociedad evoluciona a favor de solucionar esa necesidad lo antes posible. Tanto el almacenaje como la localización y la extracción de agua. En cambio, si tú lo que tienes para orientarte son dunas de nieve, tu forma de comunicarte se especializa en explicarle a la otra persona que no es esa duna de nieve, que es el color FAAFAFA, sino que es el color FFFFF, por poner un código hasta decimal. Porque, volviendo al tema de los esquimales, tienen, creo que son 20 palabras para el color blanco, para definir matices de blanco. Entonces, el entorno, la evolución de esa sociedad, la forma de convivir y de comerciar. Por ejemplo, si tu sociedad se ha especializado no en comerciar pacíficamente, sino en una sociedad de conquistadores o de esclavizadores, pues es más probable que tengan más vocabulario relacionado con la guerra que con el comercio. Entonces, la forma también de organizarse, la gramática del lenguaje, también viene muy forjada por si el lenguaje se ha extraído o se ha analizado a la hora de convertirlo en escritura de forma, entre comillas, igualitaria entre pobres y ricos, o solo podían escribir unos cuantos. Entonces, las reglas a la hora de definir la escritura, por ejemplo, en la Europa medieval, solo los escribais los monjes, podían modificar la forma de escribir. Por ejemplo, las mayúsculas que tenemos actualmente, o los signos de puntuación, pues están a la necesidad de aquellas personas que sí tenían acceso a la escritura. Y no lo hacían por un beneficio de toda la comunidad, sino un beneficio propio, porque el escriba era un trabajo arduo y cansado. Música Se puede decir que un sistema de comunicación es el reflejo de lo más o menos avancada que está una sociedad. Así es. Y esa sociedad por dónde ha venido, por dónde ha evolucionado, por dónde ha crecido, por dónde se ha cambiado twill, por qué va a cambiar, provide married couples. Por ejemplo, tú observas lenguajes asiáticos, aunque todos provenimos de los mismos simios, hemos evolucionado de forma muy distinta. Las necesidades orográficas a la hora de encontrar cobijo, a la hora de encontrar comida o a la hora de encontrar agua eran muy distintas en el norte de Europa que en las estepas siberianas, que es en las mesetas chinas. Entonces, ahí tenemos muchas diferencias de cómo nos comunicamos. Por ejemplo, se sabe que el español gramaticalmente es mucho más complejo que muchas lenguas nórdicas. Nuestra gramática es compleja, pero a la hora de pronunciar es mucho más sencillo. ¿Por qué? Porque no hemos diseminado mucho. Entonces, ese pacto, ese contrato social para comunicarte con otras personas... Nos ha forzado a que escribimos tal como pronunciamos. También tú te vas a una lengua como el anglo o el celta y tú escribes building y pronuncias building. Entonces, ahí hay una separación entre lo que hablas y lo que escribes. ¿Por qué? Porque ahí hubo más control y más separación de lo que hablaba la gente en la calle que lo que se escribía. Ahí se puede hablar mucho de historia y de evolución de sociedades y no tiene mucho que ver con el lenguaje escrito. ¿Incluso hay lenguajes o sistemas de comunicación propios de las personas con discapacidad? Pues, de la necesidad surge la solución. La necesidad de comunicarse entre personas, en muchos casos, se crean barreras porque el lenguaje hablado no deja... Fuera a personas ciegas o personas con problemas de motricidad, pero sí deja fuera, en principio, a personas sordas. Porque carecen de acceso a esa comunicación sonora. En el caso del lenguaje escrito, pues las personas ciegas quedan fuera porque el canal de comunicación es la visión. Pero también deja fuera a las personas que no tenían capacidad de la motriz porque no podían tallar, no podían mover la caña o la pluma. Para dejar el mensaje. Entonces, de esa necesidad de yo también me quiero comunicar. Y recordemos que en las comunidades de personas con discapacidad. Y ahora son un poco endogámicas, por decirlo de alguna manera. Las personas ciegas se suelen juntar con personas ciegas. Las personas en silla de ruedas se juntan en club de la rueda o en club de la silla, que también los hay por ahí. Entonces, de ahí surgen soluciones para comunicarse entre ellos. En el caso de personas sordas está la lengua de signos, que ya es un idioma reconocido y protegido en muchos países. Lo que pasa es que el sistema de lengua de signos que hablan, por ejemplo, en España, no es el mismo español que hablan en algunos países de Latinoamérica. En otros sí. Porque se ha importado o se ha exportado. Pero es que incluso hay diferencias de lengua de signos de lo que pueden hablar en el norte de España que en el sur de España. ¿Que se van a poder comunicar? Sí, porque hay un poco de lengua de signos, entre comillas, internacional. El sistema de lengua de signos es un sistema de comunicación muy interesante porque mezcla lo que serían logogramas con alfabetos. Porque tú tienes signos para transmitir conceptos. Y también... También tienes signos para transmitir letras. Entonces, a veces, por ejemplo, cuando tú no tienes un signo para transmitir el concepto de casa, porque no estás hablando de una casa, si no estás hablando de una Kelly, pues la persona sorda puede signar K-E-L-L-Y o como quiera que escriban Kelly. Y entonces tiene esa flexibilidad a la hora de comunicarse. ¿Qué pasa? Que también hay personas sordas que pueden leer los labios. Entonces, para los idiomas hablados donde esté claramente marcado y tenga especial presencia la vocalización, como ocurre con el español o ocurre con el francés, las lenguas romance principalmente sí tienen esa facilidad para ser interpretadas con la lectura de labios. En cambio, hay otras... Lenguas como el cantonés o vietnamita que son más complejas porque parte de la comunicación se hace con los labios y la lengua, pero también con la entonación. Cuando el lenguaje, la entonación con la que transmite ese mensaje da información, la entonación no se puede interpretar con la postura o la posición de labios y lengua. Entonces, ahí sí es necesario... Un apoyo o una identificación más clara de lo que está queriendo decir la persona que emite ese mensaje. Entonces, la persona que lee los labios no puede recibir todos los matices de lo que se está hablando. Tenemos los ciegos. No solo del braille vive el ciego. Teníamos la escritura en relieve, pero había muchos tipos de relieve. Principalmente tenemos mucha información del siglo XVII en adelante. Parece ser que antes los ciegos no escribían. O no hay mucha datación de lo que había antes, o se perdió, o la Edad Oscura no nos dejó mucho espacio. Pero principalmente... No memorizaban, ¿no? Cantaban sus pliegos de cordel. Era más bien romanzas y romances memorizados y por transmisión vocal, como la mayoría de la transmisión que había. Los jugulares, ¿no? Había jugulares ciegos. Claro, pero entonces no había un lenguaje escrito adaptado a la necesidad de la persona ciega. Fue ya en el siglo XVII donde empiezan a, gracias con la imprenta, y a partir del invento de la imprenta, empiezan a derivarse otras tecnologías. Fue ya en el siglo XVII donde empiezan a, gracias con la imprenta, y a partir del invento de la imprenta, empiezan a derivarse otras tecnologías. Para hacer sobre relieves de pequeño tamaño. Porque los sobre relieves de gran tamaño, por ejemplo, tallar con un escoplo o un cincel, pues no era lo apropiado. Un sobre relieve se identifica mejor que un bajo relieve. Recordemos, sobre relieve es que sobresale hacia arriba. Imaginemos una loseta o azulejo y tenemos algo que tiene un volumen hacia afuera. Eso es un sobre relieve. Si el azulejo está perforado, eso es un bajo relieve. El sobre relieve siempre se identifica mejor al tacto y facilita una lectura de mayor calidad y mayor velocidad. Pues había varios tipos de escrituras en relieve. Algunas basadas en tejer o dar forma, como el que escribe con un hilo grueso. O algún tipo de metal candente o algún tipo de material que se solidificaba con el tiempo. Pero imitando la grafía o las formas de las letras, los visuales, ¿no? Sí, sí. Y aquello no había facilidad para entender algunas mayúsculas, pero las minúsculas que suelen encadenarse unas con otras para transmitir el concepto de que todas esas letras, forman una palabra, pues ahí había complicaciones. Y entonces se fueron explorando distintos mecanismos de hacer ese sobre relieve. Porque sí se vio claro que lo ideal es un sobre relieve para que la persona ciega pueda entender que se ha escrito ahí. Estaba el sistema de Valentín Agüi, que es un francés ya del siglo XVIII, que utilizaba en lugar de un hilo, para hacer el sobre relieve utilizaba un sistema de punteado, de elevaciones del papel. Es como una semiperferuación, ¿no? Que no acaba, pero que punteas por detrás, ¿no? Claro que levantabas un poco, lo que pasa que no era con una aguja fina, sino era con una especie de elevación. Bueno, pues el sistema de Valentín Agüi nos daba unos sobre relieves. No muy definidos y entonces se transmitía información, pero costaba mucho trabajo entender qué se quería decir. Y seguíamos intentando dibujar letras de tinta en relieve. Y entonces ocupaba mucho espacio. Entonces evolucionó al sistema de escritura de púas de John William Klein. Y este alemán lo que hacía era utilizar unas pequeñas agujas en un formato similar a los cajines, de la impresora de Gutenberg, que perforaba parcialmente el papel grueso por detrás y hacía un sobre relieve del trazo de una letra, pero con un grosor mínimo y bastante identificable con el tacto. Ahí vieron que en lugar de hacer un sobre relieve continuo, utilizar perforaciones que transmitiesen la forma de la letra, ahí se, por ejemplo, en lugar de poner los puntos muy cercanos para transmitir esa curva de una O, separándolos más, una O, por ejemplo, con seis, ocho puntos con la forma de un círculo, era suficiente para que el ciego viese la forma circular. Entonces ahí se exploró mucho más del sistema de escritura de púas. Incluso tenemos un español... De Pedro Llorens, de un sistema de relieve continuo, que era con las elevaciones por púas, pero más cercanas, para que no hubiera demasiado espacio interpunto de separación. Y la sonografía de Charles Barbier, que se utilizó inicialmente para la comunicación escrita de militares en la noche, y que se utilizó para la comunicación escrita de militares en la noche, Luis Braille, lo tomó para crear su sistema de letra de escritura Braille. Y se basó en un cajetín de seis puntos, tres en vertical, dos en horizontal, una matriz, que con 64 combinaciones y utilizando prefijos, sufijos, unas reglas de escritura bastante sencillas en principio, pues tenemos sistemas para escribir matemáticas, para escribir música, para escribir música, química, física... Y es el que tuvo más éxito. Y viene a dar una realidad, que es que la solución hecha por una persona ciega es la más satisfactoria para el resto de ciegos, porque el resto de sistemas de lecto escritura adaptados a ciegos, en la mayoría de casos, eran por gente no ciega, que sí que tenía contacto con personas ciegas, pero no tenía esa sensación de que era el que se iba a encontrar, y que no tenía esa sensación de que era el que se iba a encontrar. necesidad imperiosa de comunicarse. Entonces, pues, es un claro ejemplo de que muchas de las soluciones de accesibilidad más satisfactorias vienen originadas por personas que necesitan esa solución. A mí en este caso siempre me llamó mucho la atención la importancia que tiene el sentido en el que percibimos las cosas. Lógicamente, la morfología de una letra, la grafía, que se conoce, esa forma que ha trascendido y que está en todos los alfabetos, tiene un impacto visual que nos hace reconocerla nada más la vemos. Lógicamente, ese recorrido, hacerlo por el tacto, de forma áptica, es decir, hacer ese mismo recorrido que en la visión es un impacto, pues, para tocarlo tienes que hacer todo el recorrido de la línea que forma la letra. Entonces, la solución de Braille me parece genial por eso, porque lógicamente, era el sentido del tacto lo que se comprometía. O sea, la yema del dedo la que tenía que ser estimulada para percibir lo que es la letra en sí. Y, lógicamente, es algo con vértice, algo agudo, algo con punta pero redondeado, lo que va a generar en esa yema del dedo una impresión que te va a transmitir una forma. Que luego ya, en tu cerebro, será una imagen, pero a priori esa es la forma más eficiente. Y tampoco hay que olvidar el desplazamiento horizontal, que en el caso nuestro es de izquierda a derecha, que no reconocemos los seis puntos Braille a la vez al poner el dedo encima de la celda Braille, sino que hacemos una lectura lateral y vamos reconociendo y montando el cajetín Braille en nuestra mente. Y la simplicidad, porque también visualmente los caracteres no siempre son iguales. Una A mayúscula las hay de muchos tipos, formas, tamaños, colores. Serif, sans serif, como son menos rabitos en los extremos. Bueno, dentro del Braille también tenemos diversidad, porque el cajetín Braille japonés, por ejemplo, es más pequeño, más reducido. El espacio interpunto es mucho menor que el occidental europeo. Dentro de los Estados Unidos de Norteamérica, en Canadá, tienen dos tipos de cajetines. El estándar europeo que tenemos aquí es el que usan también ellos, pero también tienen un cajetín un poco más grande con el punto más gordo, que es el que se utiliza para la impresión industrial. Por ejemplo, los botes de refresco o algunos medicamentos o algunas cajas que vienen con un Braille que no respetan el estándar de cajetín Braille es un poquito más grande, un poquito más grueso, porque también el moldear ese punto con esa precisión de tamaño pequeño del cajetín oficial es muy costoso. Entonces, ¿qué se hace? Se pone un poco más burdo, más grueso y a baratas costes. No necesitas tanta precisión en el moldeado del contenedor. Pero es por esos motivos, no es porque haya un Braille Serif o Sans Serif o Helvética o cosas de estas. Esto es monoespacial. Claro, pero es lo que te digo, que por ejemplo, el mandarín utiliza dos cajetines Braille porque son logogramas. O sea, tú con 64 combinaciones no puedes transmitir un concepto. Entonces, ellos utilizan dos cajetines que son 64 por 64 posibilidades. Entonces, transmites ahí el logograma. La cursiva, la reglita. Sí, exactamente. Esto, sí, visualmente, tiene su sentido y te están indicando que esto es un estándar. ¿Y en Braille? ¿Y en Braille? ¿Cómo lo haces? Pues utilizas prefijos de entrada y salida para delimitar el espacio en que está en cursiva. Igual que tenemos signos de puntuación de apertura y cierre de afirmación o de interrogación, en Braille tenemos símbolos para indicar el comienzo y finalización de una bastardilla, de una inclinada, de una enfatización, de un entrecomillado. Incluso en matemáticas tenemos paréntesis, llaves, corchetes y sobrecorchetes. ¿En programación? Ahí en programación no utilizamos un cajetín principalmente de 6, sino de 8. Es lo que llamamos Braille computerizado porque al ser 8 puntos, que podemos quitar y poner, tenemos 256 posibilidades que coinciden misteriosamente con el alfabeto ASCII. Entonces, es muy fácil tener un solo símbolo para todos los caracteres ASCII, que no ANSI. No me voy a meter en las diferencias entre ASCII y ANSI, pero la gente que entienda que dentro del mundo de la informática, mientras que nosotros tenemos en un lenguaje normal letras desde la A a la Z, dentro de la informática tenemos letras desde el espacio hasta el tierra corchete. Todos son letras para el ordenador, incluso los números. También nosotros distinguimos entre letras y números, pues para ellos son todos caracteres y son tablas de caracteres, tan ASCII, ANSI, LATINISO, QTF, UNICODE, bueno, un montón. El Braille computerizado son 8 puntos y entonces eso permite que por ejemplo, tú tengas acceso a ciertos símbolos que no hay traducción en Braille. No todo se puede escribir con Braille de 6 puntos y por eso hay Brailles especializados para química o para matemática, donde tú haces conversiones, por ejemplo, el símbolo de integral, integral matemática, son dos cajetines Braille, porque no hay combinaciones libres dentro del Braille matemático estándar para transmitir el símbolo de integral. Nos quedamos sin símbolos. O por ejemplo, en física, para definir ciertas magnitudes, mientras que en un lenguaje escrito visual, tú con un símbolo lo haces porque utilizas una letra griega, un sigma, un omega, un alfa, en Braille tú utilizas un conjunto de siglas para transmitir esa unidad o esa magnitud. Es que 6 puntitos solo dan para 64 combinaciones y con 64 combinaciones es que no hay suficiente ni siquiera para las mayúsculas, que hace falta dos cajetines, los números, también hace falta dos cajetines y 64 combinaciones son muy pocas. También hay otras versiones, otras adaptaciones por ejemplo para sordociegos. Que los sordociegos también leen Braille pero a la hora de comunicarse no pueden escuchar lo que se habla, entonces hay una adaptación de la lengua de signos que es para personas sordociegas, que se llama datilológico. Lenguaje datilológico, que es en la palma de la mano, tú vas forzando formas con tus dedos y con el dorso de tu mano para transmitir letras o conceptos. Es parecido a la lengua de signos de las personas sordas, que puedes transmitir letras o conceptos, pues eso mismo pero en la palma de la mano. Aunque yo he visto personas sordas que lo hacían en el brazo o en la espalda y también lo leían, o sea, ya eso es nivel experto. Sí, en la espalda también, en cualquier parte del cuerpo se puede interpretar. Esto lógicamente es porque al no ver al interlocutor también sordo haciendo los gestos, necesitan el contacto físico con las manos. Este sistema datilológico que es muy interesante el que se haya desarrollado y vamos, yo he tenido la ocasión y fortuna de conocer a mucha gente con sordoceguera y he estado en eventos donde han participado en tipos de actividades y verlos comunicarse es una pasada. Es decir, es una situación además a mí me reconcilia con la humanidad, ¿no? Porque el intentar ya buscar la comunicación ante la dificultad por encima de todo es magnífico y creedme que, vamos, que la comunicación era fluida, normal, con su humor, sus risas y bueno, genial. Yo reconozco que mi datilológico lo tengo muy oxidado porque hace muchos años ya que no participo en eventos y congresos con personas sordocegas, aunque conozco a varios, pero si hay de reconocer su paciencia infinita cuando tú querías hablarle y tu datilológico era muy lento. Yo he llegado a contar el chiste de Batman y la monja y nos hemos reído todo, pero un chiste que hablando lo cuentas en 20 segundos, yo estuve como dos minutos ahí con el datilológico y bien, bien, bien. Yo aprendí a decir hola y entonces yo supongo que me dirían, mira, el tonto lo hola, ¿no? Porque siempre decía hola. Era así como ponías los dos como una escuadra, ¿no? El índice y el pulgar, ¿no? Luego hacías como un círculo para la O, ¿no? Era la H que era hacer una especie de L con el pulgar y el índice, la O que era cerrar el pulgar con el índice en círculo, quitando el resto de dedos, la E haciendo una especie, de puños separando las falanges un poco para dejar parte de la palma libre y la L pues era con el dorso de la parte del meñique, como el que va a cortar algo con la mano haciendo karate. Sí, señor, está muy bien, muy ilustrativo. Así era, pues el tonto de Lola hacía exactamente eso. Cuando alguien decía hola y no decía nada más, decía, anda, mira, Ricardo. Mira, yo recuerdo que a mí me tenían como trabajaba también, ellos eran usuarios, ¿no? del sitio donde yo estaba trabajando, en aquel momento, para identificarme a mí, cuando hablaban de mí entre ellos, cogían un trozo de mechón de pelo desde la parte de atrás, ¿sabes? Y lo agitaban. Y ese era mi nombre en clave. Claro, es que ahí tenemos un tema de lo que se llama la subjetividad de la comunicación, o sea, mientras que todas las personas tenemos un nombre oficial pactado, que en algunas culturas el nombre real, nunca se daba, eso solo lo sabía tu padre, tu madre y tú, por temas de superchería, cultura religiosa o temas de supersticiones, tenemos un nombre oficial registrado en el registro civil por tu partido de nacimiento, dentro de tanto la lengua de signos como en el datilológico, la comunicación de personas sordas con algún otro perfil de discapacidad o solo con el perfil de sordera, cada individuo se identifica, se identifica con un símbolo que esa misma persona se atribuye o que la comunidad le atribuye. Eso a mí cuando me lo explicaron unos compañeros sordos, pero yo puedo elegir porque claro, a mí si me dejan elegir, yo elijo el saludo treki para mí. No, no, te lo ponen ellos. Sí, sí, o sea, tiene que ser un pacto, pero la comunidad gana sobre la identificación del individuo. O sea, tú puedes proponer, poner uno y a lo mejor dices no, ese no es para ti. Entonces es muy divertido. Pero yo nunca pregunté por qué el cogerte un mechón de pelo de atrás y agitarlo era mi nombre, porque eso con Ricardo no tiene nada que que ver, pero bueno. No, no, no, no, es la experiencia que se tiene con ese individuo. Entonces la comunidad busca algo similar que transmita. Te recuerdo que la lengua de signos principalmente son logogramas, o sea, transmiten conceptos con los símbolos que signan. Pues el datirológico también es similar. A lo mejor tú eras el pesado del cogote que estaba allí siempre, pues te cogeas el pelo por detrás, por poner una explicación que no es cierto. Sí, sí, pero no la comparto. ¿Y las personas con discapacidad física tienen alguna peculiaridad respecto a la comunicación? Principalmente a la hora de escribir y a la hora de pronunciar. Entonces ahí, en la comunidad, hay que tener un poco de cuidado con lo que se dice. Y eso es lo que yo creo que es lo que es lo que se dice. Y eso es lo que se dice. Y eso es lo que se dice. Y eso es lo que se dice. Y eso es lo que se dice. Entonces ahí ya entramos en los tableros de comunicación no aumentativa, que ahora explicaremos después qué es la comunicación aumentativa. Entonces son tableros de comunicación donde podemos tener una matriz, una rejilla, una cuadrícula con las letras del alfabeto, algunos números y unos cajetines que pongan sí, no, ni de coña. Y mediante algún sistema, bien sea una varilla, bien sea una pelotita, bien sea un barredor. Un barredor es algún utensilio que lo que hace es permitirte mover de izquierda a derecha. Cuando llega al final de la línea esa, vuelve justo en la línea de abajo por la izquierda. Vas barriendo las posibles letras. Hoy en día se sigue utilizando, sobre todo porque las personas mayores no se tecnifican, un sistema que se basa en el deletreo mediante timbre. O sea, tú le pones a la letra, te pone el número, te pone el nombre de la persona mayor que solo puede mover una mano y entonces tú vas a B, C, hasta que llega la H y entonces hace clin, dice vale, la H. Empezamos otra vez. A, B, C y hasta que llega la O, H, O, venga, A, B, hasta la L. Y dices tú, ah, coño, que es Ricardo que me está diciendo. Pues sí. Entonces es un sistema que es el más adecuado. Pero dices tú, jo, qué paciencia que tenés. No, es que se puede optimizar porque, por ejemplo, empezamos con filas y tú le dices, fila, y hace clank, clank, clank. Dice, vale, me voy a la tercera fila. En vez de empezar por la A, empiezo a lo mejor por la J. Ya estamos optimizando. Y es cuando decía un compañero, nos metemos los ingenieros en lo que habla la gente. Ahí ya empezamos a optimizar la comunicación. Y de ahí empieza la tecnología que, por ejemplo, tenemos sistemas de tableros de comunicación basados en el movimiento de los ojos, en el movimiento de partes móviles que tenga el cuerpo. Por ejemplo, Stephen Hawking solo tenía en las últimas etapas de su vida movimiento en un párpado y en la mejilla y en parte de un dedo anular. O sea, la. La. Lo dejó paralítico, parapléjico hasta el 99,9%. Y con esa posibilidad de movimiento de su cuerpo se comunicaba. Tenía un sistema de lectura de ese movimiento que lo traducía mediante un barredor en lo que él quería escribir. ¿Qué pasa? Que ahí ya se utiliza sistemas de aprendizaje a profundo del lenguaje, sistema de inteligencia artificial, porque tú ya empiezas a escribir. H, O, dice el sistema. Este es Ricardo, porque me va a poner una R, seguro. Entonces ya te rellena la palabra que iba a decir. Normalmente cuando se utiliza un sistema de barredor no se utilizan los espacios o no se ponen signos de puntuación para transmitir el mensaje de la forma más apropiada, porque suelen ser personas que tienen problemas para moverse. Encima le va a obligar a poner espacios. Sí, la forma más económica que no malgasten. Sí, sí, sí. Claro. Y eso. Para las personas con problemas de movilidad o motricidad. Y personas con problemas cognitivos. Ahí ya entramos en los tableros de comunicación aumentativos, que cambiamos las letras por glifos, por pictogramas. Que un pictograma es un dibujito que transmite un concepto. Por ejemplo, tú pones un dibujito de un cubo de la basura, pues eso tiene más importancia. Tiene mucho significado. Pero si yo le pregunto a Ricardo, oye Ricardo, ¿qué opinas sobre un guiso de cucarachas con chimichurri? Ricardo puede señalar al pictograma del cubo de la basura y sabemos su opinión al respecto. Se puede interpretar de esa manera. Entonces, la comunicación aumentativa no usa letras, no usa caracteres, sino que usa conceptos. Volvemos al tema. Volvemos al tema de los logogramas. Con eso, una persona con trastorno autista de espectro 2 o espectro 1, bueno, el espectro 1 puede utilizar el lenguaje habitual, no me gusta decirlo de lenguaje normal. Ya espectro 2 y quizás alguno de nivel 3 de autismo, tableros de comunicación aumentativa, también personas con problemas prolocutivos, que también entran dentro de la discapacidad cognitiva. Esto es más interesante porque, hablando de los negócios y los ????ías, tuvimos a la gente claudio en encuentros metaphásicos que se plantean cuando se habla, hay que pactar. Cuando se habla dentro del psychoterapia, una persona puede int inspir mRNA o loyaltyiii. Tiene que a heckler strikesili end majes, que llega a virtually cualquier tipo de per oriented, ??? que sea que sea directo el principio de una sense. Este triple contacto o partái de no belong. Esto lo kindunda todos y todos los görepros del skae ahora que pertenece cualquier bit. Bueno, este es un?r Board. Vamos a más. Básicos entre otros. Busca unemployment counteract social. Lo que?am rede??çar. Bueno, tipo de ásperes profundos, trastorno autista o TDAH. Entonces tienen problemas prolocutivos, tienen problemas para relacionarse socialmente en una comunicación fluida. No identifican esas reglas de comunicación o bien no las pueden interpretar. O sea, la conocen, pero no saben cuándo pueden hablar. Entonces necesitas una comunicación más selectiva de oye Ricardo, ¿qué opinas de todo lo que le estoy contando a Arturo? O sea, te estoy implicando directamente en la conversación. Entonces la persona que tiene problemas prolocutivos sabe que es su turno de hablar en cuanto yo me calle. Curiosamente estabas comentando esto y recordaba el tema de la dislexia que no se le ha hecho mucho caso, por lo menos en la época en la que yo estudiaba. Ahora sí. Ahora empieza a tener su importancia. Y bueno, para los que no lo sepan, son personas o somos personas. Yo cuando veía, porque yo soy disléxico, ¿no? Entonces son las típicas personas que aparentemente muchos conceptos escritos no acaban de asimilarlos. Es decir, porque... Y en cambio, todo lo que les he locutado, todo lo que escuchan, oyen, por ejemplo, el profesor en clase, todo lo retienen. Entonces, antes no se sabía muy bien por qué ocurría exactamente esto. Y ya se sabe que es así. De hecho, hay adaptaciones para personas disléxicas que estaban teniendo algún tipo de retraso dentro de su currículo. Sí. ¿No? Sí, sí, sí. Comentándolo tú, Jonathan. Sí, pues se utilizan cierto tipo de fuentes de letras. Por ejemplo, las serifas son útiles. El principal problema dentro de la dislexia, que es un cajón muy grande, hablamos de dislexia, pero en realidad hay distintos tipos, por reducirlo un poco, es que cuando tú visualmente pintas ciertas letras que tienen una asimetría, no son simétricas como puede ser la A y la V, que tienen una simetría horizontal. O sea, tú giras la A horizontalmente y se dibuja de izquierda a derecha, se dibuja igual que de derecha a izquierda. Lo mismo que la V o la M. Pero verticalmente no. Por ejemplo, hay letras que se pueden confundir. Por ejemplo, tú una E mayúscula las giras horizontalmente y se convierte en un 3. O una C las giras 90 grados y se convierte en una N. O si la giras 90 grados para el otro lado, es una U. Entonces, digamos que mentalmente a la persona disléxica las letras le bailan. ¿De esto qué es? ¿U? ¿Una C o una N? Entonces, el mensaje escrito, el acto de leer, es algo que desde pequeñito nos cuesta mucho trabajo y de tanto ejercitarlo, llega a crear unos enlaces en nuestro cerebro que ya lo hacemos de forma automatizada siendo adulto. ¿Qué pasa? Que la persona disléxica conoce tanto la palabra una como uva como hula, pero en su cerebro dice, no sé qué estoy leyendo. O sea, hay una desconexión y ese desgaste mental, porque es un sobresfuerzo, provoca esa falta de atención, ese fracaso educativo, también que los sistemas pedagógicos de hace 20, 30 años eran muy particulares. Todo el sistema educativo que tenemos actualmente es una herencia de una adaptación curricular educativa de todo el mundo occidental a la necesidad de la revolución industrial. Necesitamos peones especialistas en poner, un tornillo. Entonces, el sistema educativo se basa en algo que se pueda evaluar de forma rápida. Todos los niños tienen que aprender lo mismo memorizando y si no cumple con los requisitos de aprendizaje, tu examen no supera un 5 de 10, es que no vales, eres tonto o tienes un retraso. Entonces, fracasa ese educativo. Y seguimos con esa herencia. Una curiosidad, no tiene que ver estrictamente con la comunicación en sentido estricto, pero bueno, un poco en sentido ampliado, ¿no? Hay personas que identifican, por ejemplo, los colores con diferentes notas musicales. Sinestesia. Incluso con olores. Yo tengo un colega que cada vez que ve números pares, dice, es que me huele a mar. Y yo, los pares y los impares. Te voy a poner, cuando ves números pares consecutivos, dice que huele a mar. Pero como le dije yo de coño, un día de estos te voy a poner números primos aleatorios. A ver qué pasa. Entonces, esas personas que tienen sinestesia, para leer patrones o identificar patrones, por ejemplo, en una pantalla llena de números, pues esas personas, tú ves los números pintados y esas personas ven un... Colores o... Un... Una especie de tapiz de colores, de formas, de relieves, de olores. Eso es un tema de cómo está cableado nuestra mente. El cerebro humano sigue siendo uno de los mayores misterios, junto con las profundidades del planeta. ¿Qué hacemos con las personas que no ven y necesitan comunicación aumentativa? Porque lo mismo que hay personas sordos ciegas o personas ciegas, también hay personas ciegas con otros perfiles de discapacidad cognitiva, o incluso, por desgracia, conozco a personas sordos ciegas de carácter congénito, o sea, nacen con sordos ciegas, y por esa incapacidad de acceso a su entorno, a comunicarse con su entorno, adquieren una discapacidad cognitiva. O sea, no tienen vocabulario, no tienen capacidad, porque si una persona nace sordo ciega y no tiene concepto de comunicación, ¿cómo le enseñas a hablar? Gracias a investigaciones de personas sordos ciegas, congénitas, se han hecho muchos avances de cómo fueron los lenguajes de comunicación iniciales de la humanidad. Curioso que viendo personas con discapacidad desde la autoridad, podemos comprender cómo vivíamos cuando estábamos limitados intelectualmente. Pues, para este tipo de perfiles de discapacidad, tenemos tableros de comunicación aumentativa, donde no se utilizan letras pintadas, sino que se utilizan texturas, se utilizan formas, se utilizan objetos. A mí hace unos años me presentaron un tablero de comunicación aumentativa para una persona sordo ciega en específico, y era una especie de bandeja de 30 por 30 centímetros, donde había un trocito de tela, un recipiente de barro, dos varillas de metal, un trozo como de piel de naranja sintética, había distintos objetos. Y con eso, la persona podía transmitir de quiero dormir, tengo hambre, tengo sed, quiero ir al baño, no me gusta estar aquí, me gusta estar aquí. O sea, conceptos muy básicos, pero que la persona que apoyaba a esa persona sordo ciega, pues, podía interpretar, porque la persona sordo ciega lo que hacía era coger la mano de la persona que la asistía y la llevaba a la zona donde ella quería comunicar. Y cuando la persona que asistía a la persona sordo ciega cogía la mano de la persona sordo ciega, la llevaba a un sitio, era una pregunta. Tú fíjate en la comunicación. La persona sordo ciega impera o afirma y la persona que asiste solo pregunta. ¿Sabes lo que es lo difícil de todo esto? Lo bueno, muy complejo, probablemente por mi propia ignorancia, el pacto previo, el pacto para pactar, que cada cosa significa cómo llega a comprenderlo la persona. Eso es convivencia, convivencia. Normalmente las personas que asisten a las personas sordo ciegas suelen ser padres, hermanos, y es la convivencia, prueba y error, ensayo, paciencia... Para que la asociación se produce, ¿no? Sí, de cuando esta persona está muy cansada. Y muchas veces, como me explicaron, ese trozo de tela en realidad era el trozo de tela de una antigua almohada. Entonces asocia esa textura a quiero mi almohada porque quiero dormir. Vale. Hay algo que hace clic entre la persona asistida y la persona que asiste y es un vínculo. Y bueno, dentro de las comunicaciones aumentativas, comunicaciones correctas, cognitivas y demás, ya entramos en tecnología. ¿Cómo podemos solucionar con tecnología la accesibilidad? Ah, es verdad. La lectura es fácil. Para personas que solo tienen discapacidad cognitiva, pero tienen problemas en entender las reglas gramaticales, la regla de significado de las palabras, porque hay palabras complejas. Por ejemplo, si nos metemos en una página de términos de uso de cualquier servicio de streaming que tenemos en... a nuestra disposición, léete ese texto. Incluso a nosotros que somos entre, muy comilladamente, personas sin discapacidad cognitiva, yo soy más de la opinión de Sigmund Freud de que todos tenemos neurosis, o sea, todos estamos mentalmente estropeados, la cordura no existe, simplemente tenemos distintos grados de locura. Pero bueno, vamos a dejar ese tema aparte. Pues para esas personas que no entienden, no solo esos términos, sino que tú le estás diciendo, oye, mira, debido a que has cometido una agresión a esa persona por un acto de ira y demás, vas a ser reducido y además restringido a tu libertad en un establecimiento donde no podrás ejercer tu derecho a moverte libremente. O sea, te voy a meter en la trena porque has agredido a alguien. Y eso es lo que nos está diciendo. No has agredido a alguien. Sí. El lenguaje normativo y legislativo es muy complejo, pero es complejo para todos. Imagínate para una persona que tenga... Claro, no, no, pero te digo que cuando tú tienes una discapacidad cognitiva, incluso de, oye, no puedes irte a Pepite y meterte dos hostias porque te apetezca, porque te ha mirado mal, porque hay que ver no sé qué, el por qué, por qué, por qué, hace una estructura gramatical compleja. Cuando tú empiezas a utilizar frases subordinadas, frases condicionales, una complejidad gramatical en el significado de, por ejemplo, en el andaluz occidental, principalmente desde Sevilla, de la provincia de Sevilla, tenemos la triple negación, que es una afirmación completa e incondicional. Tenemos el no ni na. Eso Lázaro Carreter decía que era una expresión sublime del lenguaje claro, explícito y directo. Cuando tú le quieres decir a la persona de no tienes razón, yo tengo la absoluta realidad, es no ni na. Así es. Entonces, para esta persona que el lenguaje común, debido a su discapacidad cognitiva, no pueden comprender de forma clara y explícita sin ambigüedades, necesitan una simplificación gramatical, evitar sinónimos, hacer una lectura donde las frases, siendo de carácter simple, pueden encadenarse de una persona es libre cuando cumple la ley, no cumples la ley cuando haces un acto delictivo. Un acto delictivo es un delito. Un delito es pegar a alguien. Pegar a alguien es provocar daño. A otra persona es que no se le ocurre cómo reducir, provocar, perdón. Pero causar daño o hacer daño. O sea, estás utilizando una simplificación continua y evitas construcciones complejas. Y eso, por ejemplo, precisamente el día que grabamos este podcast, la European Disability Forum, que es un organismo del Gobierno de la Unión Europea, que representa a las personas con discapacidad, y la Unión Europea dentro de su normativa 3.1 del marco legal que entra en vigor en julio del 2025, en principio solo se iba a apoyar en accesibilidad digital la normativa de WCAG 2.1, 2.2, pero han hecho un pequeño guiño de, oye, no nos olvidemos de la lectura fácil, porque en el 2040 vamos a tener más del 35% de la población con más de 65 años o con discapacidad. Y la gente no está entendiendo en absoluto mensajes que consideramos de uso común y se están perdiendo en el lenguaje. Cualquier persona de más de 55 años en la actualidad, generalizando muchísimo, sabe que es un youtuber, porque lo dicen en televisión, en las noticias, pero no sabe que es un streamer, incluso la palabra gamer puede sonar rara, es probable que no sepa que es una pasarela de pago o la autenticación en dos pasos. Y ya costó trabajo explicar de qué era un número PIN, con lo fácil que era decir la contraseña de tu móvil, no, pues decíamos el número PIN, Personal Identification Number. Y encadenándolo con esto, sacando un poco la bola de cristal, uniendo la comunicación con la tecnología, ¿cómo ves el futuro y cómo va a evolucionar? Comunicación cerebro-máquina es el objetivo final. O sea, en cuanto podamos comunicarlo con un cerebro humano sano mediante una máquina, personas con trastornos de la comunicación pueden tener una ayuda, porque lo que va a hacer la tecnología es traducir. O sea, una persona con trastorno de la comunicación, una persona con problemas prolocutivos, va a tener una especie de pepito grullo tecnológico de habla ahora, no digas a eso que no es políticamente correcto. O sea, le va a asistir para que se comunique de forma fluida con su entorno, con las personas que le rodean, sin cometer esos deslices. Mucha gente identifica que las personas con trastornos autistas son maleducados y no entienden qué es que no entienden las reglas sociales de la comunicación. No es que sean maleducados, es que no pueden ser educados en un concepto, en un conjunto de criterios que no son naturales. Recordemos que... Son convención, sí, sí, sí. Sí, recordemos que todas las reglas sociales actuales no son reales. O sea, son pactos en los que coincidimos y apostamos por ello. Por ejemplo, no existen los derechos humanos. Es una invención. La sociedad moderna. Ahí no nos podemos meter en temas de filosofía, pero vamos a dejarlo. Bueno, y antes de la comunicación hombre-máquina, pues estamos teniendo comunicación aumentativa en tiempo real asistida gracias a la tecnología. Esos traductores en tiempo real de que entre una persona japonesa y una persona española ponemos en medio un teléfono móvil que escucha a los dos y va traduciendo en tiempo real lo que dice uno al otro y lo que dice el otro al uno. Eso ya lo tenemos hoy en día y eso abre muchas vías de mejora. Luego tenemos la comunicación de traducir lo visual a lo auditivo, como pueden hacer gafas con cámara, pueden hacer teléfonos móviles con cámara. Mediante la inteligencia artificial hace esa interpretación del contenido visual, lo traduce al lenguaje escrito. Ese lenguaje escrito se traduce al lenguaje hablado. Fíjate cuántas traducciones estamos haciendo ahí. Simplemente para que el ciego sepa que lo que está viendo es un anuncio de que se ha rebajado al 30%. La lengua de signos también se puede leer. Sí, la lengua de signos es uno de los primeros requerimientos que se utilizaron con la red de neurointerpretación visual porque, como decía un compañero que estaba en uno de esos proyectos, de ahí los dos sordos se ponen a hablar y tú no te enteras y los investigadores, por desgracia, somos muy cotillos. Entonces, es una forma de... Sí, sí. Es una forma de ayudar a esa comunicación. Es la parte humana de, digamos, de bondad de la persona. La lengua de signos va a hablar como le es más cómodo, más fluido y yo voy a tener con unas gafas un subtítulo de lo que me está diciendo. Que yo luego le hablo y esa persona en lengua de signos puede leer un avatar, una representación sintética de una persona que está asignándole. Que eso luego hay una controversia porque muchas personas sordas que utilizan la lengua de signos no les gustan los avatares digitales porque dicen que no transmiten gran parte de la información emotiva o enfática del lenguaje, que yo no entiendo. Pero también ellos tienen que entender que estamos en los primeros pasitos de esa tecnología de la sintetización del lenguaje corporal. Es como la voz sintetizada. Claro. En los años 80 teníamos una síntesis que daba pena y ahora tenemos voces que es muy complicado distinguir de una voz humana real. Es lo mismo, hay que tener paciencia. La tecnología avanza pero quizás no avanza lo rápido que nos gustaría a todos. Los programas estos software para jugar a fútbol, el FIFA, que es muy conocido. Bueno, hay otros también, ¿no? De Shocker. Inicialmente eran como, bueno, con unos movimientos típicos, toscos y realmente poco creíbles. Yo no lo he llegado ya a ver lo que hay ahora, pero por lo que me comentan mis sobrinos, prácticamente los movimientos de los jugadores son casi humanos. Es decir, esto mismo, es decir, que transmiten sensaciones. Es decir, en el control de la jugada y todo esto. Lo comento por el tema de la lengua de signos, que es visual también. Es decir, de estar hoy por hoy transmitiendo simplemente el signo, así un pictograma estático, ¿sabes? Hacer algo con sentimiento y después de lo que estamos escuchando en la creación musical por inteligencia artificial, con su no hay, audio y todo esto, que llega un momento que alucinas viendo como de algo que aparentemente no existía, has hecho una creación que hasta en algún momento transmite. Claro, sí, pero yo a lo que me refiero es que gran parte de la comunidad, de hablantes de lengua de signos, se niegan a colaborar con esos proyectos de avatares digitales. Entonces ahí estamos teniendo el problema de, señores, tenemos que pasar una época pasándolo mal para llegar a ese punto de perfección. Y bueno, hay otros temas también de falta de comunicación, colaboración con otros perfiles de la tecnología. Sí, claro. Y bueno, hay otras cosas que no se pueden hacer, pero bueno, en todos los lugares cocinabas, como suelen decir. Pero toda la gente con discapacidad y sin discapacidad tiene resistencia ante la nueva tecnología que viene y nosotros mismos, las personas ciegas, cuando surgió el octacón, que era, bueno, ahora si quieres lo comentas, Jonathan, pues no todo el mundo pasó por ese aro. Había gente que sí que lo utilizaba y se convirtieron en verdaderos maestros. El uso de este dispositivo, que fue el que nos llevó a la creación, de este dispositivo que fue de los primeros electrónicos, que tuvieron las personas ciegas como alternativa al braille, alternativa entre comillas. Y hubo un gran número, por no decir la mayoría, que nunca ni tan siquiera tuvo conocimiento de lo que era el octacón porque no tenía ningún interés. Ahí está el tema de la necesidad algodista del genio. Pero bueno, por explicar, el octacón era un sistema de replicación en relieve de figuras digitales. Los caracteres que se veían en una pantalla o las líneas y demás, a través de una superficie flexible, vibrante, una malla que vibraba, se transmitían formas y las personas ciegas con el dedito ahí, moviendo una cámara, pues podían interpretar las figuras que aparecían en una pantalla. Lo estoy simplificando muchísimo porque yo no he vivido la época del octacón. Yo me afilié en 1995. Entonces ya ahí había líneas braille de la gente de Baum y de Human Works. También había síntesis de Boh con el procesador, perdón, con el chip de Philips que llevaba el braille hablado, el Brenner Stick. Entonces, sí he utilizado octacón. Me costó muchísimo porque se suponía que ahí había una A, pero entre la vibración y la falta de resolución, y yo he visto que... Y a mí me costaba trabajo. La sensación era en el dedo, normalmente índice, era como unas cosquillitas, como si con una plumilla te hicieran una electricidad. Una vibración controlada. Para mí era muy complejo. Yo supongo que esto, como en todo, cuando se produce el momento ese de la automatización, que ya no estás pendiente de mira qué gracia las cosquillitas, que cómo están, y ya verdaderamente, te transmite la imagen, pues se convierte en algo útil. Pero era muy poca gente la que llegaba a ese punto de excelencia, de uso avanzado. Claro, ahí el tema de necesidad. La persona que lo necesitaba se implicaba y echaba horas. Y la persona que lo tomaba como curiosidad o tenía otra alternativa. Y ahí, por ejemplo, el braille, cuando aparecen las líneas braille, fíjate, que muchos de estos sistemas alternativos de ver las cosas en relieve, tienden a desutilizarse o abandonarse. El tacón muere porque aparecen las líneas braille y aparece la síntesis de voz. ¿Qué son las líneas braille? Las líneas braille es un dispositivo que permite mover unos segmentos de algún material, formando cajetines braille. Tú coordinas esos movimientos dentro de una matriz de celda braille y va formando mensajes. Entonces puedes transmitir un mensaje escrito en una pantalla en una línea de 20, 40, 60, 80 o 120 caracteres. Correcto. ¿Todo esto conectado a sistemas digitales como anotadores, PCs, no? Sí, sí. Teléfonos móviles, porque ahí tenemos líneas braille con conexión inalámbrica, bien sea Bluetooth, también por teléfono. Tenemos líneas braille desde comienzos de los 80. Por tener, tenemos hasta teclados braille virtuales en los teléfonos, ¿no? Sí, ahí hay una adaptación de la forma de escribir en braille en algunos teclados compactos. Por ejemplo, muchas personas ciegas conocen la máquina de escribir Perkins, del Instituto Perkins. Donde tenemos los puntos 3, 2, 1, espacio, 4, 5, 6 en línea. Recordemos que los cajetín braille estándar son seis puntos. El punto 1, 2, 3. Que si dibujamos un carácter braille son dos filas de puntos en vertical. El número 6 del dominó. Sí, pero en vertical, porque puedes tener el número 6 del dominó girado a la derecha. Sí, pero la composición es esa, ¿no? 3 a 3, ¿no? Sí, 3 a 3. Arriba a la izquierda el 1, abajo del 1 está el 2, abajo del 2 está el 3. Arriba a la derecha el 4, al centro a la derecha el 5 y abajo a la derecha el 6. ¿Te digo hola en numeritos braille? No, no, déjate, déjate. Y entonces, lo normal es tener ese teclado en línea. Porque es lo más económico y encima se aprovechaba la gente de Perkins y la gente que fabricaba otras máquinas de escribir en braille. Aprovechaban la mecánica de una máquina de escribir clásica, de esa percusión sobre una cinta de tinta para impresionar sobre el papel. Pues en lugar de impactar de arriba abajo, como hace todo el mundo, en el papel, en el papel, en el papel, en el papel, en el papel. Pues en lugar de impactar de arriba abajo, como hace todo el mundo, en el papel. Pues en lugar de impactar de arriba abajo, como hace todo el mundo, en el papel, en el papel, en el papel. Como hace una máquina de escribir estándar, lo hacían de abajo arriba para en lugar de impactar sobre una celda de calco de tinta, pues iban con un punzoncito cada tecla y cabalía a un punto del braille. Entonces eran punzones en distintas posiciones que al pulsarlos a la vez perforaba parcialmente en un papel grueso y ponía los puntos en alto relieve. Entonces hubo otros modelos de máquinas de escribir clásica. Entonces hubo otros modelos de máquinas de escribir clásica. Más de escribir braille en donde no tenían suficiente espacio porque las máquinas de crossover perking eran sus 6 kilos de peso, o 8 kilos incluso. Y eran bastante anchas. Las hicieron más compactas. No tenían tanto espacio. Entonces empezaron a aprovechar distintos ángulos para formar teclados más compactos. Donde doblando tu un poco las muñecas, terminabas escribiendo. Y de tanto doblar, pones una celda braille en vertical y con tres dedos de cada mano puedes pulsar formar un carácter braille en la pantalla táctil de un móvil y ahí tenemos un teclado en pantalla Tocas como un acordeonista ¿no? Sujeta con la palma de las manos los cantos cortos del teléfono te lo pones al pecho con la pantalla mirando hacia adelante y empiezas a teclear ¿y la velocidad? Muy bien, gracias yo escribo bastante rápido pero sí es cierto que no es una habilidad común en usuarios ciegos de teléfonos con pantalla táctil o sea, es algo relativamente nuevo eso está disponible, si no recuerdo más, desde el puede ser iOS 14 iOS 15 no, antes iOS 11 o 12 no recuerdo vale, vale entonces todavía hay mucho que evolucionar y mucho que mejorar ahí verás, hemos pasado de escribir en braille con un punzón sobre una regleta de guía para las líneas a pasar por las máquinas perking líneas braille y por ejemplo lo más chulo es escribir braille en el aire que es como escribir en una pantalla táctil pero lo único que hace es fijar la posición de las muñecas y mueve los dedos y eso con sistema de interpretación visual y con módulos expertos de inteligencia artificial interpretan tu movimiento de los dedos como las pulsaciones de una máquina perking y eso es tecnología futura pues yo creo que hemos dado un repaso bastante amplio creo que todos los sistemas de lectoescritura existentes si os parece hacemos un resumen muy rápido y vamos terminando pues resumen rápido del gruñido a recibir pensamientos de una máquina eso es la evolución que hemos llevado y la necesidad de comunicarnos somos bichos sociales con cada vez más con cada vez menos pelo nos tenemos que comunicar establecemos reglas de comunicación y como siempre que se establecen reglas y canales y se establecen formas de relacionarse siempre hay alguna persona que se queda fuera bien por su incapacidad o bien sea por la incapacidad de los demás de intentar amoldarse a las necesidades de una minoría así es y no hemos hablado de todos que hay gente que se comunica con los abanicos aparte de los locomía es un lenguaje y con las flores con ramos de flores también sí, también es cierto y con banderas y con luces y con morfe y no nos olvidemos del silbo canario y los gritos en el monte exactamente pues muchísimas gracias Jonathan hemos estado muy entretenidos y nada pues te agradecemos mucho que hayas compartido con nosotros este ratito y con nosotros y con todos los oyentes y te puedes ir de vacaciones si quieres muchas gracias pues justo empiezo en cuanto le dé a la pausa de esto un silbo de despedida para ti shiu shiu venga un saludo a todos y todas muchas gracias Jonathan y los medios de comunicación Ricardo gafotas arroba cgatos punto es es nuestro mail y y nuestro whatsapp en el más 34 644 640 792 pues mil gracias a todos por acompañarnos hasta aquí y os esperamos en el próximo episodio así que adiós chau chau o pero estuvo un experimento Estuvo un experimento, no sé si es leyenda urbana o experimento, no sé si tú lo conocerás. Es muy famoso y creo que está relacionado con el emperador y Terreinato, ¿no? Vuelvo, vuelvo. Pip, pip, pip, pip, pip. ¿Qué ha pasado? Nada, que he dicho Terreinato. Que salió, que salió. Un momentito. Ya he dicho pip, pip, pip, pip. Pues bueno, dicen que este hombre, a este hombre lo conocían como Estupor Mundi y era porque aparte de ser emperador y por otras veces rey, era un hombre muy sabio. En aquella época nosotros teníamos a nuestro Alfonso, que también era muy sabio. Los reyes, además, a ver si no penséis que siempre han sido tontos, que también los ha habido sabios. No lo digo por nadie, vamos. Y luego yo cortando trozos de audio, si es que vamos. Joder. Joder. Joder. Ay, Dios. Bueno, pues Federico II era conocido como Estupor Mundi. Y estupor era porque dejaba estupefacta a toda la gente cuando veía el... Estupor Mundi. Estupor Mundi. Estupor Mundi. Estupor Mundi. Va a dar por especial de temas falsas hoy, eh. Ay, Dios. Ay, me descojono. Va a dar por especial de temas falsas hoy. Hostia, hostia, perdona, eh, Arturo, porque te voy a hacer trabajar. Pero no, no, voy, voy. Estupor Mundi. Estupor Mundi. Por cierto, antes de que termine el teatrillo de la entrada, recordad que me tenéis que presentar. Yo estoy aquí esperando. Nos liamos, nos abrimos arriba y terminamos y chimpún. Es nuestro momento de gloria, si luego somos intrascendentes, simplemente acompañamos al cortejo y al carruaje. Vale, vale. Si Ricardo se despide en algún momento, pues tú nos das las gracias y ya está. Vale. Venga, me callo. Vamos. Emperador del Santo Imperio Germánico Cristiano. Casi nada. Bueno, pues... Estoy muy disperso hoy, eh. De todo esto. No, no, tú dale. Bueno, lo siento mucho. Vale. Eh... Bueno, voy a ver por dónde tiro y ya lo contaremos con Fea. Muy bien. Este, eh, Agui lo hizo para que se comunicaran los militares, ¿no? Por la noche. Eh... No, ese fue Barbier, creo. Es que estoy hablando de Memo. Pues vamos a consultarlo, espera. Yo tengo ahí que contar. Entonces... Muy bien, pues era el sistema de... El sistema de escritura nocturna de Barbier, creo que era. Vale, vale. Seguro que lo sabes tú más que yo. Y me he columpiado. Mi alemán no es suficiente para pronunciar lo de... Yo iba a hacer el chiste de Gutenberg y la imprenta. Digo que qué nombre... Lástima que lo utilizaran para la imprenta con el buen nombre de embutido. Es que en serio, digo yo, ¿cómo se pronuncia? ¿Cómo se pronuncia? ¿Cómo se pronuncia esto? Gutenberg. Stasel Frisch. ¿Lo habéis encontrado? ¿Eso? ¿Era Barbier o el otro pavo? Stasel Frisch. Sí, el que te he dicho yo, sí. ¿Sí? Vale. El de Barbier. Hombre, pues para esto hubo un experimento... Bueno, no se sabe si es leyenda urbana o experimento. No sé si tú lo conocerás. Es muy famoso. Y creo que, bueno, está relacionado con el emperador. Bueno, y...
Gafotas, cegatos y sus aparatos #9
Fecha: jueves, 23 de enero de 2025, a las 00:00:00
En este episodio, ya el número 9, , exploramos el fascinante mundo de la domótica con dos invitados de lujo: Jose María Ortiz, especialista en accesibilidad tecnológica, y Alberto Tardío, más conocido como Tito de Aguacatec, apasionado de las tecnologías “open source” y del desarrollo comunitario.
Descubrimos cómo la domótica transforma nuestros hogares, desde la comodidad y eficiencia energética hasta la accesibilidad para personas con discapacidad visual. Conversamos sobre soluciones comerciales, plataformas open source como Home Assistant, y los retos y ventajas de personalizar tu propio sistema domótico.
Además, desglosamos temas clave como:
¿Qué es un puente y por qué es esencial para la automatización?
Sistemas centralizados vs. descentralizados.
Ejemplos prácticos: desde persianas automatizadas hasta sensores que detectan nuestras necesidades diarias.
El impacto del código libre en la domótica y el futuro de los hogares inteligentes.
No te pierdas esta charla amena y práctica, donde tecnología y accesibilidad van de la mano para hacer de nuestros hogares lugares más inteligentes y conectados.
¡Dale al play y acompáñanos en esta tertulia tecnológica!
Intervienen:
Sitios referenciados en el episodio:
Sitio Web Oficial de Home Assistant (inglés).
Nabucasa, empresa patrocinadora de servicios en la nube para Home Assistant.
Open Home Foundation (inglés).
Links del Blog y de la comunidad Aguacatec “Home Assistant, domótica y tecnología en español”.
Únete al grupo de Aguacatec en Telegram.
Escucha el Podcast de Aguacatec.
Mando a distancia inteligente - Hue Dimmer switch - Philips Hue.
Termostato Conectado e Inteligente de Netatmo.
Créditos:
Duración: 01:40:43
Descripción detallada del logo de Episodio 9. Domótica, primeras pinceladas para convertir tu casa en un hogar inteligente.
La imagen es una ilustración en blanco y negro que muestra una escena en una sala de estar moderna con un enfoque en la tecnología y el estilo retro. El personaje principal es un hombre sentado en un sillón. Lleva gafas de sol redondas, auriculares grandes sobre sus orejas, y una bufanda gruesa alrededor del cuello. Su cabello está peinado hacia atrás de manera elegante. Viste un chaleco sobre una camisa de manga larga y pantalones formales. En su mano derecha sostiene un control remoto, y en su mano izquierda, un cigarro. Su postura es relajada, con una pierna cruzada sobre la otra. A la izquierda del hombre, hay una lámpara de pie con un diseño moderno y minimalista. Junto a la lámpara, hay una planta en una maceta colocada sobre una pequeña mesa o soporte. En el suelo, frente al sillón, hay un robot aspirador circular con un diseño futurista. Parece estar en funcionamiento, ya que hay líneas que sugieren movimiento. En la pared detrás del hombre, hay una gran pantalla plana que muestra una interfaz de usuario con varios iconos circulares. Esta pantalla parece ser parte de un sistema de entretenimiento o control del hogar inteligente. Debajo de la pantalla, hay una estantería con varios dispositivos electrónicos. En la parte superior de la estantería, hay tres dispositivos que podrían ser altavoces inteligentes o controles remotos adicionales. En el estante inferior, hay un dispositivo más grande que podría ser un subwoofer o un altavoz. En la pared, a la izquierda de la pantalla, hay dos cuadros o paneles decorativos. Uno de ellos tiene un diseño abstracto que parece una señal de Wi-Fi, y el otro tiene un diseño circular con varios círculos concéntricos. La relación entre los objetos sugiere un entorno de hogar inteligente, donde el hombre puede controlar varios dispositivos electrónicos desde su sillón usando el control remoto. La presencia del robot aspirador y los altavoces inteligentes refuerza la idea de un espacio altamente tecnológico y automatizado.
Transcripción de Episodio 9. Domótica, primeras pinceladas para convertir tu casa en un hogar inteligente.
Bienvenidos al noveno episodio. Este es tu podcast favorito. ¿Qué tal estás, Ricardo? Pues muy bien, Arturo. Encantado de escucharte y encantado de que nos esté escuchando a partir de este momento toda nuestra audiencia. Hola a todos. Bueno, pues acabas de bajar esa persiana domótica. ¿Cómo va eso? Bueno, ya sabes que la domótica y yo no nos llevamos excesivamente bien. No por ella, sino por mí, que he vivido un poco ajeno a la misma. Tengo información, pero no en mi casa prácticamente. Mira, compré tres conectores, tres enchufes domóticos de una promoción de Amazon, porque estaban a un precio interesante, aunque yo no sabía ni manejarlos, para una fuente Zen que tenía para que se encendiera y se apagara a través de un dispositivo Alexa. Y no fui capaz de configurarlo en aquel momento. Y luego nada. Luego ya, pues mira la persiana que he tenido que bajar por mando a distancia y no está tampoco domotizada. Así que necesito aprender mucho de esto. ¿Tú sabes algo más? Bueno, a lo mejor después de esta sesión te animas un poco más. Yo sí que me he animado. Estoy aquí un poco liado con muchos cacharritos, muchos sensores. Y bueno, ahí andamos con muchas cositas. Y por aquí los invitados que tenemos, mucho más todavía, ¿no? Tenemos por un lado a Jose María. Buenas, ¿qué tal? Hola, ¿qué tal? Muy buenas. Jose, hola, ¿qué tal? Y también tenemos a Alberto. Muy buenas. ¿Qué tal? ¿Cómo estáis? Arturo, Ricardo. Hola, ¿qué tal, Alberto? Bienvenido y encantado de que estéis aquí, sobre todo para instruirnos a un zoquete como yo, que de domótica sabe más bien poco. ¿Sabes? Hace... Sabéis, mejor dicho. En los años... A finales de los 90, principio del 2000, la domótica era, como es hoy, la inteligencia artificial, la casa inteligente domótica. Y en aquel momento hubo mucha información y, lógicamente, toda la gente amante de la tecnología, pues pusimos atención y estuvimos viendo qué es lo que se hacía. Lo que pasa es que en aquel momento no se veía la tecnología en nuestras casas. Sí en las publicaciones y demás. Hoy parece ser que eso ha cambiado, ¿no? Bueno, estamos ahí empezando. Yo creo que todavía estamos un poco en la época del Spectrum. Como ha mostrado, como Dori, que cada uno quiere llevar las cosas a su sardina y hay diferentes plataformas y diferentes estándares, pero yo creo que poco a poco irá mejorando. Yo creo que estamos en una buena época, que hay muchas cosas muy interesantes que ahora mismo se puede elegir y yo creo que es un muy buen momento, ¿no? Yo creo que sí. Como dice... Bueno, como decía... Bueno, antes de nada, llamadme Tito, por favor, para los chicos. Soy Tito, Alberto solo para la família y los jefes. Y bueno, como comenta Ricardo, sí, es verdad que hace años esto era más propio de edificios industriales o de casas muy futuristas, pero lo que comenta Arturo, sobre todo desde que empezaron las soluciones comerciales de Google, Alexa, etc., yo creo que ya llevan unos añitos que se van metiendo poco a poco en las casas y vemos más. Para empezar por el principio, para vosotros, ¿qué es la domótica, para vosotros, en vuestra experiencia? Buena pregunta. Bueno, pues, a ver, la definición formal, ¿no? No sé exactamente cómo vendrá en la Wikipedia, pero bueno, yo lo entiendo como la automatización del hogar, ¿no? Y podríamos hablar largo y tendido de todo lo que implica esta automatización, desde iluminación o, como comentaba Ricardo, enchufes, medición de consumo, automatización de rutina, seguridad, etc. Y bueno, realmente nos permite, en función de la plataforma que utilicemos, los dispositivos que tengamos conectados, pues, nos permite conectar unos con otros y crear muchas automatizaciones con los objetivos que cada uno tenga, ¿no? Pero bueno, luego ya también a nivel personal, pues, también pienso que es una afición, ¿no? Y antes, pues, ahí comentabas el tema del spectrum y tal, y creo que también es una pata muy importante, porque al final es algo que lo puedes tomar como un puro usuario que lo utiliza a nivel superficial, ¿no? Y entonces, en ese caso, para ti, quizás la domótica sea decirle a Alexa que te encienda una luz o que te apague un enchufe, pero si realmente es algo que te gusta, que no te importa dedicarle tiempo, que te gusta investigar plataformas más avanzadas, pues, puede ser desde un personal trainer, puede ser una lista de la compra automatizada para que te meta productos cada cierto tiempo o cuando se acaben, en fin, hasta donde llegue tu imaginación. Yo siempre digo que antes teníamos que optimizar el ordenador, ¿no? De vez en cuando había que reinstalar el Windows, había que hacerle limpieza, mantenimiento y tal. Luego pasamos a tener que hacerle mantenimiento al teléfono móvil, porque siempre se nos llena de un montón de WhatsApps, de mensajes, de vez en cuando hay que hacerle un poco de limpieza, ¿no? Y ahora también tenemos que hacerle mantenimiento a la casa. De vez en cuando alguna automatización que falla, alguna cosa que hay que mejorar, alguna cosa que tal. Esto, no sé, yo si quita o da trabajo, pero bueno. Y para Jose, ¿para ti qué es la domótica? ¿Qué te aporta, qué beneficios te da? Pues estoy muy de acuerdo con cómo ha definido el título la domótica, pero viéndola desde el punto de vista de personas con discapacidad o personas ciegas, la domótica nos puede facilitar mucho la vida en muchos aspectos, ¿no? A ver, está el aspecto friki, que nos tiene que gustar, está claro, como tú decías, Arturo, el mantener la casa. Pero, bueno, yo creo que para tema de control de iluminación, para tema de control de temperatura, para tema de control de persianas, a nosotros nos puede venir muy bien. Es verdad que tenemos nuestras aplicaciones móviles para saber si nos hemos dejado una luz encendida o no, pero bueno, si la casa lo puede hacer sola por nosotros y encargarse de apagar todas las luces, cerrar las puertas, bajar las persianas, controlar la temperatura y avisarnos, por ejemplo, si hay una fuga de agua, pues hombre, mejor será. Cuéntanos algún ejemplo práctico que tengas montado, alguna cosa... Bueno, yo, a ver, al final llevo ya unos años y he pasado por diferentes cosas. Yo empecé, recuerdo todavía un podcast que grabé con unos amigos que también están metidos en el mundo de la domótica, cuando yo grababa podcast en aquella época, hace ya muchos años, la verdad, que se llamaba La democratización de la domótica. Y era cuando empezaban a irrumpir Alexa, Google y este tipo de cosas en la vida de todos, que es verdad que parecía que nos iban a hacer las cosas muy fáciles. O sea, tú llegabas con tus bombillas, tus enchufes, tus cosas y se las conectabas a tus altavoces y te iban a solucionar la vida. Esto en algunos casos es verdad, pero en otros casos casi que te la complica, porque al final son enchufes, bombillas, interruptores de mil marcas que cada uno funciona de una forma que para vincularlos cada uno tienes que utilizar una aplicación que cuando al servidor de Alexa le da por fallar, pues se te va a tu la domótica, o cuando Apple cambia la aplicación te deja tirado. Al final es verdad que parece que es más fácil el gestionar la domótica centrándote en servidores de otro que montarte tu propia cosa, pero al final yo creo que si te gusta el tema merece la pena meter un poquito la cabeza. Cosas prácticas que yo tengo, pues ahora mismo, por ejemplo, yo tengo automatizadas las persianas de mi casa, están motorizadas y yo ya no me preocupo de las persianas. Se suben y se bajan solas a ciertas horas del día. En verano las tengo calculadas para que se vayan subiendo y se vayan bajando conforme va dando el sol en casa. Las tengo puestas con un sensor de lluvia para que se bajen cuando empiece a llover, para que no se ensucien los cristales. Tengo automatizadas las luces de casa para que se enciendan cuando está empezando a oscurecer y se apaguen cuando no solemos ir a la cama habitualmente. Tengo la calefacción de casa totalmente automatizada con respecto a nuestros horarios. Yo no toco el termostato de casa prácticamente nunca. Él sabe que se tiene que encender a tal hora para que cuando llegue la casa esté caliente, que durante tanto tiempo tiene que estar a tanta temperatura y que yo me voy a dormir habitualmente a esta hora y que me levanto a esta otra hora. Y yo no me preocupo de ese tipo de cosas. Y luego tengo sensores de movimiento, sensores de presencia en ciertas habitaciones para que se enciendan las luces automáticamente cuando entro o cuando me voy, la cerradura igual. Y me faltan muchas cosas, me faltan todavía muchas cosas porque no tengo el tiempo que me gustaría tener para dedicarle, pero a mí, por ejemplo, una de las cosas que me falta son sensores de inundación para cuando se me salga el agua de la lavadora, porque yo tengo claro que en algún momento va a pasar y el día que pase me acordaré de no haberlo puesto el sensor de inundación. Y, bueno, pues algunas otras cosas que todavía me faltan. Pero bueno, esos son algunos ejemplos, pero se pueden hacer virguerías. Una de las cosas que me acabo de acordar que tengo es un pronóstico del tiempo que me llegue a mi correo electrónico con una automatización que yo tengo puesta con unos datos que yo quiero que me dé exactamente. Me llega el pronóstico del tiempo todos los días a las 10 de la noche del día siguiente. Y, bueno, algunas otras cosas más que seguro que van saliendo. El límite es tu imaginación, ¿no? Toda la creatividad que uno pueda tener. Luego ya depende un poco de la plataforma. El límite es la imaginación y el tiempo que tengas para dedicarle a probar y a investigar. Estos sensores, os pregunto a todos, estos dispositivos de control, los procesos de automatización, todo, ¿esto lo instaláis vosotros o tenéis que llamar a gente que os lo instale? Pues hay de todo. En mi caso, yo soy ciego total. Mira, te cuento, por ejemplo, el tema de las persianas. Nosotros cambiamos las ventanas y las persianas el año pasado y yo dije que yo quería persianas motorizadas. Ellos me iban a poner el típico interruptor en la pared, de botón para arriba y botón para abajo. Yo les dije, vale, tú montame los cables como si me fueras a poner ese interruptor que tú dices, pero en vez de ponerme ese, me pones este otro que yo te doy. Y ese interruptor ya es domótico, con lo cual es lo que me han instalado ellos. El resto de cosas que tengo las he puesto yo porque yo tengo bombillas directamente, que algún día me gustaría cambiarlas por relé en los interruptores o en la caja de registro, que ahí sí hará falta llamar a alguien, aunque si uno sabe de electricidad, lo puede hacer el 90% de las cosas. Yo, personalmente, no, porque no sé, me encantaría aprender, pero yo sí que he llegado a cambiar algún interruptor, pero, por ejemplo, a lo mejor algún relé detrás de un interruptor sí me atrevo a meterlo, pero meterme ya en lo que es una caja de registro, no, ahí ya no me atrevo porque no tenemos cables. Hay que saber también dónde uno tiene los límites. Pero en mi caso personal, excepto esos interruptores, lo demás lo he puesto yo. Para ese tipo de cosas, ¿no? Hay otras cosas que se pueden hacer perfectamente. Poner un sensor de inundación en el suelo, eso lo puede hacer cualquiera. Exactamente. Un sensor de temperatura. ¿Qué es un sensor de inundación cuando hablamos de...? ¿Algún tipo de lámina, de papel, de chip? Bueno, hay diferentes tipos, diferentes versiones, pero el más típico es uno pequeñito, como una pastilla de jabón de las de hotel, de estas de las de hotel chiquititas, que dentro lleva una pila y ya está, nada más. Eso lo colocas en el suelo, una vez configurado, lo colocas en el suelo o en el sitio donde quieras comprobar que haya o no haya agua en esa zona, lo configuras y ya está. Cuando haya agua, te avisará el sistema que tengas previsto. Normalmente suele tener como dos conectores, no sé si técnicamente Tito lo podrá explicar mejor, son como dos conectores que cuando toca el agua hace que salten y es cuando te envía la señal. Hace un cierre. Sí, exacto. Básicamente, por lo que comentabas antes y por poner un poco en contexto, cualquier sistema domótico, sea una solución comercial o sea más sencilla o más avanzada, siempre hay como unos componentes o elementos comunes y uno es el coordinador, que es el núcleo del sistema, que digamos que es el que procesa toda la información y comunica todos los elementos del sistema domótico. Luego estarían los dispositivos finales, que es al final todos aquellos que, entre comillas, ejecutan una acción como puede ser una luz que se encienda o se apague. Y luego están los sensores, que los sensores no dejan de ser distintos tipos de dispositivos que realizan alguna medición del entorno. En este caso, por ejemplo, lo que estáis comentando, un sensor de inundación, pues efectivamente es un circuito que en función de cuando detecta una fuga de agua, se cierra y en este caso tendría un valor entre abierto y cerrado. Luego, como comentaban, tenemos sensores de, por ejemplo, de ventanas o puertas abiertas y cerradas, que son magnéticos, que en este caso es exactamente igual, el principio es el mismo, solo que en vez de ser el agua la que cierra el circuito, sería un campo magnético, que está compuesto de dos piezas y cuando están juntas se cierra. O un sensor de luminosidad, por ejemplo, que en este caso sí que sería gradual y dependiendo de la luz que detecta, pues da un valor, un sensor de temperatura, de humedad, etc. Entonces, digamos que cada uno de estos elementos cumple su función, el sensor, sea el tipo que sea, lo que hace es proporcionar al coordinador o al núcleo algún tipo de información y con esa información y las reglas que tú hayas predefinido, que serían esas automatizaciones que comentabas, pues mandamos a hacer acciones a los dispositivos finales u otros servicios que tengamos conectados. Por condicionales, ¿no? Si pasa esto, tienes que hacer esto, ¿no? Por ejemplo, sí, o como decía Jose, pues si es tal hora de tal día, se encienda la calefacción, o si el sensor de inundación detecta agua, mándame una notificación, o si se detecta que una ventana está abierta, pues, por ejemplo, apaga la calefacción. Una forma también de ahorrar energía. Yo creo que habría que empezar, primero, por contar las diferentes formas de conexión de la domótica, los diferentes protocolos, si quieres. Porque eso también, yo creo que, al principio, provoca mucha confusión y creo que la gente tiene que intentar tenerlo claro. Sobre todo, a ver, lo primero de todo es tener una central domótica, ¿vale? Y una central domótica puede ser, pues como hablamos antes, desde un altavoz de Amazon o de Google, a un Apple TV, un HomePod, o si nos vamos a dispositivos más específicos, pues un Home Assistant, ¿vale? Una vez tengas esa central domótica, que es, digamos, donde se gestiona todo lo que tú quieres que se gestione, empiezas con las diferentes formas de conexión de los dispositivos. Y yo aquí hablaría principalmente de dos, que es la Wi-Fi y ZigBee. Hay dispositivos que se conectan por Wi-Fi a esa central domótica y se envían tanto las actualizaciones de estado como las órdenes mediante Wi-Fi y otros que se conectan a través de ZigBee. Y a través de ZigBee, digamos, que sí que entra a formar parte de lo que se suele llamar el coordinador. Un poco así, ¿no? Por ejemplo, en mi caso, que yo utilizo ahora Home Assistant, todos mis dispositivos ZigBee están conectados a un coordinador y los dispositivos Wi-Fi van conectados por otra parte al mismo hardware, Home Assistant. Disculpa, Jose, ¿ZigBee es una señal de radiofrecuencia específica? Exacto, ZigBee es una señal de radiofrecuencia específica, diferente a la Wi-Fi. Como podía ser el Bluetooth, pero se llama ZigBee, ¿no? Exacto, eso es. Es como... Sí, es como otro elemento de domótica que yo creo que se utilizaba más antes. Aquí, Tito, me podrá corregir. Se utilizaba más antes que ahora, que era Z-Wave, por ejemplo. Hace unos años se utilizaba muchísimo Z-Wave y yo creo que ahora ha sido barrido básicamente por ZigBee. Sí, hay varios sistemas, incluso por cable. Hay Z-Wave, hay otros sistemas, pero yo creo que hoy en día quizás los más populares son el Wi-Fi y el ZigBee, son los más populares. Es decir, que han vencido los inalámbricos, ¿no? Sí. Bueno, sobre todo lo que decía antes Tito, de la domótica industrial en edificios y tal, yo no sé si se sigue haciendo mucho cableada. En su momento, sí. Además, también, aquí, claro, hay que tener en cuenta también cómo ha evolucionado la sociedad en general y la tecnología en particular, ¿no? Y es verdad que, por ejemplo, en el caso de que utilicemos cualquier dispositivo Wi-Fi, normalmente no necesitamos un puente adicional, un bridge adicional o etcétera, porque al final es el propio internet, el propio router, el que se encarga de gestionar esa comunicación. Sí que necesitaríamos un cerebro intermedio que conecte unos dispositivos con otros, como puede ser, por ejemplo, la aplicación de Google Home, ¿no? Pero, en ese caso, como ya tenemos el router y el Wi-Fi funcionando en nuestra casa, es un protocolo que, digamos, ya está funcionando en nuestro hogar, ¿vale? Pero, en caso de que utilicemos un protocolo alternativo, como puede ser ZigBee, que no es algo que, por lo general, la gente ni conoce, mucho menos tiene un coordinador, sí que tendríamos que añadir algo. Aunque, por ejemplo, a modo de curiosidad y también hablando un poco a la gente que nos ha iniciado, yo empecé la domótica con ZigBee y la empecé sin ningún coordinador, porque una particularidad que tiene es que puedes vincular directamente algún dispositivo sin necesidad de ningún coordinador. Eso sí, no te va a permitir hacer automatizaciones ni reglas complejas. Un ejemplo son los enchufes o bombillas que venden en Ikea con un pequeño interruptor o las persianas o algo de esto, que, al final, acabaría funcionando, no sé si como la persiana que tienes tú, Ricardo, con radiofrecuencia o algo así, pero, al final, no deja de ser un mando que específicamente actúa sobre un dispositivo y tú lo puedes vincular. Pero, de hecho, ya te digo, yo empecé así con la domótica y fue cuando me choqué con las limitaciones de, ostras, ¿no podría yo hacer que esto se encendiera solo a cierta hora o no podría hacer que si fuera una hora y pulsara el botón hiciera una cosa, pero a otra hora hiciera otra? Y ahí es cuando ya interesa pasarse a un coordinador más inteligente, empezar a crear reglas más complejas, conectar distintos dispositivos, etcétera. Pero, bueno, sí que se puede empezar por utilizar pocos dispositivos, sin puentes, sin protocolos complejos y, sobre todo, como decía Arturo, realmente, salvo temas de tocar cuadros eléctricos, cables, etcétera, la mayoría suelen ser pulsar un botoncito y automáticamente se vincula, por lo que yo creo que es algo bastante al alcance de cualquier persona sin conocimientos técnicos, ni de informática ni de electricidad. Otra cosa es ya cuando nos metemos en cambiar motores, cambiar relés y cosas de estas, que yo siempre recomiendo que si no has pelado cables, mejor que llames al de seguro o a Humanitas o de esto, porque no puede... Corres un riesgo. Sí, efectivamente, al final, ya no solo un riesgo inmediato, que puede ser porque estés cambiando un cable y a lo mejor se te ha olvidado bajar los plomos, ¿no?, como se suele decir. Y puedes dejar de fumar, ¿no? Exacto. Pues si no fumabas ya no hace falta. Efectivamente, te da... Sientes las chispas de la vida, ¿no? Pero, bueno, ya no solo eso, también hay que tener en cuenta, yo siempre lo digo, que al final, sobre todo cuando ya tienes un entorno maduro, con muchos dispositivos y tal, te gusta crear cosas automáticas, muchas pasan cuando tú no estás en casa o cuando están otras personas, pero no estás tú, que quizás eres el que tiene más conciencia de lo que has montado. Y a mí, bueno, pues siempre tengo en mente eso de que, cuando no esté yo, o esté durmiendo o duchándome o lo que sea, pues no quiero que pase nada que pueda provocar un incendio, una inundación. Correcto. Ha sonado eso, cuando no estoy yo, es cuando me muera. Oye, pues, poca tontería hace... Bueno, yo una de las cosas que hago es dar soporte a distintos usuarios a través de mi comunidad, etc. Y hace poquito, creo que hace apenas un mes, me escribió una mujer pidiéndome ayuda, porque me dijo, mira, es que hace un mes se ha muerto mi marido, él era el que había montado toda la domótica del hogar, con Home Assistant, que es esa plataforma que hemos comentado un poco por encima, que es más avanzada, o al menos no es algo que si no lo has montado tú en cinco minutos te enteres dónde están las cosas. Entonces, claro, la mujer tenía su casa automatizada totalmente, pero quien la había montado era su marido y ella no tenía ni idea. Entonces, claro, pues fue una cosa un poco compleja de hacer, ¿no? Y entonces, la verdad es que es algo que puede pasar. Yo, a día de hoy, ya no lo concibo de otra forma. La gracia de tener una central domótica es poder tener todo en el mismo sitio e interconectado también, ¿no? Pero yo creo que muchas personas, entre las que me incluyo, los primeros pasos que da en la domótica es, creo que antes lo comentaba Jose, es esa situación en la que tienes una aplicación para el termostato, una aplicación para las luces, una aplicación... Entonces, obviamente no es ni muchísimo menos lo ideal pero probablemente es con lo que comenzamos y precisamente ahí... Es que es lo más fácil, es que al final, por eso decía que cuando entraron Amazon, Google y a democratizar la domótica, por decirlo así, de alguna forma, nos lo vendieron todo de una forma muy sencilla, que muchos picamos, y luego te das cuenta de que realmente no es tan sencillo, o sea, realmente no es tan fácil porque tienes 25.000 marcas, muchas de ellas son lo mismo por dentro, con carcasas diferentes, 25.000 aplicaciones para configurar bombillas y al final te vuelves loco y no sabes ni lo que tienes ni lo que no tienes. Pero es una estrategia comercial, es decir, nosotros ponemos nuestro sistema, tú tienes que morir en nuestro ecosistema y comprar nuestros productos porque si te sales, mal asunto. No, porque al final no te creas, porque Amazon y Google se dedican a vender dispositivos domóticos, ellos no los venden. Pero nos venden sus altavoces. Sí, sí, claro, claro, eso sí, exacto, exacto. Yo siempre he pensado, por ejemplo, los de Amazon, los Alexa, considero que para lo que es la gama de productos que hay en general en el tema de la domótica, pienso que son bastante baratos y siempre eso siempre ha sido algo que me ha mosqueado, ¿no? Sí, sí, sí. Al final, cuando esto que se dice siempre, cuando algo es gratis y es que el productor es tú... Pues en este caso era así, lo que pasa es que no les salió bien. Realmente lo que querían hacer era un asistente de compra fácil, es decir, que tú tuvieras los Alexa para escuchar música, que sí, o radio, que sí, o lo que fuera, que sí. Ellos lo que querían es que tú pudieras comprar con facilidad y mantuvieras una relación con ellos con este tipo de dispositivos. Eso es cierto, eso es cierto y quizás esa estrategia por ahí no les fue bien, pero no nos olvidemos, y esto ya sería otra vertiente de la que se habla mucho en el tema de la domótica, que es toda la cuestión de la privacidad, de lo que se hace con tus datos, porque al final no olvidemos que esa parte de que tú estás controlando las luces, como decía Jose, el termostato sabe a qué hora llegas a trabajar, para qué caliente la casa, etcétera. Exactamente. Te hace un mapa de tu casa. Bueno, al final es un montón de información que al día de hoy que estamos en la nueva era de la inteligencia artificial que se alimenta de los datos que nosotros le damos. Sí, sí, esa big data es muy valiosa. Efectivamente, entonces nos han dado un altavoz por 20 euros y nosotros a cambio le hemos dado toda la información de nuestra casa, totalmente, y eso tiene mucho valor también. Sí, sí, totalmente de acuerdo. Así saben que necesitamos y saben que nos tienen que vender y en qué momento y cuándo y de qué manera, saben todo de nosotros. Pero es todo, porque el uso también de la inteligencia artificial ahora por 20 euros, 22 euros o 20 dólares, al final también estás compartiendo y dando un montón de información que a esta gente, bueno, ahora ya están subiendo los precios, pero todo lo que te estaba ofreciendo la IA parecía inaudito, es decir, cómo me lo están dando a este precio, porque estabas viendo que te daba resultados con todos los handicaps que tú le quieras poner. Al final es eso, que ellos nos han utilizado a nosotros como probadores para entrenarlo, ahí ya va parte del precio y la otra que nuestra información ya está alimentando su base de datos. Pues lo que comentabas antes, Tito, que al principio que entramos en la automótica pues empezamos con un poco como pollo sin cabeza, porque tampoco sabemos muy bien lo que queremos, no sabemos, bueno, voy a comprar un enchufe para encender y apagar la lamparita de piel en la sala y pues a ver este que me parece barato, es compatible con Alexa, no sé qué, y luego pues te compras otro, un sensor de temperatura, no sé qué, pero es compatible con HomeKit y al principio pues es normal, no sabemos lo que queremos, estamos en una cosa algo nueva, pero no deja de que... Y ojo que yo no lo critico, para mí es como que antes de andar hay que gatear. Sí, sí, totalmente. Entonces, a ver, yo estoy virgen en este sentido, yo soy un limitado en automótica. Es que creo que no tengo nada. Bueno, tengo a Alejandra y un icono, pero no va conectado a nada, con lo cual estoy out. Por otros, ¿qué me recomendaríais? Yo lo primero que pondría es el termostato, porque al final es un aparatito, bueno, un termostato inteligente, no es más que un termostato como los de toda la vida, con la particularidad de que lo puedes controlar desde el móvil. ¿Y por qué es lo primero que recomiendo? Bueno, aparte porque es muy cómodo el hecho de, por ejemplo, los que vivimos en sitios donde de vez en cuando hace frío, pues a lo mejor vas a llegar a casa de trabajar y la pones media hora antes para que se caliente. Entonces, te permite encender la distancia o, de la misma manera, si te la has dejado puesta y te has ido de casa y te acuerdas, pues no tienes que volver, la puedes apagar desde el móvil. Pero sobre todo, yo personalmente he comparado facturas con termostato inteligente y sin termostato inteligente y es que es algo que un termostato de calidad lo puedes comprar por más o menos 100 euros y en dos facturas lo has amortizado y a partir de ahí te genera un ahorro que yo creo que es muy interesante y que la calefacción. Estamos hablando de un ahorro de casi de 500-600 euros al año. Pues puede ser, sí, sí. No lo tengo calculado, pero no me parece nada descabellado. Yo, Ricardo, para que tú te hagas una idea, viviendo en Madrid, nunca he pagado al mes más de... o sea, nunca he tenido una factura de calefacción más alta de 40 euros. No la recuerdo. Eso es muy bajo en Madrid, eso es pagar un poco. Pero es que viendo... lo bueno que tienen estos termostatos es que al mes te mandan un reporte del número de horas que has puesto encendida tu calefacción y es que tú lo ves y la calefacción realmente, a lo mejor, en los meses más fríos, a lo mejor ha estado encendida cuatro horas al día, no más, porque sabe cuando tiene que encenderse y sabe cómo tiene que gestionar para mantenerse, ¿sabes? Entiendo que el termostato tiene sensores, sabe la temperatura que hace fuera, tiene una orden que a esta temperatura, ¿no? Exacto. Se potencia hasta que alcance tal temperatura. Claro, yo le digo que quiero, por ejemplo, yo en mi caso tengo en la casa... Este invierno, otros la hemos tenido a 20, este invierno está a 21. Pues yo creo que este invierno se está encendiendo menos veces que el resto de los inviernos. Claro, claro, claro. Entonces la tenemos a esa temperatura, ¿no? Yo, por ejemplo, te cuento las automatizaciones que yo tengo. Nosotros nos levantamos súper pronto porque entramos a trabajar muy temprano y nos levantamos a las seis menos cuarto. Pues yo le tengo puesto que a las cinco y media se ponga la calefacción a 21 grados. A las seis y media, que es cuando nos vamos de casa, se apague, se ponga a 17 para que no salte. A partir de las tres, que vuelva a estar a 21, hasta las diez y media de la noche y ya está. Esas son las automatizaciones que tengo. Y la de las cinco y media de la mañana la tengo puesta solamente de lunes a viernes y si estamos en casa, si no estoy en casa, no salta. Esas son las automatizaciones que yo tengo. No tengo más. Y ya sola se gestiona. Y lo que habéis comentado de controladores y conexión CIB y todo esto, en este caso, para comprar un termostato, ¿qué requisitos tendría para estar actualizado? O que fuera algo que me fuera a servir, no solo para ahora, sino para más adelante. En este caso que yo sepa, Tito, los termostatos van todos vía Wi-Fi. Todos Wi-Fi, ¿no? Hay algunos que no, pero bueno, sí es verdad que la mayoría y sobre todo aquellos que son más recomendados y más de calidad, son vía Wi-Fi. Son vía Wi-Fi porque se conectan con los servidores de ellos. Que ese es otro tema que luego, si queréis, podemos hablar. El tema de los datos, de dónde queréis que se gestione, si se gestione en local o si se gestione en los servidores de las empresas. En este caso, se gestiona, yo creo, que en los servidores de ellos. Sí, porque además también estamos hablando de esa primera fase de lo que comentábamos, donde acudes a una solución comercial, donde hay una empresa con sus servidores con tal que te gestionan todo, incluido, llamámoslo, salvaguarda de tu información. Pero bueno, que también en el caso del termostato, hay que tener en cuenta si tienes calefacción central, si tienes calefacción individual, si tienes solo radiantes. Un poco ahí, dependiendo del sistema que tenga cada uno, es algo que hay que comprobar previamente, pero independientemente de eso, es lo que comenta Jose, que la potencia está en que haya una cierta inteligencia o unas reglas que realmente te generan un ahorro. Correcto, y que los sistemas de calefacción, en este caso de refrigeración, sean sensibles a la orden. Es decir, puedan encenderse o apagarse cuando llegue esa orden. Porque mucha gente tendrá que comprar el termostato, pero si no tiene adaptados estos electrodomésticos, no sé cómo llamarles, pero no le funcionarían. Claro, es que depende. En este caso, en primer lugar, depende de tu sistema de calefacción. Si tienes calefacción central, te va a dar igual el termostato que uses. Normalmente no hay termostatos en calefacciones centrales. Pero sí que puedes abrir y cerrar válvulas. Pero para eso estaríamos hablando de válvulas termostáticas, que tienes que vincularlas con algo. Yo no sé si para las calefacciones centrales hay algo... Podría haberlo, pero no tiene sentido, porque al final vas a pagar igual. Entonces, lo que la gente tiene es 26 grados y abrir la ventana, porque al final vas a pagar igual. En las calefacciones centrales no tiene sentido. No era justo por economizar y pagar, sino por no achichar el reno de calor, que yo en Madrid he visto que hace un calor tremendo y no hay control cuando hay calefacción central. En mi caso sí que te hablaba de calefacción individual por gas. Pero fíjate que ahí, Ricardo, comentas... Bueno, aparte de la comodidad, que yo sí que le veo sentido. Por ejemplo, mi novia es supercalurosa y a ella, por ejemplo, no le gusta que el radiador del dormitorio esté encendido un rato antes de irnos a dormir, porque entonces no duerme. Entonces, como tú comentas y dices, Jose, sí que hay válvulas termostáticas que lo que hacen es abrir o cerrar un radiador, independientemente de que la calefacción esté encendida. Pero luego, aparte, hay otro tema, y esto ya me ha entrado un poco dentro de la conciencia de cada uno y de sus motivaciones, pero yo creo que también la domótica, ya hablando un poco en términos más generales, también no lo veo como algo superficial, sino que también ayuda al mundo, por ejemplo, no malgastar energía. Ya no es una cuestión de pagar menos que también, es una cuestión de, ¿realmente necesitamos gastar esa energía? Totalmente. Que haya alguien que esté poniendo la calefacción y, a la vez, abriendo la ventana. Luego también podríamos hablar de cómo la domótica te puede ayudar a obtener energía solar y a tu casa, etc. Bueno, que también puede ayudar en otro sentido. Bueno, en el caso de la calefacción central es que es un mundo aparte porque, aunque cierres el radiador, el consumo va a ser igual, no cambia nada, la caldera se va a encender igual. En la factura, sí. Y en el consumo de la caldera y todo, porque se va a encender para todo el bloque de vecinos, en ese caso. Pero la gracia de un termostato, sobre todo, es una calefacción individual y la gracia está en que haga cosas un poco, entre comillas, inteligentes. Que si abres las ventanas, para ventilar la casa, el termostato detecta que hay una bajada fuerte, un decremento fuerte de temperatura y apaga la válvula de ese radiador de esa habitación, por ejemplo. O con GPS o con... Tienes una aplicación extranjera móvil y te detecta cuando te vas de casa, automáticamente te pasa la temperatura, una temperatura de 15 grados para no malgastar, y si te acercas otra vez, te vuelve a subir a 21. Incluso por tu uso habitual, si sabe que a las 7 de la mañana te levantas, él se tiene que apañar para que a las 7 de la mañana la casa esté a 21 grados, por ejemplo. Día a día va aprendiendo cuánto tiempo tarda en pasar, por ejemplo, de 15 a 21, y si ve que son las 6 y media y la temperatura de la casa está a 16 grados, sabe cuánto tiempo necesita para subir hasta 21. Entonces, él ya va regulando para irse encendiendo a la hora que él necesita para que a la hora que tú quieras esté a la temperatura que tú desees. Es como la carga inteligente del iPhone, ¿no? Bueno, sí, pero bien. Bueno, vale, vale. Es ese mismo sistema automatizado, ¿no? Es decir, conoce hábitos, ¿no? O conoce en este caso datos, y con esos datos ya hace su programación, que es muy interesante. Bueno, pues solucionármelo de las luces, que realmente aquí sí que se utilizan luces, aunque haya mucha luz en el sur, ¿sabes? Y yo sea ciego y no las necesite, pero sí que sería interesante para mi entorno. Lo que tú has dicho, Tito te habla del termostato, yo te hablo del termostato también y del control del aire acondicionado, la verdad, antes de las luces, que también son importantes, ¿eh? Pero creo que para nosotros es también superimportante tener acceso al control del aire acondicionado, porque, bueno, al final son máquinas que no son accesibles, y a través de domótica, a través de sistemas Wi-Fi en los aires acondicionados, tú puedes controlar la temperatura y la velocidad de esos aires acondicionados. ¿Aunque mi máquina sea antigua? Pues probablemente sí, seguramente exista algún módulo Wi-Fi, o incluso si no, existen dispositivos que pueden clonar el mando de infrarrojo de tu máquina seguro. Incluso luego aquí también podríamos entrar en, como decía antes Arturo, en el mundo de la imaginación, yo hasta hace poquito estaba viviendo en una casa donde el aire acondicionado tiene creo que 15 años, algo más de 15 años, entonces ni Wi-Fi, no tenía ni mando, ni nada, lo que tenía era un controlador de sala que se llama este cacharrito que está en la pared y tiene un botón. Pues hay unos dispositivos que se llaman FingerBot para que os hagáis una idea es como un pequeño cubito de unos dos centímetros más o menos y de ese cubito sale un finger un dedo de plástico, de metal, de lo que sea y lo que hace es simular una pulsación. En ese momento yo dije quiero desmontizar este aire acondicionado pregunté al fabricante, me dijo que me podía mandar un módulo que costaba 300 euros, tenía que hacer una instalación y el cacharrito este me costó 20 euros y este funcionaba por bluetooth que también, aunque no es un protocolo muy extendido en domótica, pero bueno, también se puede utilizar para ciertas cosas y nada, pues lo pegué en el controlador y entonces cuando yo decía enciende el aire acondicionado él sacaba su bracito su dedo y pues bueno, fue una forma de hacerlo por 20 euros antes comentabas también Ricardo de si necesitamos para meternos en todo esto necesitamos tener electrodomésticos o máquinas como de última generación supercaras, pues para la mayoría de las cosas no porque por ejemplo fíjate que otra cosa que tenemos muchos hecho en casa es automatizar, yo tengo por ejemplo la lavadora y el lavavajillas que es de lo más práctico que he hecho y lo he hecho con un sensor de los que te decía antes de puerta y ventana abierta y bueno hay un enchufe inteligente que mide el consumo entonces básicamente lo que he hecho es la lavadora de toda la vida, en mi caso tendrá 7 años o así pero si tuviera 20 funcionaría igual está enchufada en vez de ir directamente a la corriente le he interpuesto un enchufe que mide el consumo entonces el enchufe me dice si la lavadora está funcionando o si no está funcionando en función de la potencia que le está demandando y luego aparte yo le he puesto un sensor de estos que se suelen poner para saber si la puerta está abierta o cerrada en la puerta de la lavadora entonces cuando el enchufe detecta que está demandando potencia sabe que ha pasado de apagada a lavando y cuando deja de tener demanda de potencia pasa de lavando a finalizado pero hasta que yo no abro la puerta y lo detecta ese sensor pues me está mandando una notificación cada 10 minutos diciendo que tiende a la ropa esto es un ejemplo práctico hablaremos de eso querido Tito cuando quieras eso también lo tengo yo eso mismo lo tengo con un enchufe domótico que va controlando el consumo instantáneo pues en que momento ha terminado de lavar y me avisa por los altavoces de Alexa pues me dice que ya puedo colgar la ropa y vuelvo a decir una barbaridad, el otro día escuché alguien que decía que utilizaba un sistema similar para saber si su cargador o sus sus pilas Arturo con un enchufe domótico igual cuando le tengo enchufado el cargador de pilas o un cargador que cargue cualquier aparato una powerbank o lo que sea las primeras veces hay que hacer un estudio previo de ver que consumo tiene cuando el dispositivo en cuestión está cargando porque hay veces que cuando llegan al 95% pues a lo mejor bajan ese consumo y cuando ha terminado de cargarse pues hay que ver en que en que consumo se queda porque hay veces que se quedan en un consumo residual de 0,30, 0,40 Hay que hacer un estudio previo ¿Cómo los obtienes Arturo? El enchufe inteligente te dice el consumo instantáneo que tiene ese aparato es lo que no sabía las primeras veces pues ves un poco a ver que consumo va teniendo y luego pues ya puedes crear una automatización una powerbank o las pilas o lo que sea están cargando a 3 vatios por decir algo y cuando han terminado de cargar pues se baja a 0,40 pues creas una automatización que cuando el consumo instantáneo esté por debajo de 0,50 durante 2 minutos por ejemplo pues que me mande una notificación al móvil y me avise por un altavoz inteligente de que ya ha terminado de cargar y además apague el enchufe inteligente para que no siga gastando ¿Eso produciría un ligero ahorro económico? ¿No? ¿Y al mismo tiempo protegería la pila? Lo más interesante yo creo que protegería la batería que no estaría ahí continuamente enchufada cargando Muy bien Lo que hicimos en todo esto lo más importante primero es saber qué es lo que queremos, a dónde queremos llegar para no ir como un pollo sin cabeza comprando cacharros de uno de otra marca, de uno de otro protocolo y que cada uno vaya conectado a una central distinta, un puente distinto porque al final todos se conectan una central a otra y al final acabamos con 20 centrales en casa con cacharros que son compatibles con Honky, otros con Alexa, otros por wifi, cada uno de su padre y su madre y lo peor es que no se pueden hablar entre sí que uno de Honky o no se pueda hablar con Alexa o no se pueda hablar con Honky por wifi, ¿no? Lo más bonito es que todos se puedan hablar entre sí entonces primero hay que saber a dónde queremos ir qué es lo que necesitamos y dependiendo de lo que necesitemos pues ya veremos qué es lo que podemos Pero o sea, tienes razón Arturo pero que no nos, o sea esto es como dicen los de Google, ¿no? No hay que tener miedo a equivocarse todos hemos pasado por ahí todos hemos comprado dispositivos que ahora ya no utilizamos y todos hemos cambiado nuestra filosofía de hacer la domótica o sea, si hay algo de lo que me arrepiento que en algún momento ahora lo estoy utilizando pero en algún momento me encantaría cambiar son las luces precisamente lo que tú contabas Ricardo Bueno, eso sí que tengo porque no tengo ni de acondicionado ni del otro pero bueno Yo ahora mismo tengo las luces de Hue de Philips porque en su momento son las que a mí mejor me venían porque vivía en una casa de alquiler porque yo quería que fueran compatibles con HomeKit y porque no tenía mucha idea de cómo iba el tema y porque es verdad es lo más fácil enroscas bombillas y tira y tira desde un puente y se acabó tiene sus inconvenientes porque si alguien te toca el interruptor te jode el invento pero bueno, claro eso es lo que pasa ahora es verdad que la tecnología ha avanzado y ahora existen unos dispositivos que se llaman relés que los puedes meter detrás del interruptor y que no necesitan una conexión neutra que en España no solemos tener en los interruptores de casa, ¿no? Yo ahora mismo tendría claro que no utilizaría ni bombillas domóticas ni interruptores domóticos, utilizaría mis interruptores normales de toda la vida, las bombillas que yo quisiera pero sí metería un relé detrás de ese interruptor un relé domótico que no lo ve nadie que no molesta a nadie y ahora ya no hacen falta que tengan conexión neutra pero sí o no, depende yo por ejemplo también empecé con las Hue por lo mismo porque también es lo más fácil de poner que las enroscas y luego pues ir a su puente de Hue y la app y ya está, es lo más sencillo yo cambié entre comillas los interruptores donde estaba el interruptor normal he puesto un interruptor de Hue, uno de estos que tiene los cuatro botoncitos lo que pasa es que te quedas también encerrado en el ecosistema de Hue exactamente porque todo eso, los interruptores de Hue, las bombillas de Hue van todos al puente de Hue y no puedes interactuar con otras cosas pero luego aquí está el salto que también quería dar, entre las soluciones comerciales que son cerradas y te quedas dentro de esa solución o otras soluciones como por ejemplo Home Assistant ahora todas las bombillas de Hue van a la central domótica, puente Hue, Hub o como queramos que se llame que en mi caso ahora es Home Assistant los interruptores también van a ese puente y ahora con los interruptores de Hue puedo encender y apagar un ventilador además de las bombillas puedo hacer que me diga cosas a través de Alexa o puedo hacer que interactúe con el resto de dispositivos que tengo en casa Toc, toc, toc, quiero preguntar Pues vamos a ver, cuando hablas de interruptor, que estáis hablando del pulsador, de la pared o del... Antes yo tenía el interruptor físico mecánico que hace que los cables dentro se junten o se separen que es el que hace al final que no se apague la bombilla y ahora eso no lo tengo, eso lo tengo puenteado y encima pues tengo puesto uno de Hue que es un interruptor inalámbrico ¿Y yo qué hago? Yo tengo aquí unos pulsadores que les doy y se enciende la bombilla. En tu caso yo lo tendría claro, no sé qué quería decirnos Tito pero yo en tu caso metería unos relés detrás de esos interruptores ¿Y esto también maneja si yo quiero darle distintas sonoridades, calor...? No, no No, solo encender y apagar. Ahí ya tienes que entrar en el mundo. Por eso depende lo que quieras. Vale, vale, vale. Yo os estoy escuchando y primero le doy toda la razón a Arturo pero estoy con Jose totalmente porque lo que dice Arturo es la voz de experiencia hablándole a un adolescente y diciéndole que no haga tonterías, ¿no? Yo lo veo así y todos, yo creo que todos hemos empezado con bombillas y aquí voy a lo que tú dices Ricardo porque como decía Jose es muy fácil es enroscar una bombilla y a funcionar entonces es muy fácil y creo que dentro de esto efectivamente como dice Arturo tienes que saber lo que quieres, lo que pasa que cuando estás empezando no puedes saber lo que quieres. No, exactamente. Porque necesitas un proceso de aprendizaje para llegar a saber lo que quieres. Por ejemplo la pregunta que tú acabas de hacer Ricardo, un relé es un interruptor electromagnético es decir, abre o cierra un circuito por un pulso magnético, ¿no? Entonces, esto únicamente permite encender o apagar, pero no te permite regular la intensidad o regular el color, ¿vale? O hacer otro tipo de efectos pero es que más allá de eso, por ejemplo te puedes encontrar nosotros te estamos aquí recomendando porque realmente es lo que ahora se recomienda instalar un relé, pero a lo mejor tú te compras el relé, el relé es como una pastillita de igual, pues de más o menos dos centímetros por dos o algo así, pero ¿qué pasa? que hay muchos que no caben en el cajetín pero no es lo mismo, por ejemplo, cuando ya una persona ya lleva un tiempo en la domántica y se compra una casa, hace obras, pues suele instalar cajetines con más profundidad para que entren este tipo de mecanismos sin problemas, para mí es que de hecho me ha pasado ayer que iba a poner un relé y no cabía en el cajetín, entonces bueno, tenía que hacer una solución ahí alternativa pero al final, en definitiva lo que quiero decir es un poco lo que comentaba Jose, lo que hay que hacer es probar y tirar un poco por tu necesidad inmediata tú ahora mismo que quieres encender esta luz y a lo mejor tiene justo donde trabajas tienes el interruptor en la otra punta de la habitación, pues a lo mejor a ti te va bien tener un bandito en tu escritorio donde puedas encender y apagar la luz sin tener que levantarte cuando se hace noche, ya está tú tira por ahí y en algún momento llegará un día que dirás, joder, y si pudiera hacer esto de tal manera entonces ahí empezarás a investigar y verás pues a lo mejor cosas que podías haber hecho de otra manera o cosas que puedes hacer ahora diferentes para gestionar eso. Y aquí quería enlazar un poco con lo que decía Arturo que para mí hay una cosa maravillosa que para mí es como una goma de borrar de errores y de home assistant ¿Por qué? Porque de la misma manera que a lo mejor tú puedes decir, joder, me compré una bombilla de no sé qué marca y yo que utilizo Apple para todo pues resulta que no es compatible pues home assistant como no es una solución comercial sino que es de código abierto permite la integración obviamente no del 100% de dispositivos del mundo mundial pero a lo mejor del 90 entonces la probabilidad de aunque tú hubieras comprado una cosa que sea china o que sea de IKEA o que sea de Philips o que sea de tal casi todo tú lo puedes integrar y comunicar unos con otros entonces yo me atrevería a decir que no ha habido nada que haya comprado ni siquiera cuando empecé con la domótica que no haya podido reaprovecharla de alguna manera fíjate por ejemplo por poner un caso concreto cuando yo empecé con las luces como he dicho con el mundo enroscando la bombilla pero luego empecé a utilizar enchufes en este caso eran por radio frecuencia que básicamente yo tenía un mandito y con ese mandito podía encender y apagar distintos enchufes en una habitación entonces a lo mejor tenía un estudio con el que encendía un ventilador, una impresora o lo que fuera todo en el mismo mandito pues cuando eso lo he llevado al mundo del home assistant evidentemente tengo enchufes inteligentes que pueden ir por wifi, por zippy pero también he podido utilizar todos estos viejos que tenía utilizando un emisor de radio frecuencia y eso incluso lo puedes utilizar con persianas viejas hasta con lucecitas de estas solares entonces bueno que al final la conclusión es que hay que empezar hay que tirar para adelante, hay que equivocarse y luego ya se encontrará la manera de solucionarlo, yo lo único que sí que recomiendo es que intenta en esos principios pues a lo mejor no gastarte 300€ o 500€ en algo pues empezar poco a poco ¿Primero qué es home assistant? porque a lo mejor de honking no suena, Alexa también porque son soluciones comerciales soluciones baratas que más que menos tienen un cacharrillo, he oído hablar de ello pero home assistant a lo mejor es un poco más raro ¿no? que es de hecho la mayoría de la gente no lo conoce, luego hay mucha gente que cree que lo conoce pero lo está confundiendo con Google Home eso me pasa muchas veces Sí, porque pone Google Assistant por ahí en algunos sitios en la app o algo así y a veces pues se confunde. Puede ser, puede ser mucha gente se confunde pero bueno por definirlo de alguna forma home assistant es un proyecto totalmente independiente de cualquier marca comercial no tiene ninguna asociación con Google Exa, Xiaomi, ni con nada es un proyecto que surge por una persona que lo empieza a desarrollar con el afán de crear automatizaciones y tal, es un proyecto que en un inicio además gusta mucho en la comunidad friki, por decirlo de alguna manera, gente con conocimientos técnicos porque obviamente en esa fase inicial no es algo amigable la interfaz y todo esto requiere en ese momento que tenga ciertos conocimientos y cada vez hay más gente que se va sumando y va pues aportando su granito de arena pues a lo mejor dice oye pues mira yo he conseguido desarrollar un código para integrar las bombillas de Philips y otro el robot aspirador de Xiaomi otro el altavoz de Alexa la cuestión es que es un movimiento de comunidad todo esto la gente que aporta lo hace por afición y entonces es un proyecto que va creciendo va creciendo y bueno a día de hoy está esponsorizado por una empresa que se llama Nougat Casa esponsorizado quiere decir que aunque patrocina este proyecto y obviamente hay gente ahí trabajando y que tiene un sueldo y todo esto y se dedica 24 horas a ello pero no es un proyecto que esté vinculado a resultados económicos ni nada de esto y bueno también pertenece este proyecto junto a otros está encuadrado dentro de una fundación que se llama la Open Home Foundation y bueno está adscrito a una serie de principios como privacidad accesibilidad aunque nos dejamos ahí peleando con ellos para que se pongan un poco las pilas bueno una serie de principios que en teoría garantizan que al estar dentro de esa fundación pues nunca van a a dejarse llevar por todas estas cosas que hacen las marcas comerciales entonces dentro de ese proyecto de código abierto que no pertenece a ninguna marca que se nutre de los aportes de la comunidad también llevan ya bastante tiempo realizando un esfuerzo para que cada vez sea menos algo para frikis y sea algo más accesible para todo el mundo ¿cómo? sobre todo a través de mejorar su interfaz de usuario es decir que sigues teniendo la posibilidad de escribir código como si fueras un programador siendo un programador el código que utilizan pero también pues con selectores, con campos como harías en cualquier aplicación como Google o Alexa entonces ya digo están intentando cada vez llevarlo más hacia ese mundillo para que bueno para que cada vez más gente se pueda animar a esto por ponerlo un poco en su sitio simplificando pues es un puente, un hub, una central domótica igual que tenemos HomeKit tenemos Alejandra tenemos pues por wifi pues podemos tener tuya o hay diferentes centrales domóticas donde todos los cacharros van conectados a esa central pues Home Assistant es otro de estos donde todos los diferentes dispositivos irán conectados a Home Assistant independientemente de la marca que sean y eso haría que todos puedan interactuar entre sí ¿no? simplificándolo mucho incluso por afinarlo un poquito más es un sistema operativo porque incluso te permite instalarlo hasta en tu propio ordenador tu portátil no necesita ni siquiera obviamente no es lo óptimo ni lo que acaba haciendo la gente pero si tú por ejemplo Ricardo hoy en tu casa al acabar el podcast lo quisieras probar podrías instalarlo en tu propio ordenador ese sistema operativo y verías como funciona Hay una cosa que me parece muy importante aunque no es al 100% porque hay bueno, conexiones o integraciones como se llaman en Home Assistant que sí que necesitan digamos contacto con el exterior hay una cosa que a mí me parece súper importante y que creo que hay que tenerla muy en cuenta y es que toda esa domótica con Home Assistant se gestiona de forma local en tu casa ¿vale? no es necesario que haya conexión a internet para que funcione esto es así pero tiene trampa por lo que digo ¿no? porque hay algunas integraciones algunas conexiones como por ejemplo la del termostato que sí que tienen que salir fuera de tu casa tienen que salir a internet pero por ejemplo en mi caso las persianas, en mi caso las luces y todo este tipo de cosas se gestionan de forma local no tienen que salir a internet para que funcionen y eso creo que es importante porque en otros sistemas domóticos sí que tienen que salir y utilizan los servidores de las diferentes marcas creo que eso es también una cosa muy buena de Home Assistant Sí, esta es una diferencia importante ¿no? que la inmensa mayoría de las empresas lo que quieren es conocer nuestros hábitos dentro de casa y para eso pues claro toda esta información tiene que ir a sus servidores así nos tienen ya fichados para poder realizar cualquier automotivación, cualquier cosa intenta basarse en hacer todo esto local claro, depende incluso del mismo dispositivo dependiendo de cómo lo conectes con Home Assistant puede que se conecte en local o no, o a través de internet si utilizas tu cuenta de usuario y contraseña que tienes en tu aplicación de Netatmo pues ese va a través de internet, en algunos casos existe incluso, bueno este ya pa nota se puede refactorizar el firmware del cacharro para que vaya en local ¿no? con un Tasmota o con una cosa de estas o hay varias versiones varias cosas que se puede reflasear para que se conecte, para decir al aparato no vayas a internet vete a Home Assistant que tienes aquí al lado Con lo que dice Arturo, una de las cosas que a mi me parece genial de Home Assistant es que también te da un abanico o sea, aunque ellos tienen sus principios como proyectos no creo que haya como una limitación o intolerancia a las preferencias de cada uno y al final, lo que dice Arturo aquí, si tu no te quieres complicar y lo tuyo no es programar ni nada de esto, pues oye, puedes conectar tirando la conexión con el servidor un montón de dispositivos ¿no? y en ese caso tu sabes que aunque lo tienes ahí integrado pues como dice Arturo, viajan los datos etcétera, pero también permite el otro abanico que yo lo quiero 100% local porque soy de los que llevo un gorrito de estos papel de aluminio porque satélite pues entonces tu puedes tenerlo todo 100% local además de lo que comentaban tiene otras ventajas como por ejemplo la velocidad exacto, si, no es lo mismo la velocidad de respuesta de cuando tu mandas una información que tiene que ir a un servidor de China y volver a algo que literalmente lo hace a un metro entonces hay muchísimas ventajas pero en Home Assistant tienes todo el abanico puedes hacerlo fácil, cediendo tu información y siendo consciente de ello o puedes complicarte incluso hacerte tus propios dispositivos que como dice Jose funcionan sin internet, funcionan totalmente local y hasta le puedes hacer la forma que tu quieras, las voces que tu quieras O si te quedas sin internet yo este fin de semana pasado tuve una avería con mi proveedor de internet que me dejó 4 días sin internet feliz, vamos volví casi a las cuevas de Promañón tu no, la tuvo el la avería no la tuviste tu con el, la tuvo el la tuvo el proveedor de internet pero el afectado fui yo si, si, 4 días Arturo, vives en, vamos en las cuevas estuve viviendo y una parte importante de la domotica seguía funcionando la parte que estaba en local seguía funcionando, un ejemplo son las bombillas de Philips que se conectan todas a través de su puente si tu integras el puente con Home Assistant que es la solución fácil todo eso va a ir a través de internet pero tienes todas las bombillas y dispositivos sensores de movimiento, interruptores todo del tirón, todo de una tacada pero todo a través de internet y la solución un poco más difícil es que cada uno de esos dispositivos cada bombilla, cada sensor de movimiento, cada interruptor la conectas directamente a tu Home Assistant y ya todo funciona en local, incluso te da más funcionalidades que las que tiene el propio dispositivo de serie por la marca como curiosidad, las bombillas de Philips cuando se encienden tienen ahí un delay tardan, no sé si es un segundo medio segundo, no pasan de 0 a 100 sino que van pasando por un degradado que da un efecto un poco más chulo a la hora de encenderse despacio, que es una característica de Philips que además es una característica de la marca y con Home Assistant la puedes saltar y puedes pasar de 0 a 100 instantáneamente, por ejemplo Yo sí que tenía varias preguntas que haceros respecto a Home Assistant son dudas, lo primero es uno tengo claro de que cuando comenzó todo esto era para gente con muchos conocimientos y muy frikis que la evolución por lo que está comentando Tito es abrirla y que cada vez hacerlo todo más sencillo y fácil para que sea más popular y lo utilice todos los usuarios que lo deseen, entonces sin ser friki, sin tener unos grandes conocimientos, ¿qué perfil básico debería tener una persona a nivel de conocimientos informáticos o de manejo de tecnología y que curva de aprendizaje precisaría para sacarle un funcionamiento también básico a este tipo de sistema? Ahora luego os pregunto otra cosa. Esto es muy interesante uff esto es muy interesante porque en las soluciones comerciales lo que supuestamente te venden es que es enchufar y listo, aunque en la práctica tampoco es tan así, porque muchas veces tienes enchufes, sensores, no sé qué, por ejemplo HomeKit y hay veces que deja de funcionar no sabes por qué, no sabes cómo solucionarlo, no sabes qué hacer y estás vendido porque a veces tampoco tienes un señor de Apple allá al lado para solucionarte los problemas porque es uno de los problemas que más se suele achacar a Home Assistant que el mantenimiento te lo tienes que hacer tú pero es que en el resto de plataformas comerciales también. Mira, yo creo que lo tengo clarísimo el único requisito que veo indispensable para que una persona pueda hacer funcionar Home Assistant es que tenga tiempo o tiempo que le quiera dedicar porque al final, obviamente si tú eres una persona que te manejas habitualmente con tecnología con... bueno en fin, si ya eres programador mejor todavía, vas a hacer virguería y esos son el tipo de personas que digamos crean desarrollos y crean funcionalidades pero el 90% de la gente no es ese perfil, el 90% de la gente es una persona pues que tú o vosotros quieren automatizar la calefacción, la ventana las luces, lo que sea y realmente lo único que requiere es tiempo eso sí es cierto porque no es algo que y aquí voy un poco con lo que dices de la curva de aprendizaje, no es algo difícil pero como todo tienes que entender que una automatización pues tiene un desencadenante tiene unas condiciones, tiene unas acciones tienes que ver en el menú cómo llegas a esas opciones normalmente para integrar, para conectar esos dispositivos pues probablemente vas a tener que acudir a alguna guía o algún vídeo explicativo o algo de esto entonces son cosas que por mi experiencia todo el mundo puede hacer siempre que le quieres dedicar un ratito porque no es algo que vayas a montar en media hora, en una tarde y no lo vayas a volver a hacer pues entonces, mira, me viene muy bien lo que me has dicho porque uno con la segunda pregunta, vale muy bien, yo tengo tiempo pongo este supuesto pero por ejemplo tengo barrera idiomática normalmente muchas veces encuentro los tutoriales en otro idioma y no dispongo también de contactos con los que compartir o una comunidad activa que me pueda solucionar problemas, ¿cómo se soluciona esto en Home Assistant? Te voy a meter un poco de spam ahora, no sé si me lo has puesto a huevo yo comencé con Home Assistant hace a lo mejor algo más de tres años no es mucho, aunque ha cambiado mucho en ese tiempo, pero es cierto que yo cuando empecé realmente me encontré con esa barrera entre comillas bueno, yo si más o menos me manejo con el inglés, pero si yo vi que todos los desarrolladores prácticamente todo el contenido estaba en inglés ¿qué pasa? que al final, bueno, esto está dirigido a un público más bien maduro, ¿no? porque al final alguien con 15 o 20 años no suele tener su casa o quizás su prioridad es en la vida no es ahorrar en la calefacción entonces la barrera del idioma es importante entonces cuando yo me di cuenta de esto, pues dije eso unido a que bueno, yo estaba unos cuantos años programando y me di cuenta que empezaba a hacer cosas que no veía en ningún sitio pues me planteé, oye, sería interesante que hubiera alguna página, una especie de Wikipedia, donde se pudieran ir reflejando todas esas guías de cómo hacer este tipo de instalaciones con esa filosofía, pues yo empecé un blog, que es aguacate.es y no empezó siendo más que una bitácora de las cosas que yo iba haciendo en mi casa no lo iba compartiendo con ninguna otra finalidad más que esa de hecho, todo el mundo me decía que por qué no hacía YouTube y tal y yo decía, bueno, simplemente porque esto lo estoy haciendo porque me gusta y a mí lo que me gusta es investigar y escribir y bueno pues con el tiempo fue creciendo el número de guías también creamos una comunidad en Telegram Telegram no es una de las plataformas más accesibles que Arturo ya la han sufrido, no sé si tú la conoces, en estos temas pues es donde más o menos se concentra la mayoría de la gente y además teniendo en cuenta que por lo general solemos ser personas que es raro que a nuestro alrededor haya, no sé, ahora me diréis Arturo y Jose si me equivoco, pero a mí por ejemplo, yo creo que solo tengo un amigo que tiene Home Assistant y a nivel básico como que no es normal conocer a alguien de primera mano, con quien comentes cómo hacer esto y tal, entonces estas comunidades bueno, aparte de que haya otro tipo de contenido como nosotros tenemos talleres de formación, charlas pero bueno, sobre todo es un punto de unión donde entra una persona y dice oye, estoy conectando las bombillas de Philips y me da un error que me dice no sé qué, alguien le ha pasado y esa persona o cualquier otra persona, porque la gracia es que hay mucha gente que ha tenido muchas experiencias y a lo mejor bueno, a lo mejor no, nadie sabe todo, pero muchos hacen un dono y entonces pues es la forma más rápida o más sencilla de encontrar ayuda, es como un soporte comunitario Aunque luego en las notas del episodio pondremos el enlace de Aguacatech dime exactamente cómo se escribe y cómo ahora alguien que está escuchando este podcast si teclea o se encontraría, es decir, simplemente poniendo dos palabras en el buscador sería, pues si pones Aguacatech Home Assistant saldría, es con c es como Aguacate pero acabado en tech de tecnología Exacto y Home Assistant aunque en general yo creo que ya a día de hoy por suerte si pones Aguacatech Tito, ¿y por qué Aguacatech? ¿se puede saber? ¿tiene historia? Pues mira me visualizo en el sofá diciendo qué nombre puedo ponerle yo a este blog y estaba mirando el ventilador de Zecotech y me pareció que tenía gancho para qué le voy a inventar otra cosa, no fue así me pareció que tenía gancho y el aguacate me gusta Estabas comiendo guacamole o algo Pensé que a mucha gente le gustaría y ya está Pues sí, sí, es un nombre con gancho, muy acertado A mí me gustaría contar cómo descubrí yo la comunidad, si me lo permitís porque es que estaba justo en el momento en el que decía Ricardo y bueno, luego Arturo también vino engañado una cosa así como además fue muy curioso, luego te contamos Yo empecé con Home Assistant pues creo que marzo, abril mayo de este año lo intenté con una Raspberry no tuve narices de instalarlo porque yo soy muy zote para ese tipo de cacharros e investigando descubrí lo que es el Home Assistant Green que es un dispositivo específico que ya te viene montado entonces, para torpes, pues mira para mí, directamente enchufar e instalar del tirón y es lo que tú dices es verdad que la curva de aprendizaje es muy alta y yo de domótica, bueno, pues ya tengo mis años de experiencia, yo ya sé lo que es una automatización, sé cómo funcionan los dispositivos cómo se vinculan, tal, tal, tal pero a mí personalmente la curva de aprendizaje de Home Assistant sí me parece muy alta, porque es es que es tan grande y se pueden hacer tantas cosas que hasta que tú empiezas a entender un poco cómo funciona es que la imaginación es, de verdad, no hay límite es increíble lo que se puede hacer entonces a mí me pasaba eso No sabía por dónde empezar. Y algo tan sencillo como conseguir que una automatización se repitiera diferentes días de semana a diferentes horas, eso se me hacía un mundo. O sea... Podía conseguir una automatización para todos los días a la misma hora. Pero digo que si quiero que la luz se apague los viernes más tarde, ¿cómo en leche hago que la del viernes se apague más tarde? Algo así tan sencillo. Pasé por varias etapas. Pasé contratando servicios de consultores, externos... Pasé, bueno, no tirando el dinero, porque alguna cosa aprendí, pero sin realmente aprender yo. Y buscando un día... Además, me acuerdo que fue por la mañana, mientras iba al curro, eran las seis, siete menos algo la mañana, buscando algo. Me encontré con un manual de este hombre y dije, va, esto será un video de YouTube como siempre o con capturas de pantalla y tal. Y cuando leí el manual, que no me acuerdo ya ni de qué era, he explicado, contexto todo de una forma que dices tú, ostras, lo entiendo. Y me dije automáticamente, digo, voy para adentro de esta comunidad. O sea, no es porque esté aquí delante ni porque ya tengamos relación de medio amistad, medio que me soporta, de muchas cosas. Pero es que, de verdad, tiene una forma de contar las cosas muy diferente a lo que hay en otros sitios. Y que, bueno, que a nosotros, personalmente, sin ver videos de YouTube y sin ver capturas de pantalla, nos viene muy bien. Qué bien. ¿Y tú, Arturo, por qué fuiste engañado? Por Jose. ¡Ja, ja, ja! ¡Ja, ja, ja! ¡Ja, ja, ja! ¿Qué le hizo? Porque también estaba en ese proceso de... Bueno, yo siempre... Bueno, llevaba mucho tiempo queriendo entrar en el mundo del home assistant, pero, por una cosa o por otra, acababa de decidirme, de dar el paso. Y, entre otras cosas, también por lo que decíamos, de estar ahí solo y hacerme los chichones yo solo, sin poder compartir con nadie. Y cuando te embuclas y te quedas ahí enganchado, pues... ¿Qué haces? ¿Para dónde tiras? ¿A quién recurres? ¿Tiras horas buscando por internet y tal? Y coincidió que Jose también estaba metiéndose en este mundo. Digo, mira, este puede ser el empujón que necesitaba para acabar de entrar aquí. Y, pues eso, justo acababa de conocer a Wacatec, me lo comentó y dije, pues, vaya, que voy también. Fue muy divertido porque Tito me mandó un WhatsApp de... Oye, que ha entrado otro chico ciego, no sé si lo conocerá, se llama Arturo... Digo, de algo me suena. ¡Ja, ja, ja! Me dije, mucha casualidad. ¡Ja, ja, ja! La verdad es que... Bueno, pues, tal cual lo han contado, ¿no? Y... Yo siempre les he dicho a ellos dos que, con toda sinceridad, yo empecé, como he dicho antes, escribiendo, porque es lo que me gusta hacer, y, bueno, quizás, como también he hecho, he dado muchas formaciones y tal, pues, quizás tengo más ese tinte como muy explicar las cosas para intentar que todo el mundo lo entienda, ¿no? Pero es verdad que, al entrar Jose y Arturo y comentarme cómo esto ayudaba, por ejemplo, para seguirlo con un lector de pantalla, dije, pues, no lo sabía y lo agradecí mucho. Y como hay veces que, simplemente por ir contra corriente, pues, oye, sin quererlo, ayudas a alguien más o vas más allá que, por ejemplo, la gente que hace YouTube, que, obviamente, todos consumimos YouTube y, a día de hoy, todo está en vídeo, pero hay veces que hay cosas que se quedan fuera, ¿no? Y, de hecho, también, a raíz de lo que fue Arturo, que me recomendó un curso de accesibilidad, muy bueno, por cierto, pues, realmente me abrieron los ojos del papel de la tecnología en general y de la domótica en particular y como lo importante que es la accesibilidad y la verdad que... ¿Has llegado a instalar un lector de pantalla, Tito? Pues, mira, no me lo he llegado a instalar, pero he tenido la fortuna de estar con Arturo y Jose tomando unas cañas... Y viendo cómo se comportaba. Me dejaron flipando. Sobre todo, me impresionaba... Supongo que es el hábito o la costumbre, pero me impresionaba que fueran capaces de gestionar toda esa información a la velocidad del lector de pantalla. Flipaba, vamos. Arturo, ¿qué curso le recomendaste? Lo recomendamos para otros investigadores, ingenieros y demás. Hay uno en la plataforma de... Udemy. Udemy, Udemy, Udemy. Udemy, que es de Sergio Luján Mora, que ya es un poco antiguo. Es de Alicante, ¿no? Sí, eso es. No está actualizado, pero aún así los conceptos básicos los explica muy bien, con libros y explica muchas cosas. Pondremos un enlace muy bien. Y yo creo que aquí también es importante lo que habéis comentado de la comunidad. Antes de conocer y entrar en todo esto de Home Assistant, ya teníamos un grupo de WhatsApp, también por el tema de accesibilidad, que a veces nos complica un poco más las cosas en general. Pues ya estamos ahí en un grupo de domótica accesible, porque muchas veces, y eso sin tener que ver con Home Assistant, el otro día un amigo que se compró unas placas, unas luces decorativas de Nanoleaf, que son compatibles con HomeKit, y no había narices de hacerlas funcionar. Pues que a veces las soluciones comerciales, que pensamos que esto es enchufar y listo, pues no siempre es así. Y a veces tenemos que buscar tutoriales, tenemos que buscar vídeos, alguien que nos eche una mano, lo que sea. Esto con Home Assistant es imprescindible, porque como Home Assistant es código libre, Open Source, todo esto, lo más importante quizás que tiene Home Assistant es la comunidad que hay detrás. Totalmente. Cuando todo esto de la domótica empezó, se creó un grupo de domótica, se llamaba Domotic Land, de un grupo de WhatsApp. Y hace dos semanas hemos creado un grupo específico de Home Assistant. En el que estamos siete personas, no estamos más. Pero los siete cabezotas, y ya está. Pero claro, porque necesitamos llorar entre nosotros. O sea, eso sí. Sí, sí. Sí, sí. Aunque a lo mejor el otro no sepa la solución, porque estás pegándote ahí con tu casarro de netazmo, y a lo mejor nadie más tiene netazmo, pero necesitas desahogarte con alguien. Es que si no... Yo creo que también está ese efecto analgésico. Sí, sí. Que sí, que sí. Porque también, aparte de tener tiempo, creo que también es importante tener un poco de tolerancia a la frustración. Porque también he conocido gente que ha empezado y en tres días lo ha dejado y ha dicho que esto no es para mí. Esto es importante. A mí me ha costado aprender eso, ¿eh? Me ha costado aprender eso, lo reconozco, porque es verdad que con la aplicación de casa de Apple, por ejemplo, las automatizaciones son muy sencillas, se hacen y funcionan y ya está. Y aquí, pues un día no funciona. Sí, claro. Porque si ayer sí. Y bueno, pero eso sí, a lo mejor luego estás cuatro meses sin acordarte de que tienes hecho algo. O sea, yo, es verdad que es el sistema que más quebraderos de cabeza me ha dado, pero también es verdad, sin duda ninguna, que es el sistema que más seguridad me está dando. Y más alegrías. Es que yo me olvido, me olvido de todo. Hasta que falla. Cuando falla, digo, hostia, ¿cómo me he atortado aquí? Un problema de la domotica es que no es tu móvil que te fastidia a ti solo. Claro. La domotica afecta al resto de miembros de la casa. Y aquí es muy importante que se suele conocer como el FAES, que es el factor de aceptación de la esposa. Claro. El día que todas las luces dejan de funcionar, pues ese día empiezas a sudar. En mi caso, la admin se queja más por la calefacción que por las luces, ¿sabes? La luz o la calefacción, cuando empiezas a tocar botones y esto no funciona como debería de funcionar, pues entonces empiezas a sudar. Esto no funciona. Yo la llamo la beta tester, porque cada vez que hago una automatización, meto un cacharro nuevo. Yo, claro, tú lo haces planificándolo. Sí, sí. Pulse aquí y va a hacer esto. Llega ella, se pone a tocar botones aquí sin tener ni idea, sin saber qué está tocando. No responde, pues toca otro y se lo carga. Entonces, te digo que cualquier cosa que publico ya ha pasado por el beta tester. Si ella... Si funciona con ella... Sí, sí, sí. Y esto es curioso. Decís que falla a veces. ¿Y cuando falla, para rastrearlo, hay algún log que podéis seguir y compartir? Sí. Ese es un día que tendríamos que hablar de... No sé si lo tienes publicado en el blog, Tito, porque no lo he encontrado o no me acuerdo. No tengo ninguna publicación específica, pero es verdad que sería interesante. Sí, yo creo que estaría... Porque saber interpretar las trazas de la... De la... De la... De la... De la... De la... De la... De la... De la... De la... De la... De las trazas de las automatizaciones también tiene lo suyo. Sí, es que... Claro, es que esto es lo que decía Jose, que al final es verdad que hay una curva de aprendizaje elevada porque... Porque, claro, o sea, una automatización o una regla o un dispositivo puede fallar por muchos motivos. O sea, puede ser... Por ejemplo, por decir algo tonto, porque se haya quedado sin pilas. Pero puede ser, si es una integración con la nube, que esté fallando la integración. Puede ser que hayas montado mal la automatización y, obviamente, una regla mal hecha no funciona. No sé, pueden ser muchísimas cosas. Entonces, hay distintos sitios donde mirar, distintos blogs o distintas opciones que te generan errores. También hay un panel de notificaciones que te lanza algunos avisos. Entonces, bueno, pues al final requiere un mantenimiento. Al final hay una cosa que es buena y mala a la vez y es que Home Assistant se actualiza mensualmente. Y cuando digo que se actualiza, no es como una aplicación que tienes en el móvil y a lo mejor cada seis meses han puesto esto que era verde, ahora lo han puesto azul. Suelen ser unas más y otras menos, pero suelen ser actualizaciones de peso y como es una herramienta en constante evolución, pues hay cosas que cambian. Entonces, pues a lo mejor hace un año funcionaba algo perfectamente y hoy no, porque lo has tenido que cambiar y a lo mejor no te has enterado, que también la comunidad también sirve para eso. Claro. Y mensualmente es actualización gorda, luego semanalmente son actualizaciones menores para ir corrigiendo errores de esas actualizaciones más gordas. Correcto. Pregunto desde la ignorancia. Escucho a Tito que dice puede ser que la pila de la batería pues haya dejado de funcionar. Es decir, no existe un control domótico de batería baja, no hay un aviso. Lo tienes que montar tú. Hay todo lo que tú quieras, pero tienes que hacerlo tú. Eso es. De una forma u otra, tienes que hacerlo tú. Digamos que si lo queremos ver de una forma muy, muy, muy básica, Home Assistant es una base de datos enorme donde tú conectas distintas entradas, cada dispositivo o servicio es una entrada que arroja unos datos. Datos que en Home Assistant se llaman entidades. Y una entidad puede ser un sensor, puede ser un sensor de batería o de humedad, de muchas cosas. Entonces, tú luego tienes que jugar con esa información creando reglas. Entonces, hay muchos dispositivos que te proporcionan esa entidad de batería y entonces tú, por ejemplo, puedes crear una automatización para que cuando cualquier dispositivo de tu entorno domótico, por ejemplo, baje por debajo del 10%, pues que te mande una notificación a móvil diciendo el sensor de humedad de la cocina, la bajas. Pero lo tienes que crear tú. Eso es. Hay plantillas que te pueden ayudar, pero el otro día me creo precisamente una automatización para esto a mano, uno por uno, preguntando por cada uno de los dispositivos que hay en materia, que si están menos del 10%, en mi caso, por uno de los altavoces, necesito que el feedback sea sonoro por uno de los altavoces, pues me diga la batería del sensor de movimiento del baño está al 5.5%. Y así con cada uno de los sensores, cuando está por debajo del 10%, que me avise. ¿Pero eso es una plantilla que te ofrece Home Assistant o es algún tipo de lenguaje o código? No, en mi caso me lo he hecho yo. Se puede hacer o bien con una automatización a través de la interfaz web, que esa es la forma fácil para los civiles, o luego se puede hacer con código. Yo me lo he hecho con código. ¿Y qué tipo de sintaxis utiliza? Se llama YAML. YAML. ¿Qué? YAML, sí. Digamos que todo lo que tú ves en una interfaz gráfica y lo que no, al final detrás lo que tienes está escrito en código en YAML, que es una librería de Python. O sea, al final de base, el lenguaje de programación que utiliza es Python. ¿Me lo podéis deletrear? Y-A-M-L, ¿no? Correcto, eso es. Puedes editarlo en los archivos con tu blog de notas y ahí directamente puedes poner lo que quieras. Arturo, ¿la plantilla que te has hecho, has tenido que meter todos los dispositivos a mano? Sí, como lo he hecho yo, sí, uno por uno. A cada uno le he puesto un IF. IF la batería de no sé qué menos del 10%, pues Alexa dice qué tal. Y otro TT, uno por uno. En este mundo de las plantillas, para mí hay, entre comillas, dos tipos de entender las plantillas. O sea, tú al final lo puedes hacer todo por la interfaz o tecleando tú a mano el código. O puedes coger el código que haya desarrollado alguien de la comunidad y, entre comillas, copiarlo y pegarlo, ¿vale? Aquí hay dos formas. Hay una que literalmente, eso sí que son plantillas configurables, se llaman Blueprints en Home Assistant. Y eso es una automatización que tú haces, solo que en lugar de decir a las 6 que se encienda la calefacción, lo que haces es que esos campos los dejas como una variable. Entonces tú dices a las X que se encienda Y. Entonces tú puedes montar una automatización donde luego haya un campo de entrada y pues Arturo puede poner a las 6, pero Jose pone a las 8. Vale. Y donde Arturo ha puesto la calefacción, Jose pone el aire acondicionado. Entonces eso se llama Blueprints y hay muchos en la comunidad, en Aguacate que hemos hecho unos cuantos. Y luego también está la versión inmediata, por decirlo de alguna manera, que no es tanto el Blueprint, sino que directamente, por ejemplo, si Arturo ahora quisiera compartir el código con Jose, pues lo puede copiar, pegarlo en un fichero, se lo manda Jose y Jose lo copia y lo pega. Lo malo es que tiene las entidades de los dispositivos de Arturo. Claro, ahí como es texto plano y no hay variables, como decíamos antes en los Blueprints, pues tú tendrías que ir revisando el código para donde tiene, por ejemplo, el termostato de Arturo, pues poner el termostato de Jose. Pero yo podría, por ejemplo, imagínate que yo no me acuerdo exactamente qué dispositivos míos tienen batería o cuáles la muestran, que no todos la muestran. Yo sí podría filtrar las entidades de la batería, ¿no? Claro, de hecho, aquí ya vamos un poco... Damos el siguiente paso. Sí, sí, ves, ya nos estamos metiendo. Al final, esto es imposible, no me jodas. Al final, como decíamos, todo esto se basa en Python, y es un lenguaje de programación. Y más allá de... Yo creo que cualquier entorno de domótica que permita crear automatizaciones sigue como la misma regla, ¿no? Cuando pasa algo, que es lo que se denomina trigger o desencadenante, opcionalmente puedes meter una condición, por ejemplo, lo que hablábamos antes de si estoy en casa o no estoy en casa, y, por último, que haya una acción. Entonces, al final, cualquier automatización es cuando pasa algo, sucede esta otra cosa. Eso es, por decirlo de alguna manera, el lenguaje mundial global de las automatizaciones. Pero en este caso, en lo que estamos hablando en cuanto a programación, tú puedes usar el código de... Propiamente hablando de programación. Entonces, por ejemplo, para lo que comenta Arturo, qué hizo él a mano, uno a uno, pues yo, por ejemplo, tengo una regla que lo que hace es que crea un bucle. Un bucle en programación es como una condición que tú pones para que una acción se repita hasta el infinito siempre y cuando se cumpla una condición. Entonces, yo lo que tengo es que va comprobando todos los dispositivos que tienen una entidad de batería y, entonces, hasta que no mira a todos, sigue mirando. Sigue mirando todos los dispositivos hasta que no encuentra a ninguno que tenga la batería. Y en caso de que alguno de esos tenga la batería baja, me avisa. O sea, es lo mismo que ha hecho Arturo, solo que en vez de poner... Pero más elegante. ...todos los dispositivos, le digo, mira a todos los que hay en... Pero por lo que ha dicho Jose, tienen que tener esa capacidad, esos dispositivos de comunicar el estado de la batería. Claro, claro. Al final, tú tienes que tener la información y luego trabajar con esa información. O sea, al final, cuando hablamos de integraciones, no dejan de ser de una u otra forma la manera de extraer información de un dispositivo o servicio y llevarla a Home Assistant. Y cuando yo compro un dispositivo domótico, ¿puedo preguntar si me va a dar esa información o eso...? Sí, de hecho, lo que... Bueno, perdón, normalmente no puedes preguntarlo a la marca no por poder, sino, bueno, primero, lógicamente, hay marcas que están más a favor de mundillo de Open Source y lo ponen fácil y hay otras que no. Lo que quieren es que tú sigas dentro de su ecosistema, que compres sus productos, entonces, muchísimo menos te van a ayudar a que los uses fueran. Pero yo, sobre todo, creo que la mayoría no tienen ni idea. Sí, efectivamente. Si vas a preguntarle algo... Básicamente, sí. Entonces, aquí volvemos al mundo de la comunidad. Nosotros, por ejemplo, tenemos un tema específico, que es el de dispositivos. Y cuando ya eres un poco friki, ya te has enamorado de Home Assistant, cada vez que te vas a comprar algo, lo primero que haces es comprobar si es integrable con Home Assistant. Creo yo que eso lo hacemos todos. Sí. Y para eso la comunidad está genial, ¿no? Sí, claro. Pero hay cosas que, por ejemplo, los sensores de puerta y ventana de Acara, que normalmente sus entidades son la batería y si está abierto o está cerrado, ¿no? Y se usa para eso. Pero dentro de Home Assistant tienes la entidad de temperatura. Tienen un termómetro dentro. Lo que pasa es que dentro del ecosistema de la propia Acara no puedes acceder a esa información. Y con Home Assistant, sí. Lo que pasa es que tiene su sentido, porque un termómetro ahí no tiene ningún sentido, porque normalmente lo pones en el marco de la ventana o de la puerta. No es un sitio donde normalmente miras la temperatura, ¿no? Y por eso no lo utilizan. Dentro de Acara no se utiliza. Pero está ahí y Home Assistant lo puedes ver y puedes hacer cosas con esa información. Bueno, pues para ir terminando, ¿os parece que hacemos un breve resumen de las cosas que hemos ido tocando? Y ya vamos cerrando por ahí. Perfecto. Pues hemos comenzado diciendo qué es la domótica y más o menos lo tenemos ya todos claros. ¿Qué más hemos hecho? Pues hablar de los puentes, de si son importantes o no qué es un puente, una central domótica o hub o coordinador, que, bueno, no es exactamente lo mismo, pero, bueno, entendéndolos como sinónimos, pues que al final todos los sensores y dispositivos necesitan conectarse a algún sitio, que es donde están las automatizaciones, las reglas, cómo funciona el sistema, que muchas veces empezamos teniendo varios y con el tiempo vamos aprendiendo pues un poco lo que queremos y hacia dónde ir. Y que los hay comerciales y los hay open source, ¿no? Dentro, cada uno tiene sus ventajas y sus inconvenientes. Hay varios dentro del mundo comercial y hay también varios dentro del mundo open source. Pero, bueno, nosotros hemos elegido Home Assistant porque probablemente sea el que más avanzado está y el que más posible esté hoy en día. Correcto. Habla también que en el ámbito doméstico lo que es la conexión inalámbrica al taque prima, hemos hablado de dos sistemas, el Wi-Fi y el Zigbee. ¿Lo he dicho bien? Dentro de los inalámbricos, el Wi-Fi y Zigbee es probablemente los más extendidos y popularizados hoy en día, aunque hay más inalámbricos y también hay otros cableados, pero, bueno, hoy en día es lo más utilizado. Como dice Arturo, hay muchas opciones, muchas soluciones, pero hay que probar y sin mera equivocarse porque te vas a equivocar, seguro, no hay otra forma de aprender. Pero, bueno, luego se arreglará de alguna forma y lo único que tienes que tener claro, sea una solución comercial o open source más compleja, es que es algo que tienes que dedicarle un mínimo de tiempo que va a ser proporcional a lo que quieras hacer, pero siempre va a haber un mínimo y que realmente el freno no son tus conocimientos, sino el tiempo que estés dispuesto a dedicarle. Muy bien. Muchas gracias, Jose y Tito. Pues muchas gracias a vosotros, ha sido un placer, la verdad. Gracias por invitarme y por la conversación, que ha estado muy amena. Muy bien, Tito. Jose, yo también he estado muy a gusto. Muchas gracias por acompañarnos y espero que sigáis contándonos de Home Assistant, ya no de domótica en general, que sí, pero de Home Assistant en particular, que para mí es interesante. Yo creo que al final, una vez que uno entra en este mundo, ya no sale, así que seguimos contando cosas. Una secta, lo que yo decía antes. Totalmente. Yo, mientras nos invites algún día a esa casa donde nunca hace frío ni hace falta calefacción... Bueno, ya está, lo hago públicamente, estáis invitados. Vosotros tres, ¿eh? Pues muy bien, vamos a ir dando nuestros datos de contacto. Comienzo con el correo electrónico, que es gafotas@cegatos.es. O a través de WhatsApp, para mensajes de audio o de texto en el más 34 644 640 792. Muy bien, que nos encanta recibir vuestras sugerencias, propuestas, comentarios y que a partir de ahí pues vamos proponiendo nuevos temas y tratándolos. Así que, bueno, estamos siempre dispuestos a leerlo. Gracias por acompañarnos hasta aquí y nada, que próximamente nos vemos en el episodio que viene. Adiós. Adiós. Saludos.
Gafotas, cegatos y sus aparatos #8
Fecha: lunes, 13 de enero de 2025, a las 00:00:00
En este octavo episodio contamos con Enrique Varela, pionero y referente en la tecnología de asistencia y “tecnólogo devocional”, , para adentrarnos en el fascinante mundo de los auriculares. Exploramos los distintos tipos, desde los clásicos con cable hasta los últimos modelos inalámbricos, pasando por diseños curiosos como los de conducción ósea y los vestibles. Además, analizamos los diferentes usos y tecnologías detrás de cada modelo, como la cancelación de ruido, los transductores dinámicos o electrostáticos, y las innovaciones en conectividad Bluetooth y USB-C.
A través de anécdotas históricas y ejemplos prácticos, descubrimos cómo elegir el auricular perfecto según necesidades, ya sea para música, deporte, gaming o descanso. En la reflexión final, debatimos sobre el futuro de esta tecnología y cómo está transformando la manera en que interactuamos con el sonido. Un episodio dinámico, repleto de información útil y consejos para los amantes del buen audio. ¡No te lo pierdas!
Intervienen:
Enlaces a Sitios referenciados en el episodio:
La historia de los auriculares: cuánto ha avanzado el sector del audio. - Sony Spain
Los auriculares blancos de Apple - Vanity Fair
¿Qué son los auriculares de conducción ósea? - Philips
Historia y todo lo que debes saber sobre los AirPods de Apple - Computer Hoy
La Barbería Virtual - Sonido Binaural.
EPOS Sennheiser PC 8 Auriculares Diadema – Amazon.
Hendari Auriculares Oreja Abierta, Auriculares Deportivos Bluetooth 5.3.
Nuance Audio, gafas con audífonos de Essilor-Luxottica.
Créditos:
Duración: 01:18:06
Descripción detallada del logo de Episodio 8. Sonido en la cabeza: explorando pasado, presente y futuro de los auriculares
La imagen es una ilustración de estilo retro que muestra a un grupo de personas caminando por una calle de la ciudad. En el centro, hay un hombre joven con gafas y auriculares grandes, vistiendo una chaqueta marrón y una camisa con un patrón de hojas. A su alrededor, hay varias personas, tanto hombres como mujeres, también usando auriculares. La escena tiene un aire vintage, con edificios altos y antiguos a los lados de la calle. Las personas están vestidas con ropa que parece de mediados del siglo XX, y el ambiente general es de una ciudad bulliciosa. Hay un letrero en uno de los edificios que dice "FESTI". El personaje central es un hombre joven que lleva puestos unos auriculares grandes sobre sus orejas. Tiene el cabello oscuro y peinado hacia atrás, y lleva gafas con cristal transparente de montura gruesa. Viste una chaqueta marrón que está abierta, revelando una camisa con un patrón de hojas en tonos claros y oscuros. La camisa está metida dentro de un pantalón azul de cintura alta, y lleva un cinturón negro. Sus manos están en los bolsillos del pantalón mientras camina por la calle. Su expresión es tranquila y parece estar concentrado en lo que escucha a través de los auriculares. En la imagen, además del personaje central, hay varias personas caminando por la calle, todas usando auriculares: A la izquierda, hay una mujer con gafas de montura gruesa. Lleva el cabello recogido y viste un vestido blanco con un cárdigan negro. Camina con paso decidido. Junto a ella, hay un hombre con un traje azul y una gorra plana. También lleva gafas y camina con las manos en los bolsillos. Detrás de ellos, hay un hombre con un traje marrón y un sombrero de ala corta. Lleva una corbata y sostiene un maletín en una mano. Más al fondo, hay un hombre con una camiseta con un diseño gráfico y pantalones casuales. Lleva gafas y camina con una postura relajada. A la derecha del personaje central, hay una mujer con el cabello suelto. Viste un vestido blanco con detalles oscuros y lleva un bolso grande en el brazo. Junto a ella, hay un hombre con un suéter gris sobre una camisa y pantalones marrones. Camina mirando hacia la mujer a su lado. Al fondo, hay otro hombre con un traje y una gorra, sosteniendo un maletín. Todos los personajes tienen un estilo de vestimenta que recuerda a mediados del siglo XX, y la escena tiene un aire de actividad urbana en una ciudad.
Transcripción de Episodio 8. Sonido en la cabeza: explorando pasado, presente y futuro de los auriculares
Muy buenas, lo que sean. Yo soy Arturo Fernández. Y yo soy Ricardo Abad. Y esto es Gafotas, Cegatos y sus aparatos podcast. Bienvenidos al octavo episodio de tu podcast favorito. Ricardo, ¿qué tal me oyes hoy? Pues mira, te escucho muy bien porque ya sabes que tengo unos auriculares muy básicos y sencillos, pero de una calidad extraordinaria. Son unos Sennheiser. ¿Sabes cuáles son? Los que utilizaba un influencer que se llama... Yo tuve el Choca, pero que se llamaban PC Chat o algo así. Pero bueno, son muy cómodos y tenía razón el muchacho. Estos son los ocho. Él comenzó a promocionarlos cuando era el tres. Y la verdad es que se escuchan muy bien. Muy sencillos, muy ligeros. Pues muy interesante esto de los auriculares. Es todo un mundo, ¿no? Yo lo he descubierto también recientemente que, por ejemplo, nuestro podcast no se escucha igual dependiendo de unos auriculares, de otros, de unos altavoces, de otros, de un dispositivo, en el móvil, en los altavoces de sobremesa. Es un mundo y es un mundo que realmente hoy por día tiene mucho predicamento dado que la gente utiliza más auriculares que nunca. Los auriculares no son muy antiguos. ¿Tú sabes de dónde viene el término auricular? Pues no, cuéntamelo. Pues viene como la mayoría de las palabras, en este caso del latín, podría ser del griego, pero del latín el término auris, que significa oreja, y aurícula, que sería orejita. Y dentro de lo que es la fisiología se referiría a todo lo que es la oreja externa. Y bueno, auricular significa justamente eso, ¿no? Un dispositivo que se ubica en ese lugar. Y bueno, es muy reciente, no es muy antiguo. Sí, es verdad que a veces pensamos que estas tecnologías que las hemos conocido de siempre, que llevan ahí desde la prehistoria, pero no, esta es del siglo pasado, tampoco hace tanto. Concretamente del principio del siglo XX y debemos este invento a un señor que era de Utah y se llamaba Nathaniel. ¿Nathanael en español? Sí, Nathaniel. Nathaniel, haría una TH ahí, ¿no? No sé, bueno. El señor Baldwin, que era un hijo de Utah, pero del estado americano, un hijo de Utah, perdón. Y como buen hijo de Utah, era mormón. ¿Tú lo sabías? Sí, y ¿cómo le dio por estas cosas a este hombre? Pues mira, te lo voy a explicar. Como era mormón y era un hombre que practicaba su fe hasta las últimas consecuencias, iba todos los domingos a escuchar al pastor su homilia en el templo, en el templo de la iglesia de Jesús de los Santos de los Últimos Días. Y entonces, pues bueno, estaba ahí Nathaniel y decía, bueno, por Dios, si es que a este hombre no se le entiende esta reverberación, ¿qué podría hacer yo para mejorar la calidad de sonido? Porque si no me voy a perder todas las homilías y la palabra de Dios, que eso sí que es grave, ¿no? No pueda escucharla. Y con esas tribulaciones, el hombre se fue a su casa y pensando, pensando, dijo, bueno, ya tengo la idea. Voy a hacer algo que canalice ese sonido, el sonido exterior hacia mis oídos. Y bueno, en la cocina de su casa, porque el hombre no tenía ninguna empresa ni nada, simplemente tenía pues su taller, un taller en una casa muy compartida porque era, practicaba la poligamia y estaba lleno de mujeres y niños como familia. Y allí, allí lo desarrolló. Y bueno, él era un hombre que tenía afán inventor de siempre y formación también, porque era ingeniero y trabajaba en la central eléctrica de, creo que era la de Mill Creek, ¿vale? Del cañón de Mill Creek. Y bueno, y compatibilizaba tanto lo que era su trabajo en su tiempo libre, pues desarrollaba los auriculares. Y dijo, bueno, ¿a quién le puede servir esto? Y pensó en la marina. Entonces escribió una carta con un prototipo de los primeros auriculares a un almirante de la marina. Por cierto, una carta escrita con tinta violeta sobre papel azul y rosa. Yo lo dejo ahí, no nada. Pero bueno, sí, sí, muy pintoresca la carta y el almirante lo leyó y le llamó la atención y dijo, bueno, voy a probar con uno de los auriculares. Y funcionó. Entonces hubo un primer encargo de la marina y le encargaron 100 auriculares que en esa cocina, mientras preparaba las cookies, las galletitas, al mismo tiempo iba preparando sus auriculares. Y bueno, tuvieron una salida muy buena dentro de lo que es el ejército y sobre todo la marina. Y montó una empresa y bueno, y luego a partir de ahí, pues ya el hombre, no le fue muy bien, pero voy a dejar de aquí ya la historia porque el otro ya es un poco jodilleo. De esos polvos terminamos en estos lodos con los auriculares del chocas. Pero bueno, hay muchos más, ¿no? Esto hay muchos tamaños, formas, colores, hay muchísima variedad. Hubo un desarrollo muy rápido en el siglo XX porque, primero por la cuestión de necesidad de este instrumento dentro de lo que es el ejército, ¿no? Eso hizo que hubiera dinero y que se desarrollara con mucha velocidad. Luego, al mismo tiempo, la radio y la televisión comienzan a imponerse como fórmulas de entretenimiento domésticas. Entonces ahí es cuando ya comienzan a empezar a desarrollar ya auriculares hechos para la población. Concretamente, John C. Cox fue el primero que en el año 58 hizo el primer par de auriculares estéreos y domésticos. Porque bueno, antes de entrar en las casas y demás, se utilizaba mucho, como he dicho, en la aviación para poder tener una mejor audición y también los audiófilos en los locales de grabación y locales de audición de música profesional. Pero este señor Cox fue el primero que hizo los SP3 Cox, que eran unos auriculares estéreos. Y a partir de ahí, bueno, ya fueron tomando otro tipo de diseño y yo creo que eso necesitaremos a algún experto que nos lo cuente porque es una cuestión ya más delicada. Empezaríamos en los años 70. Bueno, pero hoy tenemos también con nosotros un invitado para que nos cuente de todo esto, de los diferentes modelos, formas, colores que hay y sabores. Hoy tenemos con nosotros a Enrique. Muy buenas, ¿cómo estás? Hola, buenos días. Digo buenas, buenas, lo que sea, como dices, porque nunca se sabe. Nunca se sabe cuándo se puede escuchar esto. Es Enrique Varela y lo voy a presentar un poquito, para los que no lo conozcáis, que sobre todo será gente que no está relacionada con la tecnología de asistencia, tecnología para las personas y la Tiflotecnología que es la tecnología para ciegos. Bueno, Enrique es un referente y un pionero en este tipo de tecnologías. Realmente trajo a España una gran cantidad de dispositivos que luego fueron muy famosos, entre ellos el Braille hablado. Muchos software también que luego se implantó y sigue vigente, como puede ser Jaws for Windows. Estuvo trabajando dentro también de la unidad de investigación y desarrollo técnico de la ONCE, en aquel momento creo que se llamaba UTT. También visitando, supongo que muchos proveedores, viendo muchos inventos y demás. Y luego toda la vida la ha dedicado a la tecnología, en uno u otro lugar. Es que es tan extenso el currículum suyo que os invita a que lo visitéis en la descripción del episodio. Es que queremos información que vaya a las notas del programa, que tenemos unas notas muy chulas que también cuesta currárselas. Así que, quien quiera más información sobre los invitados, pues que vaya a las notas. Estamos muy contentos de tenerlo aquí, en Gafotas, Cegatos y Usaparatos. Así que, Enrique, cuéntanos. Yo de estar con vosotros, lo que pasa es que jamás me hubiera imaginado, como decían mis buenos amigos del grupo Lelitié, que me encanta. Supongo que mucha gente lo conocerá. Es un grupo de humor fino, fino y culto argentino. Cuando hablaban de su compositor favorito, Johann Sebastian Mastropiero, que estaban, iban a Nueva York, en barco y tal, y de repente comenta con el capitán acodado en cubierta. Dice, jamás hubiera imaginado así a Nueva York. Y le contesta el capitán, dice, naturalmente señor, estamos llegando a las Canarias. Jamás me hubiera imaginado hablar de auriculares. Tenéis la particularidad de pillar a gente que, bueno, más o menos sabemos de cosas, para que hablemos de lo que os dé la gana. Algo sabemos de esto, porque la verdad que, si para una persona que ve, pues los ojos, las gafas, cualquier cosa, los microscopios, los telescopios, son importantes. La verdad que, para una persona que no ve o que ve poco, todo el mundo del sonido, auriculares, altavoces, alta fidelidad, baja fidelidad, fidelidad media y medio pensionista, es muy importante también, porque a través de ellos oímos las cosas, y las personas, y la música, y la historia en definitiva. Pues cuéntanos tus inicios con los auriculares. Sí, al final un auricular no, bueno, está, me ha encantado la introducción que ha hecho Ricardo, que podríamos un poco también haber hecho paralela con la de los altavoces, porque un auricular no es más que un altavoz que no ha ido a la escuela, es decir, un altavoz pequeño, que no te revienta las orejas, porque los altavoces grandes que se hacían también en aquellos años, pues evidentemente generaban mucha potencia de sonido y eran muy potentes, pero bueno, esto se basa en los transductores, al final es una, yo quería contar el principio, para los que sois un poco frikis, el principio es magnético y eléctrico, vamos, cualquiera que tenga un timbre en casa, un ding dong de estos que le llamas el ding, cuando sueltas el botón hace dong, pues es una bobina de hilo de cobre, en cuyo núcleo, en el centro de esa bobina, hay un palito de metal con un muelle, entonces cuando se da al timbre, el magnetismo de la bobina lo atrae hacia un lado, que es justo donde choca con una plaquita que hace ding, y entonces cuando se suelta, el muelle ya se libera y hace dong y se tapa al otro lado, bueno, esto multiplicado por muchísimas frecuencias y bien hecho, y conectado en vez de a un palo de metal, a una membrana de cartón, de carbón, de cristal, de cualquier otra cosa, o a una membrana de cualquier tipo de metal que vibre, pues lo que hace es reproducir sonido, entonces hay diversos tamaños, modelos, estilos, formas, impedancias, los que suenan más alto, los que suenan más bajo, volviendo al principio de la cosa, un auricular no es más que un altavoz pequeño, y el más pequeño que yo conozco, aunque sea grande, lo cuento como anécdota, es un altavoz, no es un auricular, y ya enseguida vuelvo a los auriculares, es el gramófono, el gramófono, sabéis que grababan los sonidos en surcos, en microsurcos, en un disco con una espiral en el que se representan las vibraciones y los sonidos por elevaciones y bajadas del relieve del surco, ahí hay una aguja, como una punta de una aguja de hacer punto, y eso conecta con un, imaginaros, un papel albal redondo, muy estirado, una membrana, y esa membrana metida en un tubo que acaba en una bocina grande, como un megáfono grande, y eso lo amplificaba, pues sin ninguna clase de energía, que no sea la cuerda que le daban al disco para que girase, eso sonaba, y yo recuerdo en una empresa de cosas de ciegos, que fabricaban cosas de braille y demás, y de imprentas, en Alemania, que tenían un castillo, un salón enorme, un salón de reuniones del castillo, un gramófono lo llenaba, era un sonido no alto, no fuerte, no como meterse en un concierto de los Rolling Stones en el Whisting Center de Madrid, era toda pastilla, pero lo llenaba perfectamente, y al igual que eso, y con membranitas más pequeñas, se fueron haciendo los primeros auriculares, yo los primeros que tuve, desde luego eran de cable, y eran altavoces pequeñitos, el altavoz típico que si los habéis tocado alguna vez, es como un redondel, en el que hay un cartoncito, que en el centro de ese cartón es donde está la bobina que va rodeando al imán, que cuando se le manda corriente, pues aquello vibra, pero eran auriculares. ¿Qué tamaño podrían tener esos primeros que tuviste? Pues como los auriculares que tenemos ahora que cubren la oreja, pues eso, ese sería el redondel del altavoz, eso lo metían en una caja, como ahora, ahora tengo unos Bose QC45, que son de cancelación de ruido, de los que cubren la oreja alrededor, ahora los tratamos todos los tipos, y no tenían un tamaño distinto, era un altavoz como, imaginaos, que cubra la oreja, era un redondel, y esos eran los primeros. Pero bueno, por dividirlos y ordenarlos un poco si queréis, podemos dividirlos entre los de con cable y sin cable, o hacer una división así, grosso modo, al principio no había sin cable, claro, Bluetooth y todo esto son cosas posteriores, pero bueno, pero yo creo que aquí también van de, o sea, también hay cosas que afectan a los de cable y sin cable, pero yo diría que hay los in-ear, ahora mismo, y ya son muy antiguos, que son los que se clavan directamente en el pabellón auditivo, tenéis ejemplos miles, los primeros de iPhone, hay muchos que tienen como una puntita con silicona, con una puntita de silicona que tú te lo clavas ahí, hay gente que les molesta más y menos, estos tienen la ventaja de que se oye muy directo, que se puede hacer ahora cancelación de ruido, ya explicaremos lo que es más adelante, pero que quedan muy situados en el sitio que tienen que quedar, no se te mueven, pesan poquito, la oreja te queda por ahí libre al aire, pero te aíslan bastante el estereo porque están tapándote el conducto auditivo. Es que la experiencia es más incómoda, como que producen más calor, más erosidad y algo más de incomodidad a la larga, digo, en uso prolongado. Sí, sí, hay mucha gente que le molestan, de hecho, y hay gente incluso que les echa cremitas y cosas para que no te hagan daño en el conducto auditivo. Por eso también hay más tipos, por ejemplo, están ya los supraurales, que todos habréis visto, yo creo, según su aurícula es que es como lo que definíamos antes, una cosa redonda que casi te va a cubrir la oreja, pero plana, es decir, se apoyan en tu oreja, tienen una diadema, los in-ear no suelen tener, no tienen por qué, pueden tenerla, pero no tienen por qué tener diadema, de cada uno de ellos sale un cable que se junta en una Y, los dos cables se juntan en uno y ya ahí va el jack que lo enchufas al equipo que sea. Pues estos, para sujetarse, lógicamente, tienen que tener una diadema que apriete un poquito la cabeza, las orejas una contra otra, y estos se llevan una esponjita o cualquier cosa para que, cualquier cosa de este tipo que sea amable con la oreja, la cubren en el sentido, pero son planos, o sea, no aíslan, porque alrededor de la oreja no hay nada. Esto los popularizó Sony con el famoso Wallman, por allá por el 79, ¿no? Sí, yo creo que eran así, y también hay muchos modelos muy buenos de Sennheiser, yo he tenido que, ahora hablabais de los del Chocas, por cierto, tipo muy curioso, pero que siempre me llama la atención, porque no sé por qué se llamara así, porque Chocas, ahora que estoy en Galicia y mi gallego ancestral y tal, para mí, cuando decían que el agua estaba Chocas, que estaba podrida, no digo nada contra el tipo, que es muy peculiar, pero me gustaría saber la etimología de su mote, porque no sé de qué viene. Bueno, y había auriculares de Sennheiser de este tipo, los de Sony, como has dicho Arturo, los de los primeros Wallman, son muy confortables, incluso de estos hay una variante, que la cuento ahora, que son auriculares muy planos, que en vez de con diadema, van con una banda, como de las que se ponen para recoger el pelo los tenistas y eso, una banda que te va por la frente, no por arriba, y por detrás y te recoge el pelo y tal, y los dos auriculares caen en las orejas, entonces estos muy planos son muy buenos para dormir con ellos, se utilizan mucho para eso, para en la almohada, pues que te des vueltas y para que planches la oreja y sigas oyendo la música, y no ocurra nada, es una variante de los supraorales. Bueno, después estarían los over-ear, que ya son los que cubren, o sea, aparte de que efectivamente se pegan a la oreja, alrededor de la oreja hay una almohadilla de, pues, piel, sky, yo que sé, algo sintético, pero con relleno dentro, que te cubre, te rodea la oreja. Estos son los típicos de radio, cuando la gente ve a los locutores con su micro allí enfrente a una cuarta, como estará Ricardo ahora con su flamante micro y tal, que por cierto eso, hay que hacer una cuarta, hay que coger así el dedo pulgar, ponérselo en la boca y estirar la mano y un meñique que te caiga en el micro, esa es la distancia, ¿no?, o era, cuando yo hacía radio. Bueno, pues aparte te ponías ahí los auriculares, aquellos que te tapan completamente y con los que ya sí que te aíslas mucho más, de los que he citado hasta ahora, los que menos aislarían serían los anteriores, los que cubren las orejas pero no se meten en el conducto, estos ya sí, porque te rodean la oreja y te aíslan. Cuanto más, si después hacemos cancelación de ruido, que después contaréis si queréis para que no hable yo solo, para que esto no sea un monólogo sino un biólogo o un tripartito, pues que el principio de la cancelación del ruido, ¿no? Pero bueno, ya de per se, por su propia arquitectura, pues aíslan bastante, ¿no? Sí, porque esta fórmula sería la única de cancelar el ruido, es decir, la que estás diciendo ahora, que te estallaran la oreja por fuera y hoy se ha conseguido ya a través de tecnología, ¿no? La tecnología digital eran los que más cancelaban, por eso se utilizaba mucho en radio, eso va a estar muy atento. Bueno, después, si vamos al transductor, que ya hemos dicho lo que era, lo del Ding Dong, pero bien hecho, y seguimos en cable, pues eso, nos tendríamos dinámicos, que son los más clásicos, los de la bobina, los del Ding Dong, bobina alrededor de un imán, corriente y aquello vibra, los electrostáticos, que son, se utiliza un poco el principio de cargar placas con cargas positivas y negativas y eso haga vibrar una membrana más fina, los magnéticos de membrana plana, que tienen unos imanes abajo y después una membrana como lo que describía antes del gramófono, pero quien mueve esa membrana son imanes con bobinas que no están moviendo la membrana así, sino induciéndola, es como la reversa de la cocina de la inducción, por cierto, hablando de reversas, sabéis que curiosamente la reversa de los auriculares normales, de los dinámicos, es el micrófono. El micrófono es algo que podría ser como un auricular, pero si tú no le envías corriente, sino que le conectas un amplificador y esperas lo que va a ocurrir cuando tú hablas cerca de él, lo que haces es vibrar la membrana con tu propia vibración de tu voz o del ruido externo, eso excita la bobina y el imán y produce electricidad que amplificada, pues es tu voz, es un micro. La inversa de un auricular es un micrófono, de un auricular dinámico, así como la inversa de un motor normalito de un ventilador, pues si tú al revés le pones agua en el ventilador y le haces girar, pues es una dinamo, o sea, produce electricidad. Es igual, son esas cosas curiosas, ¿no? Bueno, los de estos magnéticos buenos ya de placa ya van teniendo más calidad en graves, son ideales para los audiófilos y demás, pero bueno, también podemos dividirlos, seguimos en cable, pero por uso, si queremos decir, de todos estos tipos, grandes tipos, pues hay también distintos tipos de sonido, ¿no? Están los auriculares que son de monitorización, que son los que se supone que dan el sonido perfecto, o sea, que son fieles a lo que ocurre en el estudio de grabación o donde tú estés generando sonidos, que son los que se utilizan mucho en la radio, en los estudios de grabación, pues se supone que tienes que oír el sonido perfecto, bueno, perfecto, el sonido ideal, el patrón, a partir de ahí, si alguien le mete más graves o más agudos, haya él, haya ella, pero tú lo que tienes que, como técnico de sonido... Sonido más fidedigno, ¿no? Que puedas sacar... Eso, tienes que estar viendo el sonido fidedigno, es como cuando en los estudios de grabación cogemos una señal de un kiloherzio, que es un pitido, bueno, como lo que hacía la tele antes cuando emitía, ese de un kiloherzio, entonces ahí será exactamente esa la nota con la que ajustabas todos los equipos, ¿no? Pues esto, en auriculares que te producen un sonido fiel, hay gente que le gusta mucho, sin embargo, lo contrario a eso, lo más sofisticado de eso, del sonido perfecto, sería el audiograma que ya te hacen los auriculares, los AirPods 4 y algunas otras aplicaciones que te hacen exactamente, saben lo que tú oyes, en qué frecuencias oyes más y menos, y entonces al final te ecualizan y te ponen los auriculares adecuados a lo que tú oyes. Si oyes poco graves, le metes mucha caña a los graves, que si yo me pusiera eso y los oigo bien, pues me retumbaría, pero sin embargo, como tengo deficiencia de graves, pues se supone que lo balancea, ¿no? Esas cosas se hacen ya y con audífonos de estos modernos, de contratamiento incluso con inteligencia artificial digital del audio, pues eso, se pueden hacer maravillas, como que la gente oiga perfecto las frecuencias de voz y esté en una cafetera de esas al lado, en un bar de esas que molestan, que están con la leche y ni la oigan, ¿no? Todo ese tipo de historias que se hacen ahora. Bueno, después, yo qué sé, por uso, están los auriculares de gaming, por ejemplo, que suelen llevar un micrófono, son o planos o de los que cubren la oreja, pero suelen llevar un micro también en un lado, como los típicos de aviación, en el auricular derecho sobresale un micro que los utilizan para jugar y esos suelen ser muy exagerados de graves y de todo para oír bien los disparos y todas las historias. Después, ahí podríamos también decir que hay auriculares específicamente dedicados al deporte, ¿no? A la gente, a los runners, a la gente que hace, que hacemos bici todos los días y tal, son más adecuados para el sudor, que no importa tanto que se sude, que se sujetan bien sobre todo para que no se te muevan y bueno, en realidad yo creo que ahora todos tienen mucha calidad de sonido, han avanzado mucho desde los años 70 y ya no son altavocitos, ¿no? Son cada vez con más calidad. Después, bueno, en cuanto al conector, si acabamos con los de cable, pues hay los tipos de conector de toda la vida, los del jack pequeño, el jack grande, que tienen sus nombres, los de jack balanceado, que son para audio profesional, los de Canon, estos de enchufe para estudios de radio, que son, que están más separados un canal de otro, digo, porque tienen malla en el centro para que no se mezcle nada y tal, pero bueno, en general, esos son los que tenemos con cable. También hay unos, ¿no?, muy curiosos que son por vibración, estos son más bien altavoces. Bueno, esos son altavoces y después nos lleva a los otros. Sí, hubo una temporada que salieron unos altavoces muy curiosos que eran por inducción, donde el transductor es un trozo de metal que vibra muchísimo, muy fuerte, muy fuerte, de forma que si lo pones encima de cualquier superficie, eso vibra y es el que acaba siendo el altavoz. Por ejemplo, puestos encima de una tarima de un salón, te va a vibrar de madera, se va a oír muy bien y, sin embargo, si lo pones encima de una lata de sardinas, pues a que eso va a oír a lata. Cuando dices esto suena a lata. Está muy bien porque el altavoz no viene completo, es un altavoz que solo vibra y en el que tú, al colocarlo, depende en qué superficie lo coloques, vibrará o no vibrará. No sería una caja de resonancia, sería una superficie de resonancia, ¿no? Dependiendo del material, del tamaño y de la oquedad o forma de la superficie, suena de una forma vuota, ¿no? Pero llega a sonar muy fuerte, ¿no? También si lo pones... Sí, estaría entre auricular y altavoz. De hecho, estos, antes de que salieran los que voy a contar ahora, si tú colocabas, por ejemplo, la barbilla encima de esa superficie, pues lo oyes en tu cabeza. Contaban de Beethoven, y esto probablemente igual será una leyenda urbana, que él escuchaba el piano gracias a este efecto, ¿no? El efecto este de vibración de las ondas. Tenía como una lámina de metal en su piano y a través de esa vibración podía percibir el sonido. Bueno, Enrique, y esto me lleva a que te pida que nos cuentes una historia que nos comentaste el otro día en Up the Record sobre Maruja Cerezo, que creo que deben conocer los oyentes. Sí, ¿y qué tiene que ver con esto y con lo de Beethoven? Bueno, lo de Beethoven... Sí que hay mucha leyenda, pero no sé si es verdad. No sé si es verdad, no sé si es verdad, no sé si es verdad, no sé si es verdad, pero creo que es una leyenda urbana. ¿Qué tiene que ver con esto y con lo de Beethoven? Bueno, lo de Beethoven... Sí que hay mucha leyenda, pero también es verdad que si cualquiera de vosotros os tapáis bien los oídos con tapones de estos que se utilizan para dormir y pones la barbilla y eso en el piano o en una guitarra o en cualquier instrumento que transmita vibración, lo vais a oír muy mal. Es una audición muy parecida a lo que les pasa a la gente de los implantes cocleares, que se tienen que entrenar porque llega el sonido todo junto y como muy grave, no, como muy en la gama de los medios, como muy teléfono, ¿no? Pero bueno, se oye, claro, por supuesto, y las notas se oyen. Y también me lleva los diapasones que tenemos la gente de afinar guitarras y todo eso, que es una varilla que tú la golpeas con algo, suena en la 440, que es en la patrón, te lo comes, o sea, lo metes entre los dientes y te suena en la cabeza. Bueno, los altavoces estos de vibración y las cosas que vibran... Maruja Cerezo era una persona sordo-ciega que se educó en los colegios de la ONCE, donde hacían algunos milagros, pues, tipo, todo el mundo habrá visto las películas de Helen Keller y esta gente que está súper aislada y que realmente con una buena enseñanza aprenden a comunicarse. Esta mujer no fue tan famosa como Helen Keller, pero vamos, aprendió a hablar, sin oír nunca, de nacimiento. Trabajaba, me parece, en la imprenta de los ciegos, vamos, encuadernando libros y demás. Hacía muchas cosas, se casó con otro sordo-ciego, tuvieron hijos y, vamos, muy bien, tuvo una vida bastante normalizada dentro de eso. Esta era la compañera de mi madre, mi madre también era una persona ciega que se educó en colegios de ONCE y yo recuerdo, yo me flipé muchísimo una vez, que hacía 30 años que no la veía, y vino mi madre a verme y fue, ahí está Marujita, pues, la voy a ver y nada más darle la mano, dijo, hombre, Loli Couceiro, la conoció por la mano, solo dándole la mano. Y yo, como persona ciega y acostumbrado a eso, la verdad que me... ¿Te impactó? Sigo flipándolo, sí, pues, no sé cómo la conocí. Bueno, el caso es que esta mujer, mi madre le signaba, ellos tienen un lenguaje de signos que no es como el que estáis acostumbrados la gente que veis a verlo en la tele, cuando sacan un telediario con la gente signando, una persona allí haciendo lo que es la lengua de signos española o la que sea. Los sordociegos tienen que tener, es una lengua de signos con dedos y que es muy de alfabeto, casi se deletrean las palabras aunque se hacen abreviaciones, pero hay signos para cada letra. Y lo que se hace es, normalmente se cogen de las manos, dos manos, las manos izquierda y derecha de uno, transmiten y por el otro brazo, pues, recibes. Entonces, pues, están hablando así siempre. Maruja era muy especialista, bueno, mi madre les gustaba mucho ese mundo y signaba muy bien y le contaba cosas a Maruja, pero a Maruja la podía signar en la espalda, en una pierna, en una rodilla, ella se enteraba igual. Y ella, a su vez, cuando las radios aquellas antiguas que había de válvulas, que sonaban muy alto y hacían un poco ese efecto o de este que acabamos de contar y de ahí viene todo eso, no os creáis que no viene de nada, pues, vibraban las tarimas, vibraban las tarimas y entonces sabía cuándo empezaba y casi qué programa de radio era y si podía iba a buscar a mi madre, ¡ay, que empieza el guiñol de no sé qué! ¡Anda, asígnamelo! Porque ella sabía qué programa empezaba por la vibración que la radio, la radio aquella de válvulas, transmitía al suelo del palacio de Duque de Pastrana, por cierto, que los que estén en Madrid lo conocerán porque sigue siendo un monumento, y entonces era un colegio que está ahí en la calle Platerías con el Paseo de la Habana. Pues aquello, vibraban las tarimas y Maruja sabía qué empezaba y qué programa empezaba. Lo que ella no sabía, o sea, no podía interpretar el programa y lo que se decía, por eso llamaba a mi madre para que se lo signara, pero sí sabía qué empezaba, ¿no? Era algo curioso. Y esto nos llevaría a los auriculares de conducción OSEA, ¿no?, que también tienen un principio muy similar porque, a fin de cuentas, es una vibración que se transmite a través del cráneo, ¿no? Sí, eso es, ahí sería, estos altavoces que hemos contado, pues alguien se dijo, caramba, esto se puede hacer igual que lo que hemos dicho de morder un palillo, que eso lo hacíamos de pequeño, a lo mejor morder un palillo de helado de estos de los polos, lo metías entre los dientes y le das, y te suena, ¿no? Es el mismo principio, se salta, se salta tímpano, se salta cadena de huesecillos y va directo a la cóclea y lo oyes directo en el cerebro. Entonces, pues por ese mismo principio hicieron los auriculares de conducción OSEA que tienen unos traductores que vibran muy fuerte y se te quedan en los huesos estos de detrás de la oreja, de donde empieza la mandíbula. Bueno, no suenan con mucha calidad, pero tienen una cosa que a las personas que no vemos o que vemos poco y a las personas que hacen deporte, que fue para estas, para las que se inventó, porque los ranes y eso, que viene un coche, que viene una bici, que no sé qué, que no la oyes y te pillan, ¿no? Entonces, por seguridad, te dejan toda tu oreja normal, tu oído, tu audición normal y tu áptica, tu percepción áptica, y te la dejan libre. Entonces, te llega por esos huesos directo al cerebro y lo interpretas. La desventaja es que tienen una diadema y que para que no se vaya y eso esté en contacto con los huesos, tiene que, lógicamente, necesariamente apretar un poco, ¿no? Entonces, te hacen un poquito de fuerza. Hay gente que los soporta y gente que no. Pero la gran ventaja no es la calidad de sonido, pero sí que te deja tus oídos libres. Y puedes estar oyendo tu música, tú lo que sea, más lo que llega por el oído derecho y por el oído izquierdo. Y volviendo a la división esta que teníamos de con cable y sin cable, pues tenemos varios hitos, ¿no? Tenemos el Sony con el Wallman M1979. Luego tuvimos el hito de Apple con su iPod en el 2001, que también cambió la forma de los auriculares, aunque todavía eran con cable, pero pues el diseño, los auriculares estos blanquitos y tal. Y luego en el 2016, por ahí más o menos, pues Apple también hizo con los auriculares sin alámbricos, con que, bueno, quizás no fueron los primeros, pero también una vez más el diseño rompedor un poco de Apple y también pues la facilidad de utilizarlo, ¿no? Con su chip integrado y demás, pues que lo emparejabas con un dispositivo y ya podías cambiar fácilmente entre el teléfono, el ordenador, la tablet. Y también aquí fue un poco donde empezó a popularizarse los auriculares inalámbricos. Sí, y además las formas distintas, porque Apple hizo unos in-ear, que me parece que son los AirPods 2, que sí que se clavaban. Y ahora llegaremos a la cancelación de ruido. Pero también hicieron una que es que se mete en el oído, pero no mucho. Y entonces no te aísla del todo, pero sí que se queda muy... La arquitectura del auricular tiene como un altavoz de graves que está en una parte de la oreja y lo que queda más cerca de conducto es el que emite los agudos y la verdad que es cómodo, son pequeñitos, no se caen, se adaptan bastante a lo que es la arquitectura del pabellón auditivo y ahí se te quedan puestos, ¿no? Y con mucha calidad de sonido. Y estos ya son Bluetooth, han ido evolucionando según las diferentes versiones de Bluetooth que cada vez... Bluetooth es un sistema de transmisión por radio a bastante corto alcance, pero con mucha calidad, el tipo de onda que emite y ha ido habiendo varias versiones cada vez con más calidad y cada vez, por ejemplo, permitiendo, como decía Arturo, cambiar, conectarse a varios dispositivos y estos se han ido adaptando. Pero en cuanto a las arquitecturas, han respetado más o menos las que hemos dicho antes, de con cable, las supraorales, las que circundan la oreja, las que se clavan en la oreja y podríamos añadir estas de las últimas de Apple que se medio meten, pero que no se clavan del todo, como los AirPods 3, me parece que son, que son como unos altavocillos que se ponen ahí y no te acaban tapando el oído. Últimamente se han inventado los que a las personas, yo creo que ciegas y deficientes visuales, yo creo que para los deportistas sigue siendo una cosa saludable, pero para nosotros es imprescindible los de oreja abierta, que son auriculares que realmente tienen como un final de una patilla de una gafa, o sea, se te adaptan por detrás de la oreja y un altavocito muy pequeño, pero que suena alto, pero que la gente de fuera no lo oye casi, lo puede percibir así, pero ni se entera, pero que tú lo percibes perfectamente y suena con calidad, que se llaman de oreja abierta, open ear, no te tapan tu oreja, pero suenan con una calidad muy buena y de estos empieza a haber, ha empezado a proliferar en los últimos dos o tres años cantidad de ellos, yo los últimos que me he comprado la semana pasada son chinos, chinos, chinos, chinos, cuando uno dice chino, sabes que hay chino bueno, chino malo, chino regular, pero digo chino barato, barato, de 22 euros, que cumplen ahí su función, que te los puede perder uno y no te da un disgusto y que sobre todo las personas que no vemos o que vemos poco, nos dejan las orejas libres para estar por ahí, pues con nuestro GPS por la calle, o yo cuando saco a pasear al perro aquí ahora por Galicia, que no hay problema de tráfico por donde yo estoy, pues me voy oyendo mi novelita o lo que sea, o mi podcast de gafotas, pero de paso a paso al perro, pero sigo oyendo los pajarillos o si llega algo o si va a venir un coche, pues lo oigo. Estos son los de oreja abierta, es el último hito que he visto en este tipo y también lo aplican las gafas, ahora que estamos en gafotas, tipo como las Ray-Ban Meta que llevan ese tipo de auriculares en las patillas, altavoces potentes pero que emiten a poca distancia pero la suficiente para tu oreja, están en la patilla y tú lo oyes bien, hay algunas gafas de Bose que también lo hacen, por cierto el señor Bose algo nos tendremos que contar ahora cuando hablemos de la cancelación. Y hay otro tipo, bueno las famosas, quien haya tenido las Orcam, este dispositivo israelí que hace lee y hace un montón de cosas, hace OCR, lee, te identifica a personas, pues también va en la patilla de la gafa y fue de los primeros que yo he visto que tiene un altavoz externo pero que se oye, digamos íntimamente, porque la gente de fuera no lo entiende, pero tú lo percibes perfectamente. Estos auriculares abiertos te permiten escuchar todo el sonido que tienes alrededor tuyo, que especialmente a nosotros pues nos resulta sumamente útil y estos son precisamente todo lo contrario a los auriculares que también se pusieron de moda con cancelación, los hay con cancelación activa y con cancelación pasiva. ¿De dónde viene esto de la cancelación? Te iba a preguntar que nos contaras un poco de dónde venía esto de la cancelación. Pues mira os lo voy a contar, esto se lo debemos a un caballero americano que se llama, o se llamaba porque ya falleció, Amar Bose. Bueno, realmente supongo que será Bose. ¿Con dos auriculares? Sí, es igual, se llama igual. Igual es el mismo. ¿Igual es el mismo? Pues sí, es el mismo, es el mismo, porque ahora veréis qué tipo más interesante. Este hombre nació en 1929, una fecha crítica, y fue crítica porque fue el gran crash del 29 y bueno, vino este gran crash y nació este gran crack, sobre todo para lo que nos interesa ahora que es el sonido. Era hijo de bengalíes, de inmigrantes bengalíes, podían haber sido lanceros pero no, sus padres eran inmigrantes bengalíes y este hombre, desde el principio se obsesionó con el tema de la acústica y del sonido. De hecho, en cuanto pudo, comenzó sus estudios de ingeniería, tanto electrónica como física, en el MIT, en el Instituto Tecnológico de Massachusetts, donde llevase el profesor y desarrolló unas investigaciones interesantísimas. Así que nada, Bose, cuando ya acabó esa etapa académica, decidió montar su propia empresa. Bueno, y así lo hizo, en el año 64 montó su empresa. Es un tipo curioso porque sin tener prácticamente fondos o dinero, él siguió invirtiendo mucho en lo que es la investigación. Entonces, él estaba muy obsesionado con el tema del sonido porque lo que le ofrecía el mercado en aquel momento a él no le complacía. Estamos hablando de una persona que tiene unos conocimientos teóricos y técnicos elevadísimos. Entonces, él sabía que con la investigación es como se podía conseguir algo distinto y que verdaderamente marcar aún. Sí que lo consiguió con todos sus productos y pasó un hecho que fue el que nos lleva a hablar de la cancelación de ruido, que fue el que en un viaje, en avión, sobre el año 79 o por ahí, estaba intentando escuchar algo con unos auriculares Bose y era tanto el ruido del fuselaje por la vibración que transmitían los motores, las propias alas y demás, que en aquel momento él fue cuando decidió abrir un camino de investigación para ver cómo podía realmente suprimir ese ruido y que se pudiera escuchar bien el sonido que producía su fuente de emisión. En este caso, pues no sé lo que sería, pero bueno, así empezó toda la cuestión. Le costó 10 años de investigación dentro de su empresa llegar a conseguir un sistema que funcionara bien para cancelar ruido. La primera comercialización la tuvo para gente que trabajaba en las líneas aéreas, que fueron los que más rendimientos sacaron y no fue hasta el año 2000 cuando sacó su sistema que se llamaba QuietComfort, que podemos hablar que son los primeros auriculares con cancelación de ruido efectiva. Ojo, en el año 2000, del 2000 al 2024, pues ya Enrique que nos cuente ya todo lo que supimos. No sé lo que habrá pasado, pero yo tengo en las orejas, ahora mismo sobre mis orejas, unos QC, unos QuietComfort, o sea que siguen estando ahí y son muy eficaces. No me extraña que le llevara tanto tiempo, debe ser una cosa difícil de arquitectura, de construcción, de tratamiento digital, pero el principio es muy simple, a cada onda le corresponde una contraria y si las juntas las dos, se anulan. Esto no requeriría hacer mucha explicación de cómo se propaga el sonido, las ondas y tal, pero bueno, si os creéis ese principio, que os lo deberíais creer porque es cierto y además es verdad, lo que ocurre es que los auriculares de este tipo llevan unos micrófonos fuera, que lo que están cantando es lo que hay por ahí, el ruido del avión, el del autobús, el del tren, la gente que anda por fuera, los coches, el ruido en general que tenemos fuera y constantemente está procesando esas señales y nos producen dentro de los auriculares la onda contraria, que no la oímos, o sea no la oímos porque el efecto que sucede es que nos anula el poco sonido que colaría por las almohadillas de los auriculares, con lo cual se consigue un silencio del 95, 97, 94, 90 y 100% no se consigue y sobre eso en los altavoces de los auriculares, o sea nuestras orejas, oímos lo que estemos mandando, o sea, música, vídeo que estemos viendo, lo que sea, con lo cual se produce un aislamiento bestial y muy, fijaos que, claro, en tiempos, no digo nada en contra, yo soy de los que los he tenido y soy muy friki, pero claro, en tiempos teníamos que comprar unos altavoces de gran coste para sentarnos a oír una sinfonía en un salón concreto, en una habitación, en un sofá, en una posición concreta que era la perfecta para oír los altavoces, ya no digo nada si eran cuatro, si no sé qué, y está muy bien, pero resulta muy caro, muy difícil, lo tienes que hacer ahí y sin embargo, con auriculares de este tipo, te aíslas en cualquier lado y con cierta garantía de calidad, pues se oye muy bien la música y no te molestan. Problemas, pues eso, que yo eso jamás lo usaría en la calle, porque, ya digo, llega una moto, llega algo y no la oyes y te puede pasar cualquier cosa, pero para aislarte, yo ahora mismo que estoy hablando con vosotros y solo con vosotros, pues me viene perfecto, porque estoy concentrado en lo que estoy haciendo, por encima estoy oyendo mi lector de pantalla, que para los que no están iniciados en esto, pues es lo que me lee a mí la pantalla del ordenador en voz, como si vosotros estuvierais mirando el guión, yo lo oigo y soy capaz de distinguir las dos cosas, pero estoy aislado en esto, estoy concentrado en gafotas, y en Ricardo y en Arturo, no oigo nada de fuera y eso, pues costó conseguirlo, pero está, la verdad que es un logro impresionante. Esta es la cancelación activa, que es mediante software y que, efectivamente, al ser en tiempo real, y dado que es en un sitio muy pequeño, al ser unos auriculares, hoy en día, pues a lo mejor no tiene tanto misterio, pero claro, el señor Bose, esto empezó en el 79, en aquel momento, pues hacer algo tan pequeñito y tan en tiempo real, pues no era tan sencillo. La pasiva ya es fácil, la de meterte, bueno, yo contaría cosas muy curiosas que no tienen nada que ver con esto, pero vamos, nada que ver, por hacerlo muy corto, no hay nada más horroroso que meterse en una sala anecoica. Yo he tenido la oportunidad de estar meses, cuando se hizo la primera voz sintética que se hizo en español y en catalán, que se hizo, que se llamaba Ciberveo, ahí se grababa en el alófono, se hacía muchas cosas, bueno, sería otro cuento. ¿Es una sala anecoica, Enrique? Una sala anecoica es una sala que está dentro de otra sala, sujeta por muelles y metido con mucho aislante, de forma que el eco en la reverberación es cero, entonces ahí te metes y no hay absolutamente nada. Es horroroso, oyes tus huesos, oyes tu corazón, te oyes a ti mismo, pero tú no rebotas nada de sonido, y es impresionante, eso sí sería la cancelación perfecta, que es que no hay nada, y es angustioso, sobre todo, para la gente que no ve nada se lo pasa muy mal, porque es que no tienes noción de a dónde rebota tu sonido. Sabéis que la gente que no ve, los que no lo sepan, y que no seáis ciegos y tal, hay mucha gente que practica lo de la ecolocalización, un poco lo del murciélago, que es enviar señales para que te reboten en las paredes o en los objetos, y saber un poco, si te vas a dar con algo, un poco, medir el espacio, porque no lo ves. En una sala anecoica no podrías, es que no rebota. Estarías a oscuras de oído, ¿no?, también. A oscuras de oído, sí, sí, totalmente, es curioso, pero sí, sí, la cancelación activa ANC ha sido un gran logro. Yo, si queréis, os contaría también el último apartado de auriculares que tengo, que este sí que es, yo creo que merece, o sea, merece, que no es con cable, sin cable, no se mezcla, es los raros, ¿no? Esos que yo tengo como raros, que son pocos, pero que hay algunos, ¿no? Bose mismo tenía unos que son como una estola, algo que te pones por detrás del cuello, con un pañuelito, y te cae el final en cada hombro, ¿no?, encima de cada hombro, y encima de esos finales hay unos altavoces potentes, esto sí que se oye un poquito desde fuera, no se oye con calidad, pero la gente, si te ve pasar por la calle, dice, ¡buah, ese lleva un transistor malo de esos! Pero no, no, tú lo oyes muy bien porque están orientados de forma muy buena para que se oigan en tus oídos, eso es ideal para oír música con mucha calidad, muchísima calidad, más que las, más que los de oreja abierta, desde luego, y... De manera muy cómoda. Pero respetando, y sobre todo respetando, o sea, que te queda la áptica libre, que tus orejas están libres, oye en eso, o sea, es colocarte en una sala de audición con buenos altavoces Bose, pero que siempre van a ir contigo, porque te mueres, esos son muy raros y se dejaron de fabricar. Bose, el señor ya no tendrá la culpa, el pobre, claro, por supuesto, pero últimamente a mí me decepciona bastante porque discontinúa bastante cosas que hace muy bien, como gafas y estos pañuelos que se llaman, se llaman Bose Soundwear Companion, como vestible de sonido, como compañero vestible de sonido, ¿no? O sea, cuando ha dicho gafas de Bose te refieres a las frames, ¿no? Sí, las frames que ya han desaparecido, ya, ¿no? O sea, yo también las tengo como oro en paño, pero bueno. Y después otros muy raros también, que ellos, esos sí se siguen haciendo, bueno, muy raros digo, pero son un poco distintos de Sony, los Link Buds, que son que el toroide, o sea, lo que es, lo que produce el sonido es un redondel con agujero en el centro, como los caramelitos esos que había que se llamaban chimos, que es como un agujero con un donus pequeño. Entonces, esos sí se te encajan en la oreja, tienen varias gomas para que se quede más o menos fijo, no es su fuerte porque ellos lo saben precisamente, pues hay cinco tipos de gomas dependiendo de la oreja y no siempre se ajustan bien, pero bueno, se quedan más o menos, pesan muy poquito, muy poquito. Y lo que pasa es que como el chisme que produce el sonido, aunque está en tu tímpano pegado ahí al conducto, ¿no? No en el tímpano, pegado al conducto, pero deja un agujero libre, pues también yo fueron los primeros que tuve de ese tipo, que no eran de cancelación ósea, para que me dejaran oír el exterior, que es que la gente que nos vemos siempre andamos persiguiendo encontrar el mejor auricular de este tipo, porque claro, a un ciego si le matas eso es como si a una persona que ve le tapas los ojos y dice, anda vete, vete para allá, para Sevilla, andando majo, a ver si puedes, ¿no? Pues eso, quiere decir que nos matan, nos matan mucho, ¿no? Entonces, estos están muy bien y son los otros raros que diría, yo creo que en el catálogo de raros no tengo nada más. Yo sí tendría uno que no sé si entraría en raro, pero sí que me ha llamado la atención y son los que ha presentado en el CES Las Vegas Exxilor Luxottica, son los que hace, vamos, los conoceremos por las gafas Ray-Ban y un montón de gafas y lentes especiales, porque yo creo que es la empresa más fuerte que hay en el mundo de fabricación, por lo menos en el mundo occidental, ¿no? Porque cuando hablamos del mundo parece que solo esté este, pero parece ser que hay empresas también muy grandes en Asia que no son muy conocidas aquí, pero bueno, aquí en este mundo occidental ellos son muy potentes y han presentado unas gafas como las que hablábamos antes, como las Frames, que llevan incorporados unos audífonos y audífonos, cuando digo audífonos es como conocemos los audífonos a este lado del charco, es decir, son dispositivos, aparatos para personas con hipoacusia para que escuchen mejor y los llevan incorporados en las patillas, supongo que con un sistema y un procesador y una serie de... de tecnología que gestionará muy bien todos los ruidos ambientales y dependiendo de supongo que la patología que tengan de oído o las necesidades pues bueno llevando unas gafas pues tendrán unos audífonos sin tener que pasar por la estigmatización de llevar un aparato metido en el oído que parece ser que a la gente que tiene estas dificultades llega bueno pues a molestarles bastante hasta el punto de no utilizarlo y preferir no oír y a mí esto sí que me parece algo que va a funcionar muy bien porque hay una necesidad real y creo que viendo ya como han resuelto en la Ray-Ban Metal el tema del sistema sonoro pues creo que si esto encima aún está más especializado va a ser un puntazo. Quizá el único problema que tiene este tipo de auriculares y de audífonos es que efectivamente a la gente no le gusta llevarlos pero que evidentemente si sientas en un sitio muy oscuro y no utilizarías gafas pues si te quitas la gafa te quitas el audífono que nos pasa también con la Ray-Ban pero pero bueno es que claro no todo siempre es completo o sea que está muy bien pero las lentes si es vamos si es exilor luxótica las hay claras transparentes transicionales las transicionales y que se cambian transición que se van cambiando de se van oscureciendo a medida que hay claridad y sol y tal y se van aclarando a medida que hay oscuridad eso sí está muy bien también y y John Raros también había puesto lo que pasa que me adelanté a los de oreja abierta no estos chinos que dije yo que cada vez van evolucionando más la verdad que tenéis auriculares por ahí ya digo de 20 de 30 euros todos estos llevan igual que los de apple porque lo imitaron y es un tema que se me olvidó decir y es bueno es relevante llevan su cajita donde lo guardas y su cajita lleva batería y entonces tiene para bastantes veces de carga ya tú cargas la caja y después por los auriculares como lo guardas allí cuando los quitas pues al guardarlos se están cargando y tienen pues más o menos con los chinos van los estos de 20 pues dan para dos cargas y ya irá que te va pero los de apple y algunos otros te cargan los auriculares 8 o 9 veces o hasta para 30 40 50 horas sin sin tener que enchufarlos en la corriente no para para cargarlos evidentemente todos los inalámbricos necesitan energía no no van con cable y hablando también así de cosas un poco raras no dentro de los auriculares está el sonido binaural no es muy curioso como recibiendo el sonido por dos puntos fijos pues se puede escuchar el sonido en 3d y somos capaces de poder localizar algo en el espacio si eso está muy interesante y se me había olvidado y es inherente a cualquier auricular pero cualquiera que busque sonido binaural en internet y tengáis unos auriculares más o menos bien si podéis que sean de cancelación mejor lo que se hace es imitar la forma de la cabeza humana y de cómo oímos o sea oímos en 3d pero no sólo en estéreo no es que una cosa se haga por un lado se acordaréis los más viejos del lugar cuando estaba muy de moda el estéreo cuando empezó a salir pues se grababan discos que se graba la batería y no sé qué por un lado descarado y las voces por otro horrible eso es muy mal porque no llena y tanto para ir en 3d es decir que se te cae una moneda y más o menos sabes a qué parte del suelo ha caído de todo eso eso está basado entre otras cosas en que la sobre todo y sobre todo en que el sonido no llegan al mismo tiempo a una oreja que a la otra hay un pequeño retardo de una con respecto a otro eso imitado cuando se graba si se hace con los micros pues puedes hacer hay uno por ahí si buscáis barbería de luigi bueno sólo barbería para no complicarlo no buscan barbería y binaural y encontrarán efectivamente la barbería de luigi que es una persona que está afeitándote a otra persona cortando el pelo con una maquinilla y oirás perfectamente la maquinilla en tu codo en tu lado derecho en el izquierdo arriba y a luigi por otro lado hablando un tío tocando la guitarra y no sé dónde a tu adelante a tu izquierda y hay algunos de lluvia debajo de un coche que es bueno pues mira saint geyser tuvo unos que también los descontinuaron que eran muy buenos para grabar en unos auriculares in ear pero que tenían un micrófono en cada oreja también para grabar desde esa perspectiva y se podía grabar binaural y la verdad que se obtenía un sonido espacial impresionante sabéis lo que me ha impresionado mucho a mí en cuanto a resultado de sonido espacial con las raven meta grabar vídeos que graba con los cinco micrófonos la sensación es tremenda porque verdaderamente es un sonido holofónico es un sonido espacial que yo escucho exactamente dónde está posicionada cada persona y resulta inquietante claro cuando oyes un sonido tan claro tan nítido y aparte posicionado en el espacio y no sepamos supongo que sois los dos lo habéis podido comprobar no que tiene un sonido extraordinario sí yo creo va mucho por aquí también volviendo a citar los paseos de mi perro porque es un sitio que es un paseo que hago de 7 8 kilómetros que no hay apenas coches ni nada son pistas forestales y está el mar de vez en cuando a veces tan lejas de él pero siempre hay bosque viento los árboles suenan por un lado por otro y los pájaros están en un sitio en otro y tus propios pasos pisando la tierra y tal y cual y la verdad que después lo oyes y es un panorama sonoro igual para la gente que ve menos no pero nosotros que te fijas igual la gente que no vemos que es que lo he esclavado como tú lo irías cuando estás en directo casi te imaginas el sitio que así es y la grabadora zoom h2 que ha salido hace poco tiempo pues también tiene esta peculiaridad tiene varios micrófonos al rededor de ella y es capaz de captar todo el sonido envuelve en ti el último h4 y los tiene colocados así los tiene colocados enfrentados y hace un sonido sonidos binaurales holofónicos 8d como se les quiera llamar siempre veréis que recomiendan escucharlo con auriculares que es la temática que nos ocupa hoy porque es donde se verdaderamente se ve se percibe el efecto de espacialidad que comentaba enrique a mí últimamente me gusta mucho llevar los de los de opinión los de reja abierta que los hay caros se también los hay chinos caros y chinos volando digo yo porque supongo que el 99 por ciento están hechos en china o sea que y no y no está mal ni bien es una realidad y entonces lo que pasa es que pesa muy poco y se produce lo que decía un euros y que anda con que yo trabajé en otros temas que se produce el efecto calcetín que no es más ni menos que decir que tú te pones el calcetín ya te pones a andar a lo largo del día tu gene y te fijas que llevas un cálcet impuesto bueno pues es auriculares pasa igual que no llega un momento que te olvidas y sin embargo para la gente que sí que usamos mucho el teléfono lo que seamos porque porque agarras el la aplicación está debida y hay que te describe cosas o te llega un sobre a casa y lo vas a leer y con esa aplicación y sales un rato a la calle entonces pones el gps cualquier cosa como es grande que utilizamos mucho el teléfono para muchas cosas pues el auricular si ya no notas que lo llevas pues es como un complemento tuyo como la gente que lleva gafas que es igual que el efecto calcetín la gente que lleva gafas habitualmente no le molestan en la nariz ni en las orejas o sea el puente de la nariz pues este tipo de auriculares son así yo por ejemplo los qc45 que llevo ahora los de sony los quick confort de estos pues los estoy notando o sea petan un poquito o sea son cómodos pero los noto y sin embargo los de oreja abierta pesan tan poco y son tan y de anillos que no no te fijas te olvidas y antes unos auriculares eran unos auriculares no tenía más misterio ahora como hemos visto pues hay muchísimos tamaños formas colores sabores hacia dónde crees que puede evolucionar esto en el futuro me alegro que me hagas esa pregunta no lo sé yo creo que los de oreja abierta deberían deberían mejorar de sonido y se está hablando por ahí no tanto auriculares sino de altavoces de no sé cuál es la tecnología que hacía mucho tiempo que se hablaba de ellos pero estaría muy bien también que es volvemos a lo de la sala de antes los direccionales no exacta la sala de antes de que tú tengas en tu salón unas cositas ahí que si te pones en determinado punto de vida aquello suena como el wifi center sin embargo el vecino no lo oyen es una tecnología que yo no la he probado sí que he leído que ya se comercializa tampoco tengo muy claro hasta qué punto funciona llegué a escuchar una hace unos años ya una exposición del inventor de esta tecnología o de uno de los inventores que en un salón de actos proyectaba un sonido desde su fuente de emisión su altavoz este dirección al y había alguien del público que lo percibía y y bueno los demás no lo escuchaban entonces hombre como propuesta es muy interesante ya hablaban de ponerlo en museos en cada una de las piezas que querían describir pues cuando te posicionaba adelante cuando las ollas y no no escuchabas absolutamente nada ahí sí que tendría una buena utilidad y sobre todo para para llevarlo encima no es decir o en lo que tú estaba diciendo enrique viendo la televisión y no molestará a nadie pues está sentado en tu ropa en tu asiento donde sea y te llega de foco no te llega ese chorro de emisión que sólo a ti pero tienes que estar quietecitos y moverte si te levantas a por un vaso de agua o a coger el vaso de encima de la mesa pues ya la lía bueno entonces está un poco limitado lo queremos todo yo de tofas en auriculares auriculares yo no sé por dónde puedo ir porque la verdad que también es verdad si lo miramos así un poco desde el año 70 y algo cuando empezaron los primeros de menos un poco buenos pues no sé se ha avanzado en formas y no sé qué pero poco ha sido que haya habido grandes quiero decir en ordenadores hemos pasado no había pt en aquellos tiempos y ahora hay ordenado en el sonido pues bueno pero en el curso parecía un mercado saturado de los auriculares y demás hasta que bueno pues parece que llegó apel y le dio una vuelta de tornillo metiendo la moda por medio mejoró la tecnología con los auriculares blanquitos y tal que se pusieron muy de moda luego con los inalámbricos aunque parece que hay mercados saturados siempre se puede dar una vuelta de turca y bueno la gente del deporte es muy no la gente como ahora se hace mucho deporte la gente que tal y hombre supongo que cuando se hagan bien en subacuáticos y tal y después yo creo que viene muy bien en tienen que evolucionar pues en temas de seguridad de cosas el pinganillo es el que se dice siempre que es el que llevas para seguridad para cosas y en estos de vibrar yo tengo bastante esperanza los que vibran hay unas mochilas que también estarían dentro de los raros que se hacen para gente con baja audición o nula que van llenas de altavoces de estos de los de que hablábamos de marujá cerezo no de los de los que vibran y te dura toda la espalda no y hay gente que que le ayuda mucho o sea que le está viendo una película y el que vibre pues les hace sentir mejor la serie de actuadores ápticos hay detrás no que es exacto si eso te hace te hace de bueno te refuerza el sentido para ellos lo hacen para hoy vamos yo recuerdo una vez que hicimos una prueba con serafín tuvir y el cantante este chico que es un amigo con la esa y conoció canciones sobre todo las suyas le ponías algo porque no sonaba o sea eso es con la canción suya no sé qué pues hacer esos actuadores y las conocía había un proyecto orientado a la entretenimiento y diversión de personas sordas y con este tipo de tecnología que era una especie de chaleco con estos vibradores no que es lo que tú dices más o menos la mochila si bueno esto es mochila bueno no sé si efectivamente esto esto va como por la espalda así probablemente estemos hablando de lo mismo pero no en los hombros y eso ya no está por delante no vibra el que yo con los que yo conozco y bueno pues no sé por dónde irá el futuro pero es siempre a mejor espera hombre yo muy impresionado todo lo que son los mini altavoces insertador dentro de las patillas porque sí que he visto una evolución de algunos que se escuchan bien y lo dejo ahí y a otros que ya se escuchan muy bien no entonces ahí sí que creo que hay un terreno que recorrer porque aún escuchándose también sí que me da cuenta que al darle volumen esa vibración se induce y distorsiona algo el sonido y luego en ambientes pues acústicamente saturados cuando es el centro de una ciudad un autobús o algo así pues tienen que seguir investigando a ver cómo consiguen que este tipo de auriculares o altavocillos en patillas pues sean más efectivos porque yo no sé si vosotros lo habéis experimentado con vuestras gafas pero creo que es ahí se pierden un poco en lugar en lugares donde no hay mucho ruido ambiental son maravillosos pero en cuanto subes un poco el volumen es que yo creo que ahí no queda más remedio que hacer el tratamiento digital era una cosa en la en la cancelación activa de ruido y otra cosa el tratamiento digital del sonido que hemos hablado poco de él pero que está avanzando mucho y ahí si veo mucho futuro ya los materiales y los materiales para que no vibrará tanto la patilla porque pero quiero decir ahí perdona ahí lo que quiere decir que yo creo que no se puede engañar a la física es decir que para tú aislarte determinados sonidos y para tú estar que ya se hace con audífonos para tú estar en una cafetería y oír a la gente que esté hablando contigo alrededor de tu mesa y no a los demás ni la cafetera esa que está haciendo ruido y el coche policía que está pasando por fuera eso es imposible si no te aislas porque tú lo irías por el oído de por fuera eso no te lo pueden tapar entonces ahí con las gafas es difícil otra cosa que hagan gafas que les cuelguen unos pinganillos que te lo pongas si quieres en caso de no de que tengas que hacer eso pero yo tengo más esperanza en el tratamiento digital del sonido porque ahora ya lo vemos o sea tenemos todos yo no sé quién lo usa y quién no pero yo desde luego lo uso en la cancelación de ruido saliente de tu teléfono que tú estás fregando platos y hablando con alguien y no te oyen el agua ni los cacharros sólo te oyen a ti el que te está recibiendo la llamada no pues eso ya existe al revés ya se trata el sonido lo hace muy bien en manos libres del iphone cancela muy bien el sonido es muy eficaz y las gafas y las gafas estas de metal también las gafas también sí sí sí cancelan ruidos raros y en la vuelta que sería lo que recibes yo he visto ya audífonos de gente que yo conozco no con hipoacusias y tal pero es que es la leche o sea que les quitan tienen varias posiciones y lo aparte que tienen su audiograma es decir les han hecho la audiometría y les exageran las frecuencias que no oyen y les ponen bien las que oyen y bueno que se les amolda pero aparte de eso que entran en ambiente bar y ellos no vamos ya puestas la tele a toda pastilla que lo que oyen es muy bien a la persona que está enfrente o a sus lados según una mesa comiendo que eso a las personas llegando viene muy bien es que se dice mucho entre los tigres callaros que no me dejáis ver no cuando hay mucho ruido esta gente de orca que me han dicho que ya no van a seguir desarrollando su producto tenían una investigación hecha y yo creo que hasta un preproducto supongo que lo habrán vendido que era esto justamente unos audífonos también en gafas y lo que hacía no se cierran gafas o como era lo que sí que sé es que captaban la voz del que estaba hablando y focalizaban la recepción de ese audio en ese audífono qué significa esto que en una zona bulliciosa si tu interlocutor está enfrente y te está hablando te evadiría del entorno ruidoso y únicamente focalizaría la voz de esa persona que está hablando y es un inventazo y bueno no sé en qué situación está la hora pero estoy hablando de hace 4 o 5 años cuando publicaron su paper de este tipo de tecnología si yo creo que por ahí también puede ir el futuro porque el oído humano eso lo hace muy bien cuando estás hablando con alguien en una cafetería el oído humano y el cerebro más bien es capaz de filtrar y quedarse solo con la voz del que tienes en frente y quitar todo el ruido ambiente de alrededor y la tecnología poco a poco está ya empezando a hacer esto en tiempo real y con ella a todo le ponemos a ella pues yo creo que por ahí puede ir un poco el futuro la idea que parece que se va a parar un poco por fin en 2025 digo por fin porque a ver si se paran a utilizar la que hay para cosas como estas es decir vamos a dejar hacer el chorro que lo hacemos muy bien ya y entonces ahora con todo esto que tenemos que tenemos mucho y mucho big y cosas vamos a hacer cosas vamos a hacer cosas prácticas tengo esperanza en eso porque el otro día leí yo que habían hecho un aeromotor no de estos que producen electricidad con una ia o por lo menos decía la noticia que con 3,2 metros por segundo de brisa ya producía una electricidad suficiente para bueno a ver si nos vamos centrando porque esto la ia ahora todo tiene ia yo no sé a mí me recuerda el otro día leía y además yo lo viví cuando llegó la tele en color que yo todavía ya ya estaba por el mundo y ya había visto la tele en blanco y negro pues vendían unas pantallitas porque iba a llegar la tele en color pero no llegaba antes para engañar a la gente así unas pantallas que eran degradadas si yo lo tuve como azul azul por arriba y tirando a verde por abajo el color fue y que la pantalla la tele en blanco y negro y tenía tres partes la parte de este vídeo en tres zonas la de arriba era azul la del medio era roja y la de abajo era verde y parecía que todo tenía eso bueno pues ahora todo tiene ia y la idea es un poco también un poco de eso no es que está muy bien y como dicen aquí dios la de aquí en mi tierra no dio la de pero pero pero ahora que pero que nos dediquemos a pensar con todo lo que hay y hacer algo porque ese tipo de cosas para el tratamiento digital de audio tengo mucha esperanza ya se está haciendo pero ahora que yo creo que todas estas cosas requieren aislamiento si no lo que si recibes por fuera otras cosas lo que estás haciendo es como si juan y manuela no tienes que de hecho los casi todos los auriculares de cancelación activa tienen un modo este estos mismos míos lo tienen tienen dos modos tienen claro que si te habla alguien como no lo vas a oír pues le das y entonces con esos mismos micros con que utilizan para cancelar lo abren entonces te amplifica y oyes a la persona de fuera sin quitarte los auriculares si no no la verías claro pero para saberlo regular de que estar en la oreja porque los micro auriculares o micro altavoces no que tienen por ejemplo las gafas pues no pueden hacer la cancelación activa porque si el sonido llega antes a tu oído que el dispositivo en cuestión pues difícilmente va a poder hacerlo en la inversa no o sea que eso me parece que va para largo ricardo lo que se oigan si se tiene que ver muy alto es que también después está el tema de engañar a la física una cosa para que suene fuerte tiene que vibrar mucho entonces si no te importa que las gafas se te muevan en la nariz no me molesta a mí lo que me molesta es que al moverse distorsionan el sonido y lo ensucian no un poco por lo menos yo no lo percibo ya tan limpio a lo mejor se pueden poner cosas que suene muy fuerte pero eso implicaría mucha vibración y a lo mejor es técnicamente imposible meterlo en unas gafas poco a poco mejorando la mentalización mejorando poco a poco exactamente y lo que yo creo que sí que hay un trabajo de física importante para que esa vibración no sea amortigüe y ya no se produzca esa transmisión que realmente yo creo que es lo que ocasiona sino el 100% el 50% de la distorsión del sonido hay que engañar a la física y a la física se la engaña recordaréis todos los primeros móviles que tienen unos antenones ya aparte del tamaño del móvil en sí no el antenón y te decía la gente de radio de toda la vida que no se puede engañar a la física es que la onda es no sé qué y el palo tiene que ser así ahora no vende la antena que si el dipolo que si la onda tiene que ser no sé qué ni la antena ni nada y los de la antena de la tele no que van ahí arriba con los anillos que cada niño es una frecuencia no una onda la antena de arriba de mi coche es una cosa que es un bultito la antena fm y no se va nunca la física se la puede engañar pero hay que hacerlo con arte bueno pues podemos hacer un resumen un poco de lo que hemos ido contando y vamos terminando hemos visto los auriculares desde que desde que se inventaron hasta hoy con todos sus tipos con cable sin cable sobre todo todos los tipos de formas que hay los que tapan la oreja los que no los que solo la cubren los que inducen en las orejas vibración en los huesos vibraciones los que no los que van por bluetooth los que pesan poquito los que pesan mucho hemos hecho una yo creo una panorámica de los auriculares además pasando hablando también de altavoces porque no en vano un auricular es un altavoz pequeñito decía yo un altavoz que no ha ido a la escuela y hemos visto altavoces desde el gramófono que era el más natural quizás, hasta los altavoces que hay ahora y los de vibración en el que vibran e inducen en una madera o en cualquier mueble yo creo que hemos dado un repaso interesante y por otra parte al tratamiento digital del sonido como es la cancelación activa de ruido es decir meternos en unos auriculares y no oír nada de lo que fuera o tratar el sonido de forma que se pueda oír selectivamente unos sonidos u otros hemos hablado del futuro también que es lo que puede mejorar y bueno hemos llegado hasta aquí muchas gracias enrique por habernos acompañado hoy en esta tertulia y bueno esperemos que haya muchas más a mandar jamones a casa van para allá muchas gracias enrique gracias a vosotros recordamos los medios de contacto correo electrónico ricardo pues gafotas@cegatos.es y a través de whatsapp mediante mensaje de audio o de texto en el +34 644 640 792 pues nada os agradecemos un montón que hayáis llegado con nosotros hasta aquí esperamos que hayáis disfrutado de este episodio y os esperamos en el próximo hasta luego
Gafotas, cegatos y sus aparatos #7
Fecha: viernes, 3 de enero de 2025, a las 00:00:00
En este séptimo episodio exploramos una tecnología que promete: GoodMaps, la herramienta que pretende transformar la orientación y el guiado en espacios interiores.
Nuestro invitado, Saúl Ponce, nos acompaña para analizar cómo esta plataforma está beneficiando a personas con discapacidad visual y a la sociedad en general, promoviendo la accesibilidad de manera innovadora.
¿Qué vamos a tratar?
- Introducción: Presentaremos qué es GoodMaps, una aplicación diseñada para facilitar la navegación autónoma en interiores, como museos, universidades o supermercados.
- Funcionamiento: Explicaremos cómo la app mapea puntos de interés, su compatibilidad con iOS y Android, y su integración con herramientas como Be My Eyes.
- Caso práctico: recrearemos y analizaremos una experiencia de uso.
- Exploraremos cómo GoodMaps fomenta la autonomía, la confianza y la inclusión, beneficiando no solo a personas ciegas, sino también a mayores y a quienes visitan espacios desconocidos.
- IA y accesibilidad: Trataremos los últimos avances, como el soporte con smartglasses y sistemas multimodales que podrían mejorar esta tecnología.
Gafotas, Cegatos y sus Aparatos profundiza en el presente y futuro del guiado y de la orientación accesible. ¡No te lo pierdas!
Intervienen:
Sitios referenciados en el episodio:
GoodMaps: Navegación Interior - Aplicaciones en App Store.
GoodMaps: Navegación Interior - Aplicaciones en Google Play.
Envía un E-Mail a Saúl Ponce de GoodMaps.
LA OLA QUE VIENE | Mustafa Suleyman | Casa del Libro.
Créditos:
Duración: 01:05:02
Descripción detallada del logo de Episodio 7. GoodMaps, sistema de geolocalización en interiores.
La imagen es un dibujo en estilo cómic retro, en blanco y negro, que representa a un hombre Gafotas con aspecto de superhéroe empujando un carrito de compras en un supermercado. Lleva una capa, un bigote prominente, gafas de sol y auriculares con micrófono. En su mano derecha sostiene un teléfono móvil que muestra la aplicación "GoodMaps". El carrito de compras tiene el logo de "GoodMaps" en la parte delantera. El fondo muestra estanterías llenas de productos típicos de un supermercado, con señales que indican secciones como "SUPER". Los detalles de líneas gruesas y sombras realzan el estilo gráfico clásico.
Mostrar transcripción de Episodio 7. GoodMaps, sistema de geolocalización en interiores.
Transcripción de Episodio 7. GoodMaps, sistema de geolocalización en interiores.
(Experimental) Gemini 2.0 Flash: https://ai.google.dev/gemini-api/docs/models/gemini?hl=es-419&authuser=1#gemini-2.0-flash
Gafotas, cegatos y sus aparatos #6
Fecha: martes, 24 de diciembre de 2024, a las 00:00:00
En este sexto episodio, contamos de nuevo con el experto informático Alfonso Calvo para explorar a fondo los retos y dilemas que plantea la inteligencia artificial en el contexto europeo. Analizamos la ética como marco esencial para garantizar valores fundamentales como la autonomía, la transparencia y la responsabilidad, destacando cómo estas premisas pueden guiar el desarrollo de tecnologías más justas y respetuosas con los derechos humanos.
Abordamos también los sesgos en la IA que, si se basan en datos históricos poco representativos, pueden perpetuar desigualdades y discriminaciones en ámbitos clave como la contratación laboral o el acceso a servicios básicos. Además, reflexionamos sobre las restricciones legales impuestas por el Reglamento Europeo de Inteligencia Artificial, un marco diseñado para proteger derechos fundamentales, pero que, en ocasiones, puede limitar el acceso a datos necesarios para entrenar o usar tecnologías de asistencia esenciales para las personas con discapacidad visual, como aplicaciones de lectura o reconocimiento de personas o entornos.
A través de ejemplos prácticos y un enfoque equilibrado, discutimos cómo estas restricciones pueden reformularse para fomentar la inclusión sin frenar la innovación tecnológica, proponiendo soluciones que promuevan la diversidad en los equipos de desarrollo, la accesibilidad en los productos y la colaboración entre reguladores, desarrolladores y usuarios. Un episodio imprescindible para reflexionar sobre el rumbo que debe tomar la inteligencia artificial para ser realmente útil y beneficiosa para todos.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Tay, la robot racista y xenófoba de Microsoft - BBC News Mundo
Cuestionada la máquina que predice futuros delitos en EE.UU.- ABC ciencia
Resumen de la ONU sobre la inteligencia artificial y discapacidad
Créditos:
Duración: 01:07:02
Descripción detallada del logo de Episodio 6. Inteligencia Artificial: Quo Vadis? Ética, restricciones y sesgos. El caso de la discapacidad visual y la legislación europea.
La imagen muestra una escena urbana con un ambiente futurista. En el centro, destaca un hombre con gafas de realidad virtual, bigote, auriculares y una camisa formal con corbata, caminando con confianza. Su cabeza es un emoji blanco con ojos cruzados estilo "X". A su alrededor, hay personas con cabezas similares que representan emojis con ojos cruzados, realizando actividades cotidianas como ir en bicicleta, sentarse en un banco o caminar. En la escena aparecen señales de tráfico con mensajes como "STOP" y "PROHIBITED". El ambiente general combina un estilo moderno con un toque distópico, simbolizando quizás una pérdida de conexión humana en un mundo dominado por la tecnología.
Transcripción de Episodio 6. Inteligencia Artificial: Quo Vadis? Ética, restricciones y sesgos. El caso de la discapacidad visual y la legislación europea.
Muy buenas, lo que sean, yo soy Arturo Fernández Y yo soy Ricardo Abad Y esto es Gafotas, Cegatos Y sus aparatos Podcast Bienvenidos al sexto episodio De nuestro podcast favorito Pues hoy ¿Qué tal estás Ricardo? ¿Cómo van esas grabaciones? Pues mira Arturo Buenas, lo que sea Como tú dices Pues muy bien y muy contento de estar aquí otra vez Grabando ya el episodio Número 6, parece mentira Hemos comenzado hace nada Y ya llevamos 6 episodios Y hoy muy contento porque Vamos a volver a una temática que me encanta Y sobre todo con Un invitado Que ha tenido mucho predicamento Y que hemos recibido un feedback de la gente Muy positivo Y ha gustado mucho el primer episodio En torno a la inteligencia artificial Cuando estuvimos hablando de sus inicios En el pasado siglo XX A mediados hasta la ya generalizada Y bueno Y lo que en un principio Pues simplemente un episodio Probablemente se convierta en una serie Y afortunadamente vamos a tener Como colaborador experto Alfonso Calvo Para llevarla a cabo Eso es, muchas gracias por estar otra vez Con nosotros En este camino Y efectivamente esto de la inteligencia artificial Pues yo creo que da para mucho, muchísimo Va a dar para muchos episodios Es algo muy nuevo Muchas veces muy desconocido Muchas veces no se entiende bien Y efectivamente hay que poner un poco De orden en todo esto Exactamente Nuestro episodio se va a llamar Covadis Referente a la inteligencia artificial Es decir, a dónde va, a dónde vamos Con la inteligencia artificial Y esto lo va a determinar Mucho todo lo que es la ética Que se aplique, los sesgos, las restricciones Y de esto nos va a hablar Alfonso Bueno pues El principal problema que tenemos Con la ética de la inteligencia artificial Es que eso es un oxímoron La inteligencia artificial No puede tener ética Porque Tenemos la mala costumbre de Antropomorfizar la inteligencia artificial Y Hacerla humana Pero La inteligencia Artificial es un programa de ordenador Los programas de ordenador no tienen ética No tienen consciencia Y entonces ¿Qué es lo que ocurre? Pues que intentamos trasladar Mayoritariamente La percepción que los humanos tenemos de la ética En el ámbito de la inteligencia artificial Y nada funciona Evidentemente Porque no puede ser así Es decir, si tú no tienes una entidad consciente No puedes desarrollar ética Y la inteligencia artificial Solo es consciente en las películas Hollywood Donde la gente se inventa cosas Pero un programa de ordenador No tiene conciencia Eso no existe El programa de ordenador pueden ser precisos Pueden ser funcionales Pero desde luego conscientes, no A día de hoy no Es posible que en el futuro pueda existir esto Pero a día de hoy no Ni nada que se le parezca ¿Qué es lo que sucede? Pues que Cuando al usar la inteligencia artificial Le hacemos preguntas Que resulta Que pueden ser peligrosas para terceros Pues que ¿Qué ocurre? Pues que la inteligencia artificial En sus primeras implementaciones Hace unos años De IA generativa Pues al algoritmo generativo El objetivo es satisfacer a quien le hace la pregunta Y aunque le pregunte una barbaridad La IA la responde Porque el algoritmo generativo No es consciente del impacto de lo que está contando No tiene conciencia Entonces, claro, si tú le preguntas ¿Cómo hacer daño a una persona? Hace dos años Pues él te responde Pero claro, eso es una barbaridad No se puede utilizar un programa de ordenador Para hacer daño a las personas Con lo cual, la única manera En la cual se ha podido Implementar una cierta ética Por llamarlo de alguna manera En los programas de ordenador Es a base de restricciones Es decir, si un programa Establece un diálogo con un ser humano Lo único que podemos decirle a ese programa Es que a través de ciertas palabras Con las que se han hablado Con los temas claves Detallados temas O tipos de preguntas O sesgos de conversaciones Pues prohibirle al programa Que aborde ese tipo de conversaciones Pero esas restricciones Son la única manera De poder implementar una cierta ética En un programa de ordenador Los seres humanos no funcionamos así Los mecanismos de ética Se desarrollan de otra manera Y como siempre estamos estableciendo Comparaciones entre Cómo funciona un ser humano Y un programa de ordenador Un programa de ordenador Porque el programa de ordenador Sale perdiendo siempre, evidentemente No puede salir limpio y victorioso De esta lucha La cual de momento no puede ganar Claro, porque la ética humana No está dentro de un modelo restrictivo Efectivamente, a ver, existe, digamos Al final, un mecanismo De restricciones, pero que no se implementa De la forma en la que lo hemos hecho Con los ordenadores, es decir Al final lo que sucede es que Ciertos parámetros éticos Orales Sí que implican conductas restrictivas Pero no están implementados De la misma manera en la que Lo estamos haciendo con los programas de ordenador Donde básicamente lo que se le dice Son un conjunto de temas Y de términos que no se pueden abordar Directamente Claro, como eso es una lista Lo que se está elaborando, al principio esa lista Era muy mala Y entonces se colaban muchas conversaciones Peligrosas, pero después de dos años Pues ya digamos que hay Una lista suficientemente amplia Para que sea razonablemente buena ¿A qué se dedican los expertos De informática? Pues a intentar saltarse esa lista Es decir, que de alguna manera Tú puedes intentar Engañar Al ordenador A través De subterfugios lingüísticos Que hagan Que finalmente te entreguen la información Porque debemos pensar que El algoritmo generativo Intenta darte una respuesta Entonces estamos luchando contra la propia naturaleza Del algoritmo generativo Pero a base de subterfugios Pues efectivamente es posible Saltarse ciertas restricciones ¿Y qué hacen los desarrolladores? Pues aumentar el conjunto De restricciones Cuando se descubre que efectivamente Hay maneras Por donde hace aguas Efectivamente, entonces ¿qué es lo que sucede? Pues que esto digamos es un proceso de ensayo Y error Entonces Luego la prensa Que claro, la prensa ha encontrado En la inteligencia artificial Una víctima propiciatoria La inteligencia artificial no se puede defender a sí misma Porque no tiene características humanas La IA no tiene conciencia de sí misma No puede hacer nada Entonces ¿qué es lo que sucede? Pues que es una partida desigual ¿Vale? Ya tenemos un grupo de periodistas Que están buscando siempre Una noticia que les haga vender publicidad Frente a unos problemas de ordenador Que no tienen ni idea De lo que están haciendo con ellos Básicamente Sí, yo quería hacerte una pregunta El otro día nos dejabas claro Que la IA es muy amplia Y nosotros estábamos hablando últimamente Cuando la han popularizado de los chatbots Son estos chats donde podemos escribir Recibimos respuestas Podemos hablar, recibimos también respuestas habladas Pero a fin de cuentas Es una forma de presentar Un tipo de modelo de inteligencia artificial Comentas que siempre Aquí el algoritmo Está configurado para que siempre Conteste, supongo que esto será Para que sea más efectista No, no, es la naturaleza del algoritmo generativo Porque cuando hablamos de que el algoritmo es generativo Lo que significa es que El objetivo final del algoritmo El programa de ordenador Es entregar Una respuesta De ahí proceden Todo el tema de las alucinaciones Es decir, aunque el programa No tenga toda la información En su objetivo De generar Una nueva generación Inventa lo que le falte Está en la propia naturaleza Está en la naturaleza del algoritmo, correcto Estamos tratando con algoritmos Que son, vamos a decir Excesivamente Amables, vamos a decir ¿Por qué? Porque su naturaleza La construcción es así Es querer contentar A la persona que le hace la pregunta Es dejarte satisfecho Es buenista Es todo eso Y eso no se puede cambiar Se puede restringir, pero no se puede cambiar En este tipo de algoritmos En los generativos Tenemos un problema Tenemos un problema, efectivamente Tenemos un problema, ¿por qué? Porque el algoritmo no entiende De las intenciones De la persona con la cual dialoga Y si la intención de la persona con la que dialoga Es una intención malvada Es una intención malvada El algoritmo por sí mismo No es capaz de resolver eso Entonces las restricciones que le han establecido Son las únicas que pueden salvar esa situación No hay más Claro, pero si este algoritmo No es capaz de evaluar Las consecuencias que puede tener Su respuesta ¿Quién responde? Claro, no hay conciencia Es decir, tú estás tratando con un programa De ordenador Que no tiene conciencia ¿Qué es lo que se ha conseguido en los últimos meses? Que tenga algo de memoria Que ya es mucho Antiguamente no había ni memoria Ahora por lo menos tiene memoria ¿Eso qué significa? Que si durante la conversación que tienes con el programa Le hablas de algo Que anteriormente ha aparecido en la conversación Efectivamente El programa lo usa Eso ya es un avance Ha ampliado su contexto Ha ampliado el contexto, correcto El contexto ahora es muy amplio ¿Por qué? Porque como estos modelos Están usando ordenadores Terriblemente potentes Pues el contexto pueden ser Más o menos, digamos Como mil páginas Para que nos hagamos una idea Lo cual es mucho contexto Pero repito Eso que puede parecer Volumétricamente Una cifra impactante En términos de inteligencia humana Es poco significativo Es poco significativo Pero eso nos lleva a una pregunta importante ¿Quién es el responsable De esas contestaciones? Eso es una pregunta muy buena Que ya está respondida En la propia historia de la informática Daros cuenta Que llevamos 70 años De historia de la informática Más o menos Desde principios de los 50 Vamos a poner esa fecha como arranque De los programas de ordenador En esos 70 años de historia Ya se planteó Qué responsabilidad tenían Los programas de ordenador Y ya digamos Los legisladores Los legisladores Han establecido Que un programa de ordenador No es responsable de nada No puede ser Eso no es posible ¿Quiénes son los responsables? Las personas y o las empresas Titulares de esos programas Esos son los únicos responsables Entonces eso qué quiere decir Por ejemplo En sistemas médicos Que son los más delicados Que tenemos hoy en día ¿Quién es el único responsable De un sistema médico? El médico que atiende ¿Quién es el único responsable Aunque ese médico Haga uso de unas máquinas Y unos programas de ordenador Con independencia Son herramientas Exactamente Son herramientas Con lo cual Efectivamente la herramienta Imaginad que es defectuosa ¿Vale? Pero con independencia De lo apropiado O defectuosa Que sea la herramienta La responsabilidad Se imparca en un ser humano En este caso El médico Que atiende ese caso Es problemático ¿Vale? Luego efectivamente El médico El hospital Podrá pedir responsabilidad A la empresa Que ha construido la herramienta Pero eso ya es una cosa Interna ¿Me entendéis? De cara a A la relación con el paciente El médico Es el responsable Con ese paciente Y Y todo lo que el paciente Considere solicitar Como daños y perjuicios Pues se los solicitará Al médico Que en realidad será Al hospital Dentro del cual está ese médico Básicamente ¿Vale? Entonces No se piden responsabilidades A los programas de ordenador Se ponen evidencias En relación a los programas Y se ve Este programa No ha funcionado bien ¿Vale? Pues se va a exigir responsabilidades En general Al titular humano De ese programa Siempre Claro Siempre Y aquí tendremos mucho que aprender Porque yo creo que todavía No vemos esto Como una herramienta Lo vemos como no Si a mí me lo ha dicho esto A mí me lo ha dicho el ordenador Pues La verdad Claro, efectivamente Pero es una herramienta Y eso es lo que Intentamos trasladar En estos programas Es decir Oiga La IA es una herramienta Como lo han sido ¿Vale? Los programas Que han venido anteriores Es una herramienta De una naturaleza Distinta A los programas Que hemos tenido hasta ahora Pero sigue siendo Una herramienta Y lo seguirá siendo Durante unos cuantos años Entonces Es posible Que efectivamente En un futuro Haya un cambio cualitativo Pero eso está por ver Y todavía Nos encontramos Con programas de ordenador Y a un programa de ordenador No le puedes exigir Ninguna responsabilidad Nunca Se ha hecho en 70 años Y no va a ocurrir ahora Claro Pero esa personificación Es una herramienta Hacia la IA Es interesante Para esta gente Que has comentado tú antes Que son Los que hacen literatura Sensacionalista Para sus diarios Y prensa Y es mucho más atractivo Eso es La prensa Carga contra la IA Y todos los titulares Pues son Como muy sabrosos Y como que parece Que la IA Tiene una responsabilidad Y se le ha de imputar No La IA es un programa de ordenador Habrá que ver Cómo se le ha planteado A la IA Esa situación Porque eso ha sido Un ser humano No ha sido La IA por sí misma ¿Me entendéis? Y la IA ha dado una respuesta Condicionada Por lo que le ha planteado Un ser humano Y es posible Que ese ser humano Le haya planteado una trampa No una situación Convencional Entonces claro Si tú presentas una trampa Y vas buscando Tres pies al gato Al final La inteligencia humana Vence Al programa de ordenador Todavía sí Ya veremos en el futuro Pero De momento lo vence ¿Por qué? Porque el programa de ordenador Tiene una responsabilidad Con más limitaciones El ser humano Es mucho más amplio Y más si ese ser humano Ya está buscando La manera de encontrar Los tres pies al gato Claro Y los humanos Que somos muy dados A dejar la responsabilidad A otros Pues aquí Muchas veces se ve Que tenemos la ocasión De que la toma De las decisiones La tome otro Que en este caso Es un programa de ordenador Pues ya se han dado casos Hay historias Al razonamiento del mundo De que Se ve que Esto no funciona Pues en Varias Policías En Estados Unidos Que se Que se deja La toma de decisiones O una inteligencia artificial Para que decida Si una determinada persona Pues el porcentaje De la probabilidad Que tiene De ser reincidente O no Y como estos sistemas Pues utilizan Sesgos De raza De De Sociales Y demás Pues al final Tampoco son Vale Vamos a hablar Un poco De ese tema De los De los Aprovechando Ya lo que estás diciendo Vamos a ver Los programas de ordenador Nunca han sido perfectos Nunca Eso no existe Todos los programas de ordenador Tienen fallos Todos Estadísticamente Hay un fallo En cada 100 líneas De código fuente Aproximadamente Estamos hablando De programas de ordenador Que tienen millones De líneas de código fuente Lo cual quiere decir Que hay docenas De miles de fallos Eso ya Por la propia construcción Y eso no ha cambiado Hasta ahora Es decir No sé si en el futuro Esto mejorará Pero de momento Seguimos teniendo programas Que tienen fallos Y los de la inteligencia artificial No es que tengan fallos Sino que sus fallos Se ven multiplicados Por la maledicencia De la prensa Es decir Que cada Cada pequeña Cosita que hacen Es absolutamente Es un drama Es un drama Efectivamente O sea Parece Que el mundo Se va a detener Debido a algo Que ha ocurrido Luego Eso por una parte Los errores Siempre han existido Y van a seguir existiendo En segundo lugar Los programas De inteligencia artificial Son de naturaleza Estadística Y probabilística Y eso Añade todavía Más Voy a decir Fallos ¿Por qué? Porque a diferencia De los programas imperativos Donde esto es blanco O es negro Aquí lo que te van Es una probabilidad De que algo sea cierto Un 80% Un 90% Pero es una probabilidad Y esto Todos debemos entenderlo Por eso Al final Cuando Podemos pagar Un precio Altísimo Debido a esto Entonces La inteligencia artificial Siempre Siempre Debe estar Bajo la supervisión humana Mayor o menor Que es muy tentador Sí Efectivamente Es muy tentador ¿Por qué? Porque es muy cómodo Porque por la ley Del mínimo esfuerzo Dices Ah Si ya la IA Me ha hecho este trabajo Me interesa No hacer más trabajo Sobre esto Correcto Entonces Tú por el mínimo esfuerzo No lo revisas ¿Vale? Pero es que Puede haber fallos En esa respuesta Y ya somos conscientes De ello Pero aún así Parece que esa ley De mínimo esfuerzo Ese Errar es humano Y volver a errar En lo errado Eso sí que es muy humano ¿Vale? Entonces ¿Qué es lo que sucede? Pues que Todo lo que No se supervise En el IA Es susceptible De meternos en un lío Todo Luego Lo que nos ahorremos En esfuerzo inicial Los seres humanos Lo tenemos que compensar En revisión ¿Veis? Muy precisa Porque hay que ser un experto Para revisar Lo que una IA Te está diciendo Porque si no ocurren Cosas Como por ejemplo Que en un juicio En Navarra Un abogado presenta Una serie de alegaciones Y de Y de documentación De casos jurídicos Que bueno El juzgado Se queda sorprendido De lo bien Alegado que está Pero cuando se revisan Los casos Resulta que Una de las Leyes que se Utilizan Utilizan Para alegar No es de la Legislación española Es de la Legislación colombiana No puede ser Es decir No se puede aceptar eso Pero Pero claro Como todo parece Tan perfecto Porque es un resultado De una IA Efectivamente El abogado Usó la IA Lo vio todo Tan maravilloso No lo revisó Pero claro Las otras partes El señor juez Y la parte contraria Sí que lo revisan Entonces claro Ha habido un apercibimiento A este abogado Que ha corregido Inmediatamente Ha reconocido el error Y de momento No ha ido a más Pero ya ha dejado Un precedente En la legislación española Que hasta ahora Existía Este tipo de situación En otras legislaciones Que había ocurrido En primer lugar En Estados Unidos Pero como ahora ya La IA Está al alcance De todos Y esto Pues nos hace Una reflexión adicional Una cosa es Que hagas El uso De la IA Para digamos Algo Metafórico Que no es del mundo Real Por ejemplo Voy a hacer una poesía Vale, perfecto Voy a hacer una poesía Nadie Digamos Va a sufrir Nada por lo que Por esa poesía Vamos a decir Entre comillas ¿No? Pero otra cosa Es que un abogado Lo use En un juicio Ahí Hay consecuencias ¿Eso qué quiere decir? Que una IA genérica En ningún caso Se debe utilizar En un entorno profesional Jamás Claro Entonces porque aquí Generando un entorno Personalizado Con la legislación española Como sería un GPT Ahí no se podría salir Ahí por lo menos Ya no te sales ¿Me entiendes? Sabes que La IA que estás utilizando Ha sido entrenada Exclusivamente Con la legislación española ¿Y eso quién te lo garantiza? El fabricante De ese ejemplar De inteligencia artificial Que te va a cobrar Una cantidad Superior A la de una IA genérica Por utilizar Pero a cambio Te garantiza Que hay un entrenamiento Apropiado Para un uso profesional Entonces Cuando Cualquier uso Profesional Solo debería Estar Al amparo De IAs Personalizadas Para ese uso profesional Claro Para minimizar O limitar Los errores Pero no Para excluirlo De todo Muy bien Claro, claro Decir Recordar Los fallos No van a existir Por favor ¿Vale? Es decir No existen Los programas De ordenador Perfecto Yo de hecho En mi trayectoria Profesional Que llevo ya aquí Prácticamente 40 años De trayectoria Solo ha habido Una vez en la vida Que me salió Un programa Perfecto Una vez Y creo que fue Por casualidad Para poder decirlo Oye Hubo una vez Que me salió Un programa Perfecto De dos líneas De código Menos de 100 Menos de 100 líneas Era un poquito Más grande ¿Vale? Voy a decir Que tenía En torno a mil líneas De código fuerte ¿Vale? El programa pequeño Pero aún así Quiero decir Incluso los programas pequeños Los fallos son normales ¿Entendéis? Pero no Hubo una vez Sí, sí En mi vida Que me salió Un programa Sin fallos Y dije Ahí va Esto es inaudito Y lo digo Es inaudito Es decir Los programas de ordenador Siempre Siempre Tienen fallos Siempre ¿Me entendéis? El problema es Que en el caso De la inteligencia artificial Lo que entendemos Por fallos De un programa de ordenador Se multiplica Por millones ¿Por qué? Pues porque hay unos medios De comunicación Que les conviene Usar Este tipo de noticias Y cualquier cosita Pues se convierte En un drama Y dice Oye Es que resulta Que un programa Que reconoce rostros Reconoce bien Los rostros de los blancos Pero no las personas De otras razas Claro Normal ¿Por qué? Porque ese programa Ha sido entrenado ¿Con qué? Con rostros de personas De raza blanca Nada más Y todo lo que un programa De ella no ha sido entrenado ¿Cómo va a funcionar? Mal Va a funcionar mal Muy mal Exactamente El sesgo Es consecuencia De los datos Que hemos utilizado Efectivamente Es decir Hay un entrenamiento En el caso de la IA Es muy largo Muy costoso Y por mucho entrenamiento Que hagamos De verdad Es que Los casos de prueba De un programa de ordenador Son infinitos ¿Me entendéis? Infinitos Es decir No hay manera De poder cubrir Todas las opciones A probar En un programa de ordenador Y en inteligencia artificial Que además Se incorpora La parte estadística Pues peor todavía Es decir El programa que nos encontramos Es peor Entonces Tenemos unos programas En su infancia Voy a decir Son Las primeras generaciones De programas de ordenador Inteligencia artificial Puestas de cara al público Y ya le estamos pidiendo Un programa de ordenador Un programa de ordenador Que tenga un nivel De exigencia Como si fueran programas Que llevaran Treinta o cuarenta años Funcionando Y esto Es pedirle Peras al olmo Porque esos treinta O cuarenta años De funcionamiento Lo que conllevaría Serían Más casos Más pruebas De situaciones Para entrenar el modelo ¿No? Que sería La propia experiencia De los usuarios Con lo cual El modelo iría aprendiendo Correcto Cada tiempo Y tendría en cuenta Más cosas Ahora bien Debemos tener en cuenta Que No es un problema No se puede representar Todo Es decir Es que Lo que no entendemos Es que la casuística humana A día de hoy Es demasiado compleja Para los programas Incluso de Inteligencia artificial Generativa Es decir Los programas de ordenador Pueden resolver bien Los casos más habituales Pero los casos excepcionales Se resuelven mal Esto se nota muy bien En los sistemas De los robotaxis En los sistemas De tipo Tesla Y similares Es decir Los sistemas de conducción Autónoma Son un ejemplo Muy claro De que Un pequeño fallo En un programa De conducción autónoma Tiene como consecuencia La pérdida de hidromona Si tú estás circulando Por carretera Pues normalmente El vehículo autónomo No tiene mucho problema Pero cuando te metes En una ciudad Pensad en una ciudad Como Madrid Que tiene un tráfico Que yo defino Como caótico ¿Vale? Que no es como Edimburgo Que son lugares Más circulados Donde la gente Conduce de otra manera No, en Madrid Somos caóticos Bueno, no te digo nada Yo cuando recuerdo Cuando estuve En el Cairo Casi Bueno, yo no conduje Me prohibieron conducir Usted es extranjero No debe conducir En el Cairo ¿Vale? O sea Esto que quiere decir O en Roma Por ejemplo Yo recuerdo todavía Las plazas Con los pasos de peatones En Roma Que yo era Una convivencia Entre los coches Y los peatones Que yo me quedé Absolutamente Asombrado Quiero decir que La inteligencia artificial Está mal preparada Para todo eso ¿Me entendéis? Está mal preparada Son situaciones Tan complejas Y hay tantas Que la atención A las excepciones Puede hacer Que la norma Deje de ser atendida Ese es el problema De que si tú dices Tengo 100 situaciones Normales Y 40 situaciones Excepcionales Dices Vale, voy a programar Las 40 situaciones Excepcionales Pero el esfuerzo Computacional De atender Esas 40 situaciones Puede hacer Que la norma Deje de ser Correctamente atendida Y eso es mucho peor ¿Y un humano? Que no tiene Todas las experiencias Metidas Pero en cambio Sí que tiene La capacidad De resolver En un segundo Una situación Límite Pero hablamos De un cerebro Que ha sido Puesto a prueba Durante millones de años Es que no somos Conscientes de esto Es decir El cerebro humano Es el órgano Más sofisticado De la creación A día de hoy ¿Vale? A día de hoy Mientras que No encontremos vida En algún otro lugar Debemos entender Que el cerebro humano Es el culmen De la evolución En la vida Digamos No hay nada Que se parezca A un cerebro humano Ahora nosotros Intentamos Hacer pálidos reflejos A través de algo Que llamamos Cidad generativa Pero son pálidos reflejos Un cerebro humano Es un ente Absolutamente De momento Inimitable Parece que sí Que se puede imitar Pero es Es una apariencia Es una apariencia Realmente no hay No hay parangón Y somos Ocho mil millones De personas En la Tierra Quiero decir Que eso es Una capacidad Que no ha existido En la historia De la humanidad No ha habido nada así Claro Y la IA lleva cuatro días Como quien dice Al final Lleva dos años Es una recién llegada Y todavía Son pruebas De laboratorio Muchas veces Todavía El escenario real Lleva muy poco tiempo Son pruebas de laboratorio Y muchas veces En un laboratorio Nosotros ocurren Muchas situaciones Reales A los primeros Tesla Que circulaban Pues les daba por meterse Debajo de los caminos De bomberos Un enorme bicharraco Rojo gigante Y el Tesla se metía Debajo Con las consiguientes Consecuencias A nadie se había ocurrido En el laboratorio Probar eso Me llamó mucho la atención Cuando los Tesla Que reconocían ya Con cámaras de vídeo El entorno Ya no utilizaban Los LIDAR Los desestimaron De repente Bajaban en el ocaso La velocidad Y es porque El sol Cuando se ponía De color naranja A lo lejos Lo identificaban Como semáforo námbar Y entonces reducían La velocidad Es decir Lógicamente Supongo que lo habrán corregido Sí, pero fíjate Que cada una De esas situaciones Que mencionáis Tiene que ser Identificada Y luego hay que cambiar Un programa Que tiene ya Docenas de millones De líneas de código ¿Entendéis? Y no romper otra cosa Cada cambio De esos que se hacen Claro Puede romper otra cosa Perfectamente Puede romper otra cosa Es decir Son programas Tan complejos Que cada vez Que tocas En una esquina Puede que en otra Dentro de un tiempo Aparezca un rotor Sí, sí, sí Entonces Estamos hablando De cosas Que son realmente Complicadas Aún así Hay que decir Que los sistemas De conducción autónoma Pues cada vez Son mejores ¿Por qué? Porque se está poniendo Mucho dinero Alrededor de eso Entonces Con todas Esas cantidades De dinero Cientos de millones De dólares Pues todo eso Al final Puesto en Un proyecto Donde hay Una organización Que lo que está pensando Es En corregir Una serie de miles De errores Que han aparecido Pues al final Eso se acaba Se acaba resolviendo ¿Pero por qué? Porque hay una cantidad Ingente de dinero Que permite Resolver todo eso Eso Los propios vehículos Igual que utilizan El sistema En este caso De inteligencia artificial Para circular También cuando están Circulando La utilizan Para retroalimentarla ¿No? Y que siga aprendiendo De nuevas situaciones Eso es así Es decir El módulo de aprendizaje En un sistema de IA Siempre existe Siempre Eso que quiere decir Que cada vez que nosotros Usamos El chat GPT Y le hacemos una pregunta Esa Esa información Entrena Al propio chat GPT O sea Que estamos siendo Digamos Probadores De una tecnología Y como lo hemos Adoptado De una manera Tan intensa Y tan furibunda Pues resulta que Estamos consiguiendo Que estos sistemas Pues cada mes Sean cualitativamente Distintos Y el ser distintos Lo que significa Básicamente es Que cada vez Pueden resolver Más Voy a decir Problemas Relacionados Con las personas Pero es una Responsabilidad nuestra Somos nosotros Los responsables de eso En ningún caso En ningún caso En ningún caso Porque es que Esto vuelvo otra vez Al tema jurídico Es decir Nosotros somos Vamos a decir Probadores Pueden decir Inconscientes Sí ¿Vale? De esto Aceptamos Que usamos una IA Que puede generar Respuestas erróneas Os recuerdo El mensaje que aparece Hoy en día En todas las Interfaces De las inteligencias Artificiales Como que es un sistema Que puede responder De forma errónea Y en consecuencia Es un juego Al que Nos prestamos Porque nos conviene Porque a fin de cuentas Lo que obtenemos De estas IAs Es algo que Lo podemos utilizar Para muchas cosas Entonces No somos responsables No Los responsables Son los titulares De ese programa Única y exclusivamente En este caso OpenAI En el caso de ChatGPT ¿Vale? No hay más responsable No hay más ¿Y cómo se puede reducir Estos sesgos Que introducimos Que tienen estos sistemas Con más datos De entrada O hay otras formas De poderlos reducir? Con más pruebas Con más pruebas Es decir Tú dices Mira yo es que resulta Que hemos descubierto Que las personas Por ejemplo De la Polinesia Pues no son Apropiadamente Tratadas ¿Vale? Pues entonces Se crean casos de prueba En relación a las personas De la Polinesia Y Pero claro Es porque alguien Lo ha descubierto Es decir No puedes pretender Que la propia IA Descubra Sus carencias No porque no tiene conciencia Y es lo primero Que hemos dicho hoy Eso no existe ¿Vale? La conciencia La tenemos los seres humanos Y somos los seres humanos Los que nos damos cuenta De las carencias Entonces Esos seres humanos Que informamos A OpenAI A través de un mecanismo Que tienen establecido O los propios ingenieros De OpenAI Con una red De colaboradores Que tienen Quienes ya digamos Poseen los mecanismos Para intentar Ampliar El alcance Del funcionamiento De las IAs Pero No podemos pretender Alcanzar La perfección Eso no existe Esto es curioso Porque para darte cuenta De esto De que está Ejerciendo un sesgo Se tiene que dar Una circunstancia Casual Sí En Leyendo Una historia Hablaba De que Habían denunciado A una entidad Bancaria Porque a la hora De asignar Los préstamos Utilizan mucho La Indirección artificial Desde hace mucho tiempo Y Para ver el riesgo Las entidades bancarias Bueno pues Una pareja Había pedido Uno de ellos David Creo que se llamaba Un préstamo Había Una cantidad De crédito Altísima La mujer Que tenía Las mismas sensaciones Era Vamos Hacían Declaración compartida Conjunta Perdón Tenían El mismo tipo de ingresos La misma situación Lo único que cambiaba Es que Ella pertenecía A Un East Estauro Est battlon Como darse una situación parecida, por ejemplo, en la escuela universitaria de medicina o los forenses o anatomistas o ginecólogos, que a lo mejor necesitan que la inteligencia artificial en ese campo, que les dé respuestas y no lo que te diga que eso es por pudor, por tal. Y lo van a conseguir. Igual que ellos en ese mundo específico y dentro de esas necesidades y solo dentro con esos fines profesionales, pues si ellos pueden acceder a esa información, ¿por qué nosotros no? No, no, lo que está claro y por lo que dice Alfonso es que, por una parte, a la hora de reivindicar y mientras se pueda, hay que hacer lobby, aunque él no ya lo tenga, si sea muy difícil, que él también lo ha comentado. Y por otra parte, ir experimentando con iniciativas personales. Privadas o restringidas y, lógicamente, pues, ¿quién de la mejor? Una que esté hecha exactamente y funcione mucho mejor que las genéricas para nuestros intereses. Hay que darnos cuenta que el problema que tenéis ahora mismo en estos colectivos, digamos, con algún tipo de discapacidad, es que si se aplica la ley tal como está ahora mismo descrita, no hay opciones. Sí, efectivamente. Por eso tenéis que hacer lobby, ¿me entendéis? Es decir, tenéis que hacer lobby para conseguir opciones. Para que no haya una interpretación tan estricta y, gracias a esa relajación, existan excepciones controladas, reguladas, que permitan beneficiarse de la tecnología para que la calidad de vida mejore. Correcto. Que tenéis derecho a eso. Por supuesto, por supuesto. A mí me cuesta que las instituciones, tanto nacionales como europeas como mundiales, tanto de personas ciegas como de personas con discapacidad, comienzan a... a manejar este tema y, lógicamente, lo están viendo como una cuestión que hay que abordar. Y creo que, en este caso, y al tratarse de una necesidad real, harán lobby. Porque, si no, lo tenemos claro. Yo lo que sí que tengo clarísimo es que esto no le interesa o no le importa a ningún legislador, ni a... ni comisión, ni nada de la Unión Europea, ni de otros sitios. Es decir, es una cuestión menor. Ahora, no les preocupa. Coincido con eso, efectivamente. La preocupación ahora mismo del legislador está en el desconocimiento en el ámbito de la propia IA. Es decir, estamos en una frontera tan novedosa que nadie sabe hacia dónde nos va a llevar. Entonces, bueno, existen casos y colectivos concretos, pero que yo creo que es un buen momento para que se organicen esos colectivos y para que defiendan unos intereses que les permita usar la tecnología para tener una forma de vida diferente a la que tienen ahora. Lógico. Claro. Porque, en muchos casos, y hablándolo con otros compañeros y compañeras ciegas, no es una cuestión que nos describan cómo estamos haciendo ahora el entorno y decir ¡Ay, qué bien! ¡Mira qué bien lo hace! Oye, perfecto, porque aún estamos un poco alucinados por esa capacidad que tiene una máquina de describirnos el entorno. Es decir, es esa utilidad práctica en el día a día que le podemos sacar para cuestiones tan importantes como podría ser el seguimiento de una lesión o una herida. Que necesitamos mirar para informar. Pues somos un matrimonio de personas ciegas, tenemos un hijo, le han hecho una operación, queremos ver cómo está la herida y necesitamos recibir esa información. Es decir, si realmente está en una zona delicada, como comentó antes Arturo, la IA nos va a decir que no, que eso son unos genitales o son una zona tal o son tal y no nos lo va a permitir. Cuando en nuestro caso no tenemos otra alternativa de mirar íntimamente, la idea de nuestro hijo, por poner un caso. Y el que dice esto es irme a un acto, por ejemplo, escénico, como puede ser una obra de teatro, donde porque lo marca el guión tienen que salir todos los actores y actrices en topless. Y de repente yo necesito una descripción y me va a decir que no, que se observan, como hoy lo dicen, personas en una situación poco adecuada y que no lo puede describir y que no lo va a poder hacer. Bueno, pues en mi caso lo único que pido es poder ver lo mismo que está viendo, el que no tiene problemas visuales y está sentado en la butaca de al lado. Que son circunstancias del día a día que parece que no, pero bueno, que son importantes. Es visión. Tenéis que hacer lobby, tenéis que hacer mucho lobby, me temo. Te haremos caso. Y organizaros. Organizaros para que vuestros derechos... Que vuestros derechos sean escuchados. No veo otra manera de poder crear un hueco suficiente para que se permitan algunas excepciones en instancias controladas. No veo otra manera de poder albergar eso. Un producto comercial no podéis plantear que tenga esas características. Y tú hablas de lo que son las IAS privadas, ¿no? En este caso. También has hablado... Son clandestinas, ¿no? Ese es el gran problema, veréis. Hoy en día, tal como hablábamos al principio, las IAS se han empezado a colocar restricciones, pues ahora se ha generado un término que son las IAS libres. ¿Qué es una IA libre? Es una IA que funciona sin ninguna restricción. Hay gente que es grandísima amante de la libertad. Hasta unos extremos, verdaderamente, voy a decir... Superlativos. Sí. Y existen IAS en el ámbito privado que son libres. Que no tienen ninguna restricción. ¿Qué puede obtenerse de una IA así? Pues si se usa para bien, alguien va a resultar beneficiado. Pero si alguien la usa para mal, puede hacer mucho daño a través de las recomendaciones que ofrezca a seres humanos que las lleven a la práctica. Entonces, claro, si pensamos en un colectivo de personas malvadas, ¿qué pueden realizar con una IA libre? Pues cosas terribles. Cosas terribles. Por ejemplo, que la ciberdelincuencia se multiplique a través de una IA de estas características. Pandemias de ciberdelincuencia, por ejemplo. Sí, sí, el crimen se organiza y se organiza con esta herramienta tan potente. Efectivamente. Y que no pone puertas al campo, ¿no? Sí, los cuerpos y fuerzas de seguridad del Estado, policía, guardia civil y en general las policías del mundo, pues tienen un inmenso reto para ver cómo van a poder hacer frente a todo este tipo de actividad delictiva basado en IAS libres. Pero siempre va a haber algún país, alguna zona en el mundo donde alguien con malas intenciones... Claro, el problema es que hay estados... Hay estados que promueven todo esto. Siempre va a haber. En Europa incluso, ¿eh? Hay estados europeos que promueven esto. ¿Y qué haces con eso? Sabes que uno de los lugares donde más ciberdelincuencia se produce es en Estados Unidos. La cuna de la libertad. Y cómo restringes eso. ¿Algo que es algún servicio que va a través de internet? A día de hoy no se ha podido restringir porque los estados tienen intereses puestos. Y si hasta ahora no se ha podido... Pues no, malamente se va a poder conseguir. Pues sí. Claro. Malamente. Entonces, esto que, por ejemplo, Meta dice que ha liberado, y es verdad, que es así, una llama 3.2 para ejecutarla en local, ¿vale? Que es una inteligencia artificial que ocupa 23,23 gigabytes. No sé si con el corpus y tal. ¿Aquí ya irían incluidas las restricciones? No. ¿O a ti te estaría...? No. Ahí no están, ¿no? No. Claro, ese es el problema. Por lo cual te han dado una bestia, por domado. Te han dado una bestia, correcto. De hecho, ya hay delincuentes usando llama. Ya hay delincuentes usando llama. Es decir, el problema es que son bestias pardas que, interconectadas con el mundo real, pueden causar una serie de problemas masivos. Por eso hablo de pandemias, pandemias digitales, que pueden causar enormes problemas. A la sociedad actual. Enormes problemas. Un recurso gratuito que te lo puedes descargar ahora mismo, de forma sencilla, ya en cuestión de menos de una hora, ¿no? Así es. Así es. Entonces, ¿qué pasa? Que el potencial para hacer daño, pues es grande. Entonces, claro, la policía tiene que disponer de mecanismos para poder luchar contra todo eso. Y no es un desafío sencillo, ¿eh? No es. No es un desafío sencillo. Claro, el otro día nos comentabas que la policía siempre va por detrás del crimen. A ver, los malvados siempre van por delante. Recordad que siempre tienen la iniciativa. O sea, si un ladrón va a entrar en una casa, el que tiene la iniciativa de entrar en la casa es el ladrón. No el dueño, ¿me entendéis? Es decir, el malvado siempre tiene la intención inicial y el que recibe esa acción no sabe nada. Entonces, claro, estamos un poco a expensas. De lo que quieren hacernos. Nosotros ponemos ciertas medidas de seguridad, pero ningún sistema es invulnerable. Una cosa es que un sistema sea seguro y otra diferente es que sea invulnerable. Los sistemas invulnerables no existen. No existen. Claro. No creo equivocarme con lo que voy a decir. Alfonso, tú que entre muchas cosas eres especialista en ciberseguridad, sobre todo en grandes catástrofes, ¿es así? Sí. Vale. Ahora con la Dana de Valencia. Yo... Yo... Yo soy de Valencia. Me escandalicé porque parece ser que enseguida, es decir, pero no tardó ni un día o dos días, el cibercrimen empezó ya a meterse en redes sociales y a comenzar a manejar todo el cotarro, ¿no? Sí, porque es tan fácilmente parametrizar un sistema para que empiece a causar daño a otras personas. Gente bien intencionada, ¿no? Que dice, oye, mira, yo quiero donar ayuda a la gente de Valencia. O sea, claro, si tú ves un anuncio diciendo, oye, aquí te acogemos ayuda, pues puede que ese anuncio no sea legítimo. Pero tú eres bien intencionado, ¿por qué? Porque los seres humanos somos bien intencionados, por naturaleza. Y entonces, claro, ha habido delincuentes que se han aprovechado de esto. Lo han hecho de forma muy... En general, toda una parafernalia, ¿no? O sea, parecían todo, todo queda cierto, las imágenes, todo... Todo, porque es un clon. Clona algo que es... Que es... Legal. Legal. ¿Me entiendes? Claro, clonar un conjunto de imágenes de un giga o dos, eso es facilísimo hoy en día, porque tienes programas que extraen toda la información y la colocan en otro sitio y es un clon. Todo lo digital es clonable con enorme facilidad. Con enorme facilidad. Entonces, es rápido, es eficaz en el sentido de que tú te crees la apariencia de lo que estás viendo ahí. ¿Por qué? Porque está clonado de algo que es real, que es bueno. Pero es tan único. Instancia que es mala. Y tú no eres capaz de distinguir la instancia buena de la mala. ¿Por qué? Porque la apariencia es idéntica. Es idéntica. Nos encantaría que un día nos hablar de ciberseguridad y de todo este tipo de cuestiones, porque veo que es un ámbito muy amplio también, ¿no? Lo es, lo es, sin duda alguna. Lo es, sin duda alguna. Sí. Muy bien. Genial. Pues por ir recopilando un poco lo que hemos visto hoy, ya vamos terminando, ¿no? Perfecto. Pues ha sido un placer acompañaros en esta sesión. Y nada, confiamos que en el futuro... En el futuro pues haya más posibilidades. No, ya una nota un poco de esperanza para terminar. A ver, la esperanza es... Sí, la esperanza es algo que no podemos ni debemos perder. Es decir, ¿estamos a merced de la iniciativa de los delincuentes? Sí. Pero los humanos reaccionamos con agilidad y con rapidez. Es decir, el mundo sigue funcionando, ¿vale? Pese a todas las dificultades que existen, pues los seres humanos encontramos maneras, de ir mitigando los problemas y resolviéndolos a la medida que podemos. Es decir, la calidad de vida que tenemos hoy en día en el mundo occidental no existía hace 80 años. ¿Recordáis cómo vivíamos a 80 años en España? De nuestros abuelos, que os he encontrado. La pobreza y la miseria que había. Era terrible. ¿Vale? Entonces, estamos bien. Ahora, ¿debemos prepararnos para las nuevas amenazas? Sí. ¿Y debemos ser conscientes de ellas? Sí. ¿Y debemos luchar todos codo a codo para que no prosperen? Sí. Eso es. Muy bien. Entonces, resumiendo un poco, la ética no es de la inteligencia artificial, es de nuestro comportamiento, que es el que debe ser ético y hacer un uso razonable y medido y bien intencionado de la misma. Esto es así, ¿no? Es así. Todo lo que ocurra no es culpa de la IA. Es decir, somos nosotros... Somos los humanos quienes hemos manipulado a la IA. Porque es que la IA es un programa ordenador. ¿Pero de qué estáis culpando un programa ordenador? La IA es tecnología y como tecnología que es, es una herramienta. Una herramienta. Nosotros somos los responsables de un buen uso de esa herramienta. Eso es. Es así. Luego que las restricciones nos protegen, pero también nos pueden perjudicar. Y con lo cual hay que reivindicar y luchar también por ellas cuando la causa que queremos obtener es positiva y buena. Y bueno. Básicamente esto es lo que hemos tratado en todo este episodio. Y que hay esperanza, pero la debemos construir también. Es decir, debemos construir esa esperanza bajo las nuevas circunstancias que se nos están abriendo. Correcto. Sí. Y que hace falta lobbies de grupos minoritarios que actualmente no se tienen en cuenta. Porque ahora mismo se está creando un poco la legislación al respecto de todo esto. Y claro, al principio la legislación es muy genérica y se tiene en cuenta a la inmensa mayoría. Pero a los grupos minoritarios inicialmente no se tiene en cuenta. Y ahora es el momento también de intentar estar ahí, asomar la cabeza para que... De reivindicar vuestra situación y de ver las maneras de que la tecnología os ayude. Por supuesto. Pues Alfonso, mil gracias. Un placer. Muchas gracias. Hasta otra ocasión entonces. Y seguimos escuchándonos y teniendo estas tertulias tan entretenidas y tan interesantes. Que aprendemos y nos divertimos. Muy entretenido, muy bien. Pues si te parece, Ricardo, damos los medios de contacto para ir terminando. Pues sí, nuestro correo electrónico es gafotas arroba segatos punto es. Y nuestro WhatsApp para mandar mensajes de texto o de audio en el número más 34 644 640 792. Pues muchas gracias por acompañarnos Alfonso, Arturo y a mí en esta charla. Y espero que os haya gustado. Y volveremos porque esto ya es una serie. Así que nada. Continuaremos. Continuará. Hasta luego. Adiós, adiós. Hasta otra ocasión. Chao. Hasta luego. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. ¡Suscríbete al canal! ¡Suscríbete al canal!
Gafotas, cegatos y sus aparatos #5
Fecha: sábado, 14 de diciembre de 2024, a las 00:00:01
Hoy, en este quinto episodio, os traemos un tema muy interesante titulado "Zoom Essentials, grabación de audio guiada por voz", donde nos sumergiremos en el fascinante mundo de las grabadoras. ¿Por qué la calidad del audio es clave? ¿Qué hace a Zoom destacar entre las demás marcas? Nos acompañarán dos invitados de lujo: Fernando Cobo, de Mogar Music, distribuidor oficial de Zoom España, y Sara Martínez, usuaria de grabadoras de la serie Essential, quienes compartirán su experiencia y reflexiones sobre estos dispositivos tan útiles para todos, pero especialmente para el colectivo con discapacidad visual.
Descubriremos cómo la combinación de soluciones de acceso a la información y de tecnología de vanguardia son una realidad en estas grabadoras, exploraremos sus modelos más icónicos y propondremos posibles mejoras en su accesibilidad.
¡Así que ponte cómodo, ajusta el volumen y prepárate para disfrutar de una tertulia amena, cercana y llena de aprendizajes!
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Espacio de Zoom en el sitio web de Mogar Music.
Página web de Zoom Corporation.
Unboxing grabadora zoom H1, actualización y voz en español – SucDePoma.
Grabadora de voz Zoom H4 Essential, por Jose Antonio Tarazona y Enrique Varela – SucDePoma.
Demo en grabadora H6 Esential –Robin Dee canta a capela.
Créditos:
Duración: 01:10:44
Mostrar descripción detallada del logo de Episodio 5. Zoom, grabación de audio accesible.
Descripción detallada del logo de Episodio 5. Zoom, grabación de audio accesible.
La imagen muestra al personaje del logo como un reportero y una actriz en un estilo retro, destacando el glamour de la época dorada de Hollywood. El reportero lleva un sombrero fedora, gafas oscuras, bigote y auriculares grandes, sosteniendo una grabadora con la palabra "Zoom" con un diseño que une los micrófonos clásicos con elementos de control modernos. La actriz luce un peinado voluminoso clásico, pendientes largos y un collar ornamentado que complementan su vestido elegante con broche. La escena utiliza un esquema monocromático con tonos sepia, realzando el ambiente nostálgico y sofisticado.
Mostrar transcripción de Episodio 5. Zoom, grabación de audio accesible.
Transcripción de Episodio 5. Zoom, grabación de audio accesible.
Muy buenas, lo que sean, yo soy Arturo Fernández Y yo soy Ricardo Abad Y esto es Gafotas, Cegatos Y sus aparatos Podcast Bienvenidos al quinto episodio De este Tu podcast favorito ¿Qué tal Ricardo? ¿Cómo va especialmente hoy ese micro? Pues especialmente Va muy bien Y nada, y todo va bien Porque te escucho y es maravilloso Espero que esto se esté grabando Espero yo también Porque hoy precisamente La cosa va de grabaciones, de micros De audio, ¿no? Sí, de grabadoras Qué interesante Y qué importante, ¿no? Las grabadoras Yo recuerdo que al perder la visión Una de las cuestiones Que me salvó la vida fue Una grabadora que se llamaba Cuatro pistas De General Electric Que era un reproductor grabador Con el que podíamos grabar las clases Y luego de ahí Cábamos los apuntes y demás Eran cuatro pistas Y muy robusto Y bueno, fue muy importante Sí, eso es muy importante Y además es bastante reciente, ¿no? Porque fue en el siglo pasado Cuando empezó todo esto De las grabadoras Para poder grabar la voz En algún formato, que luego esto fue Brucelando, pero bueno, fue Edison, ¿no? Aquí el que empezó con ello Sí, Tomás Alba Edison Como no Y , bueno, fue el primero que inventó el fonógrafo Que era un artilugio muy curioso ¿Quieres que te comente cómo era? Sí, comentanos un poquito No nos enrollemos tampoco demasiado Porque si no podemos estar una hora y media Nosotros dos solos Y luego tenemos un par de invitados Pero un poquito sí Pues nada El... Hombre, este es por ser el primero Yo creo que merece Una mención, una extensión un poquillo más grande Pues lo hizo sobre un cilindro Y en este cilindro puso Inicialmente un papel de aluminio O una lámina Y... Pero posteriormente utilizó también cera Porque podía reutilizarlo Entonces, ¿qué hizo? Cogió un diafragma Que era simplemente Una especie de membrana Que permitía captar la vibración En este caso de la voz Esa vibración la transmitía a una aguja Y esa aguja dibujaba o grababa En el papel este de aluminio La cera del cilindro Esa vibración Luego haciendo el sistema inverso Se reproducía Entonces, esto es lo que Así consiguió grabar su primera frase Que es mítica ya Que es la de Mary had a little lamb Mary tiene un corderito Bueno, es un poquito más amplia Mira cómo suena ¿Qué te parece? ¿Qué te parece? Muy bien, genial Pues nada Este es el señor Thomas Alvaison Y nada Básicamente lo que es la grabación La historia de la grabación Podemos distinguirla por los soportes O por la forma en que esta se imprimía O grababan estos soportes El primero fue la acústica Que es esta que estamos hablando Donde entraría fonógrafo y gramófono Que esta es otra historia Sería el mismo cilindro Pero en este caso sería un disco Que rodaría sobre un plato Pero no voy a... No voy a... No voy a entrar ahí Pero prácticamente es el mismo sistema Luego, posteriormente ya Entre los años 30 y años 40 Que ya es la época de la electricidad Empiezan los magnetófonos Que esto es muy interesante Porque utilizan el magnetismo Que produce un cabezal Para organizar unas partículas Que habían en unas cintas plásticas Unas partículas de óxido de hierro De metal, de cromo De lo que fuera Y las organizaban Dependiendo de la señal de acústica Que recibían Y luego eran capaces Con otros cabezales También por un sistema electromagnético De reproducirlo Y fue muy interesante Porque gracias a ella ya tenemos Los primeros reportajes Donde hemos podido escuchar Las voces de seres muy emblemáticos De la historia Que tampoco voy a entrar a citarlos Porque es así El otro soporte Que fue muy importante Fue el soporte digital Pero antes de pasar al soporte digital Sí que me gustaría hablar de una invención O de dos invenciones Que fueron trascendentes Dentro de lo que es La cuestión del magnetófono Y su implantación en la sociedad Y que dio pie a grabadoras Más portátiles y portables Primero fue Philips Una gran empresa Que sacó la cinta Cassette Porque anteriormente la cinta Cassette Se grababa en carretes de bovina Unas bovinas enormes Que también llevan estas cintas Que he dicho que llevaban el Plásticas con el baño De óxido de hierro De lo que fuera Pero bueno Pues sacó el Cassette Que era todo esto reducido A un cuadradito Que tenía estos carretes Pero bueno En una expresión mínima Que eran capaces de llevarlos A cualquier sitio En un bolsillo cabían perfectamente Y lógicamente sacó estos Cassettes Y sacó sus grabadoras Y sus reproductores Yo recuerdo uno Que fue una revolución Porque también primero Porque fue el primero Y segundo porque nos permitió Popularizarlo Y lo pudo llevar todo el mundo Que fue la serie N Creo que era N200 o N2000 De Philips Era un reproductor grabador Bastante grande Pero portátil, portable Que se manejaba con una palanca Con la palanca En lugar de tener botones Podías darle a play Tirando hacia abajo Rebobinar o adelantar Tirando izquierda o derecha Como si fuera el cambio de marcha O un vehículo Y hacia arriba Pues te tenías la pausa O el stop Con un botoncito rojo Que tenía a la izquierda Lo presionabas y dándole a play Que era hacia abajo Podías grabar Y llevaba O un micro interno También tenías un micro externo Esto fue increíble Porque nos permitió Hacer las primeras grabaciones ¿Qué ocurre? Que igual que a cualquier persona La primera vez que se ve reflejado En un espejo Se queda atónito Sorprendido Y un poco como hechizado Eso sobre todo le pasa mucho a los niños Y a los perros Pues la primera vez que comenzamos a escuchar Nuestra propia voz Porque hasta entonces habíamos escuchado Voces profesionales y ajenas En este tipo de aparatos Lo primero que comenzamos a decir Es decir ¿Así hablo yo? ¿Esa es mi voz? Porque nadie la reconocía Pero realmente era un reflejo acústico De cómo éramos Y nada Luego posteriormente A todo esto sacaron Sony sacó Lo que sería este mismo magnetófono Reproductor, grabador Pero reducido Inventó el Walkman Sony es una empresa japonesa También muy prestigiosa Y esto permitió tener ya grabadoras Casi que cabían en una mano Esto fue a finales de los 70 En el 79, 80 Y fue maravilloso Bueno, todos los periodistas Lógicamente comenzaron a utilizar esta tecnología Porque les permitía En cualquier sitio grabar la noticia Y nada Posteriormente Comenzaron a reducir todo el tamaño de esto Y llegó ya la revolución digital Donde el soporte ya no eran Estas cintas Y entonces permitían hacer Dispositivos más pequeños Bueno, los profesionales sacaron el data Sacaron el mini disc Un montón de Bueno, de este tipo de dispositivos Que utilizaba el soporte digital Y prácticamente después de esto Llegaríamos ya casi a la época Donde estamos ahora Con informática Con teléfonos móviles Terminadas móviles grabadoras Ya mucho más avanzadas Que utilizan software muy especializado Y un soporte digital para grabar ¿No Arturo? Sí, eso es Y el soporte digital Yo creo que ha democratizado El que en casa En los hogares Pues podamos utilizar Lo que antes se utilizaba En grandes estudios O que hacía falta Equipos profesionales potentes Para hacer cosas muy dignas Pues que antes En los hogares A nivel doméstico Pues a lo mejor Podíamos hacer algún apañito Con las cintas de casete Y cosas de estas Pero con el soporte digital Pues esto lo ha facilitado muchísimo Además de que Ha venido la miniaturización Y ahora pues Cualquiera Con relativamente pocos recursos Pues puede tener un equipo Extraordinariamente bueno Y de eso hoy vamos a hablar hoy aquí Exactamente Que aparte de nuestros terminales móviles Con muy buenas grabadoras Existe otro tipo de grabadora específica Que tiene una calidad extraordinaria Y de estas grabadoras vamos a hablar Eso es Por eso pues hoy tenemos dos invitados En primer lugar Pues tenemos a Fernando Que es responsable de producto en Zoom España Fernando muy buenas Muy buenas tardes ¿Cómo estáis? Muy bien ¿Y tú qué tal estás? Muy bien Gusto de oiros y explicar A Ricardo cómo ha explicado todo Me ha encantado Muchas gracias Muchas gracias Bienvenido Fernando Gracias Y también tenemos a Sara Muy buena Sara Hola ¿Qué tal? Muy bien muchas gracias También por estar con nosotros A vosotros Bienvenida Sara gracias Pues si os parece Pues para ir un poco de lo mayor a lo menos Nos vamos acercando poco a poco Pues a lo mejor Fernando puede empezar Por contarnos cosas de Zoom Cuando se creó Un poco a qué se dedican Cómo es de grande Cuánta gente tiene Un poco cosas de Zoom Y luego vamos poco a poco Vamos acercándonos a las grabadoras Vale bueno Zoom es una empresa japonesa No tiene nada que ver con Zoom O sea Zoom es una empresa japonesa Que es un sitio de Zoom Meetings Que esto es una empresa que surgió hace poco Para bueno pues tipo lo de Skype Pero ahí ya en la pandemia Como estábamos todos encerrados Pues se vino un poco arriba Y empezó a crecer y tal Y entonces bueno pues Todavía tenemos confusiones con Zoom Y con algunos clientes que no Por correo electrónico nos piden la factura De Zoom Meetings y tal Estas cosas que estamos viviendo Pero nosotros Vamos Zoom se fundó en 1983 Empezando a fabricar efectos para guitarra Precio económico Lo que era Japón en los 80 Vale Que decíamos Pues ahora que decimos Que producto más malo porque es chino Pues antes decíamos Que producto más malo porque es japonés Y es Y de hecho se ha ido moviendo La fabricación y los costes por toda Asia Bueno es otro debate El caso es que empezaron fabricando Procesadores de guitarra digitales muy buenos Con cajas de ritmos incorporadas Afinadores Un montón de efectos y tal Y bueno pues fueron creciendo y ampliando Y con un I más D Empezaron a imaginar cosas Y podríamos hacer esto Podríamos hacer lo otro Hasta que en el 2006 lanzan la primera grabadora Que es la primera edición de la archifamosa H4 Que ha tenido varias evoluciones Hasta llegar a la moderna Que es la H4 esencial Y bueno y a partir de ahí ya Empezaron a trabajar con previos de audio Con preamplificadores Con conversores Y tal Duales a digital Y digital a duales A DDA Pues ya empezaron a tirar por más cosas Por grabación Sobre todo más enfocado Al tema músico y doméstico Me explico O sea grabadoras O sea mesas de mezclas grabadoras De 16 pistas De 8 pistas Para que los músicos pudieran trabajar en casa Que es lo que tú decías De la digitalización Es Abre el mercado Y todo el mundo tiene acceso Bueno pues esto es un poco la filosofía de Zoom Y bueno Y a partir de ya 2007 Que es cuando Que es cuando Que es cuando Que es cuando Que es cuando Que es cuando A partir de ya 2007 Sacaron Sacaron La primigeni H2 Que también ha evolucionado Y Y bueno pues Ahí Es una marca global Es una marca internacional Por supuesto Trabajamos en todo el mundo Yo en realidad Pertenezco a una empresa Si me permitís Contarlo Que Que se llama MogarMusic En este caso Somos una sucursal en España Es MogarMusic Ibérica Operamos en España y Portugal Pero Mogar Como empresa Eh distribuidora de instrumentos musicales, no solamente de Zoom o de departamento de tecnología, distribuimos guitarras eléctricas, guitarras acústicas, sintetizadores, pianos, o sea, de todo lo que se puede, baterías, percusión también. Entonces, Mogar opera en cuatro países, que son España y Portugal, que lo llevamos desde España, Portugal, Italia y Francia, ¿vale? Y nuestra sede está en Milán, en Italia, con nuestro almacén logístico, para toda esa parte de Europa está en Milán. Entonces, pues mi empresa, como matiz de la empresa, se fundó en 1750, que se llamaba Moncino, y eran fabricantes de instrumentos y distribuidores en Cremona, por la zona. Entonces, para que os hagáis una idea, mi jefe, Francesco Moncino, es la octava generación de dueños de Moncino y de Mogar. ¿Vale? Sí, sí, sí. Ya hace 40 años se decidió separar un poco lo que era Moncino y se dedicó el apellido Moncino como una fundación que colabora con el arte, con la música, con ONGs y tal, y hasta tiene un museo de instrumentos musicales en el Castello Sforzesco de Milán, en un museo ahí de Moncino, y se creó Mogar ya como distribuidora, como lo conocemos ahora, en los cuatro países y todo eso. Y hace unos años, pues nos alíamos con Sound Service, que es una distribuidora como nosotros, pero de Francia para arriba, del norte de Europa, y a la vez con Zoom. O sea, pertenecemos al grupo Zoom. Entonces, hacemos una movida aquí global, planetaria, entre todos, y nos va muy bien, la verdad. Luego existe Zoom en Norteamérica y Zoom Asia también. O sea, somos como varias empresas dentro del grupo Zoom que nos dedicamos a esto. Y esto es un poco más o menos qué somos. Y cómo hemos hecho y cómo seguimos avanzando. Y cómo les ha dado por la accesibilidad a esta gente. Bueno, a ver, lo bueno que tiene Zoom, nosotros ya distribuíamos Zoom antes de pertenecer al grupo, a la Zoom Corporation, lo bueno que tiene Zoom es que escucha. Y no escucha solo a los empleados o a la gente que tiene ingenieros de I+.D., que son unas lumbreras, empezando por el señor presidente, que es una lumbrera en sí mismo, el señor Massa. Y Massa Ijima, que es un crack. Y entonces, lo bueno que tienen es que escuchan y además preguntan. Nosotros varias veces al año recibimos consultas por parte de Japón de qué feedback tenemos, qué nos dice la gente, qué podemos mejorar, qué podemos cambiar, qué no es bueno. Y entonces, es cierto que es de las empresas que hacen caso. En este caso, yo particularmente no sé a quién se le ha ocurrido la idea o cómo ha surgido lo de hacer. Y entonces, yo creo que es de las empresas que hacen caso. En este caso, yo particularmente no sé a quién se le ha ocurrido lo de hacer. Y entonces, yo creo que es de las empresas que hacen caso. En este caso, yo particularmente no sé a quién se le ha ocurrido lo de hacer. Y ya está. Efectivamente. A ver, yo contaba con que fuera un buen producto, que se vendiera bien, pero está siendo un éxito brutal. O sea, la verdad es que es una cosa que ahora entiendo y de la cual me alegro bastante. ¿Vosotros percibís que vuestros clientes o el aumento en ventas es porque hay personas ciegas preocupándose de comprarlo o preguntándolo por ellas? Bueno, yo la verdad es que de ventas no sé hablarte. O sea, no sigo las ventas y tal. Sé que lo estamos vendiendo muy bien, muy bien. Lo que no sé es decirte si ya al nivel de las otras Hs anteriores o no. Pero vamos, pero desde luego, de entrada en el mercado con un producto nuevo que siempre... Y si es una mejora, cuesta a lo mejor implementarlo en el mercado y que la gente se acostumbre a un producto nuevo y el otro se va a discontinuar y tal. Pero no, la verdad es que ha entrado de golpe y porrazo. Y yo te digo grupos como el que tenemos en Guadalajara. WhatsApp son una verdadera maravilla y eso con otros productos y otras marcas no me pasa. Correcto. Los productos que actualmente tienen accesibilidad son las grabadoras H1, H4, H6 y la reciente H2. Son los últimos productos que han salido y todos ellos con accesibilidad. Sí, hemos lanzado también H1 XLR, que es una H1, pero en vez de tener los dos micrófonos tiene dos entradas XLR o jack combo. Por si alguien no necesita del uso de micrófonos y tiene líneas para grabar en las señales de línea para una grabadora pequeña, como pueda ser... Pues como te diría yo, cuando hacen las ruedas de prensa el gobierno, por ejemplo, o quien sea que haga ruedas de prensa, pues ahí los técnicos proporcionan unas salidas en estéreo a las grabadoras de los periodistas, por ejemplo, y no tienes que estar utilizando los micrófonos, sino que tú coges tu línea, la enchufas y grabas. Entonces, esa también es accesible. Prácticamente, no es una gran dificultad. Prácticamente igual que un H1, solo cambias los micrófonos por los conectores. Y sí, H2, que ya acaba de entrar también, que es grabadora 360 con cuatro micrófonos mid-size y tal, que es muy buen producto. Y de momento, la serie Essential solamente es la que tiene accesibilidad. Solo la Essential, aunque vayan a sacar otros productos, esto no quiere decir que todos los productos a partir de ahora vayan a tener accesibilidad, sino solo la serie. Esa es la serie Essential. A ver, entiendo que eso va a depender un poco de la complejidad del producto. Las grabadoras son una cosa sencilla de manejar, intuitiva. Luego, si hablamos ya, por ejemplo, de mesas de mezclas, grabadoras de 20 canales, 12 canales, a lo mejor ahí implementar eso es un poquito lioso. Pero lo que sí puedo asegurar es que en el producto que sea lo van a intentar. Y en el que eso lo vean que es bueno, lo van a hacer. ¿Sabes? O sea... Pero ya te digo. No tengo noticias de que en otra gama vayan a implementar lo de la accesibilidad. Pero sí lo van a mirar. Y, hombre, yo espero que sí. Y seguro que lo podrán hacer. O sea, porque la verdad es que los ingenieros que hay allí son una verdadera lumbreras. Se tiene que poder, además, en mesas de mezclas, por ejemplo. A lo mejor en todas, a lo mejor no. Pero, claro, los modelos altos que tienen pantalla táctil y demás, pues a lo mejor es complicado y hay que rediseñarlo entero. Y a lo mejor tampoco quieren que sea la pantalla táctil. Pero en los modelos, por ejemplo, el P4, que lo tengo. Pues este sería sumamente sencillo, ¿no? Incluso con una actualización de firmware estoy seguro que se podría hacer accesible igual que las grabadoras, ¿no? Exactamente. Un producto como P4 sería factible que tuviera eso. Y yo casi estoy seguro que en el futuro lo tendrá. Viendo la respuesta que ha tenido esto. La accesibilidad de las Hs. Pero, vamos, ya no solamente en el caso de las personas con discapacidad visual. Es que hasta gente que ve me dice que maravilla. O sea... Gracias porque esas son las cosas que... Que, bueno, suena un poco prepotente lo que diga yo, pero la verdad es que hacen el mundo un poco mejor para todos. ¿Sabes? ¿Sabes? Bueno, bueno, bien. Pero un momento. Vamos a ver. Que estáis hablando aquí de la grabadora con este nombre. Y demás. Y yo particularmente, he de reconocerlo, soy neófito. No tengo mucho conocimiento ni de esta ni de otro tipo de grabadoras. Y como que me pierdo. A ver si Fernando nos puede explicar un poco, ya no solo de grabadoras, sino todo el tema que nos puede interesar en cuanto a grabación de sonido, mesas de mezclas y demás. Cómo es un poco el catálogo que tenéis dentro de Zoom. Y luego ya hablamos si queréis más de las grabadoras accesibles. Vale. Pues así os cuento un poco por encima. Ya le he dado otra vez el golpe a lo que tengo debajo de la mesa. Me voy a disculpar si alguien oye un ruido porque tengo los pies un poquito inquietos. Entonces, tengo un reposapiés y le acabo de dar un golpe y seguro que se ha oído. Y a lo mejor antes también estaba hablando y se estaba oyendo. Me disculpo un montón de veces. Tienes grabadoras que graban tan bien que se escucha todo. Claro, claro. Tengo una P8 de Zoom, la mesa de podcast y tiene unos conversores digitales analógicos que son una maravilla. Y aquí, esta es la muestra. Entonces, bueno, voy a continuar. Hablando de las grabadoras, pues mira, las grabadoras, el número de la grabadora te dice prácticamente el número de pistas que tiene. Por ejemplo, en el cacho de H1 tiene una grabación en estéreo. En el caso de la 2 es un poquito más complicada porque graba en 360 y graba con micros por los dos lados y dos laterales, mid-side. En el caso de H3, por ejemplo, era una grabadora también en 360 para realidad virtual. ¿Veis todo? Mueves la cabeza y el sonido se mueve, que es bastante impresionante. Tipo lo fónico, ¿no? Exacto, que se usa mucho para videojuegos o grabaciones 360 de vídeo. H4 tiene los dos micrófonos que lleva NXY con apertura de campo para abrir más el campo de recepción o no, el ángulo. Y además tiene dos entradas de Canon o Jack Combo para meter algo externo, como pueda ser lo que sea. Cualquier fuente de sonido puede entrar en H4. H5. Es exactamente lo mismo, pero en vez de dos tiene cuatro entradas XLR Combo con Jack. Y la H6 lo que tiene es una pista más. Entonces, en función del número o de las necesidades de cada uno, pues te tienes que comprar algo que vaya para lo que tú necesitas. Si grabas, creo que hablábamos antes, un periodista y va a un señor que sale de un juzgado, como he estado viendo estos días, tienes que poner un micrófono delante o le plantas un micrófono con una grabadora externa, con un cable, o le pones una H1 delante que no ocupa nada, es como un lapicero. Y si ya quieres grabar en multipistas, tienes que irte a las que tienen más canales. En el caso de la serie nueva Essential, lo que tienen es que graban en 32 bits con coma flotante. ¿Y eso qué es? Pues mira, te voy a explicar. Si me ves que me enrollo un poco, me paras y me cortas. Sí, pero bueno, explícalo para que lo entendamos, porque es la primera vez que escucho el término en una grabadora. Sí, pues mira. Vamos a hablar de esto. De esto vamos a hablar de formatos de grabación de audio y de reproducción. Entonces, para que te hagas una idea, las grabadoras que no tienen 32 bits con coma flotante, como las antiguas, las de Zoom, las normales, las H4, H6 normales y tal, tienen todas, vosotros lo habéis hecho un millón de veces, un control de ganancia. Con eso lo que le dices al aparato que está grabando, sea una mesa de mezclas, una grabadora o lo que sea, es la cantidad de señal que quieres que entre en decibelios. ¿Vale? En los decibelios sonoros, ¿no? Sí. Entonces, ¿qué sucede? Que eso crea una onda de grabación, ¿vale? Que se mide en hercios. Entonces, a ver, no soy técnico de sonido ni físico, lo voy a intentar explicar de una manera entendible, ¿vale? Dentro de mi concepto, de mi conocimiento. Entonces, lo que hablamos es de convertir el... El sonido que se graba, eso tiene una forma de onda que se llama un hercio, un hercio, o hercios. Hercios es un ciclo, un ciclo de sonido por segundo. Es una onda que tiene una amplitud. Entonces, es la cantidad... Es una onda, entonces, ¿cuánta cantidad de ondas hay en un segundo? Eso es lo que te dice los hercios que son. ¿De acuerdo? Tantas ondas, tantos hercios dentro de un segundo. Esto explicado en un modo coloquial, digamos que es como... Yo lo suelo explicar siempre con el efecto físico. Esto es física, esto no es tecnología, esto es física pura. Lo suelo explicar con el efecto Doppler, por ejemplo, el efecto Doppler. En las ecografías. Exactamente, efectivamente. Pero a pie de calle, mira, para que no se nos enoie esa parte de la ecografía, es muy sencillo. A ver, el sonido se tiene que transmitir por un medio, impecablemente. Sea el aire, como lo escuchamos nosotros, o sea el agua, como escuchan los delfines. No suena igual, pero también... También se transmite por el agua. En el espacio vacío no hay transmisión de sonido, no se puede oír nada. Por eso siempre en las películas de ficción cuando algo explota es una estupidez, porque no se puede oír la explosión. Pero entonces, en ese medio, por ejemplo, el ejemplo que pongo yo es estamos parados en un semáforo y pasa una ambulancia. Entonces, cuando la ambulancia viene hacia ti, tú oyes a la sirena en una frecuencia alta. Y cuando la ambulancia pasa, tú notas que esa frecuencia está decayendo. Es otro tono. Es diferente. Va bajando el tono. Esto simplemente porque la fuente emisora, en este caso la ambulancia, está en movimiento. Entonces, estas ondas que yo digo, estos hercios que yo digo, lo que hacen al moverse es el aire, comprimir el aire delante de la ambulancia, por ejemplo. Con lo cual, en ese segundo hay más ondas, están más comprimidas y el tono es más agudo. Pero cuando la ambulancia pasa, deja el aire vacío atrás y entonces esa onda se va separando. Entonces, ya hay más... Son las ondas dentro de ese segundo, con lo cual es más grave. Cuando trabajamos con esto, trabajamos con cantidad de ciclos por segundo, que se llaman hercios. Y luego pasamos a la parte digital que se llama la profundidad de bits, que es cuando hablamos de 32, 24, 16 bits. Eso ya es la parte tecnológica y de unos y ceros. A esta profundidad de bits, lo que estamos diciendo, lo que nos dice es la cantidad de hercios que caben. Eso tiene un límite, tiene un tope. Entonces, ahí entran determinados... Si lo transpolamos a la informática, son los antiguos ordenadores que trabajaban con memorias de megas. Y decías, madre mía, tengo un disquete que tiene no sé cuántos K. Pues es exactamente lo mismo, pero ahora lo tenemos como que mi móvil tiene más memoria que mi ordenador, por ejemplo. Entonces, al hablar de profundidad de bits, hablamos de con cuánta información estamos trabajando. Para que os hagáis una idea, los antiguos videojuegos que ya tenían soniditos, Mario Bros y estas cosas, tenían tanta poca memoria que podían poner un audio de 8 bits. Por eso tenían 3 soniditos. Entonces, claro, ¿por qué? Porque esa onda, esos bits tenían una capacidad solamente de almacenar 256 valores. No entraban más que 256 valores. ¿Qué pasa? Que al ir subiendo la cantidad de bits, el rango crece y entonces te va entrando más información y te va entrando, por supuesto, más calidad. Cuando hablamos de 24 bits, hablamos de que la onda tiene 16 millones de valores, que ya está muy bien. Aunque el estándar de audio son 44.100 Hz, que son 44.000, os he explicado, 100 ondas por segundo, metidas en 16 bits, esa es la calidad estándar de audio, la calidad de un CD, y esa es la calidad que oye el oído humano. El oído humano no, porque tú grabes en 24 bits, 48, lo que tú quieras, el oído humano no va a oír mejor. Lo que sí es cierto es que para ti... Trabajar va a ser mucho más sencillo y con mucha más calidad. Pero al reproducir, el oído humano va a oír en 44.100 Hz. Entonces, ¿qué sucede? Ahora ya pasamos de los 16 millones de valores de 24 bits a los 32 bits con coma flotante. En este caso, lo que tenemos ahí es un curro de 4.000 millones de valores. Como suena, 4.000 millones. ¿Qué sucede? Que cuando yo grabo algo y tengo demasiada ganancia de entrada, entra demasiado sonido en el aparato que yo estoy grabando, la onda no cabe. Entonces, es lo que llamamos la saturación o los picos. No puede más. Entonces, ya empieza a saturar. Esa onda ya se sale de lo que sería la profundidad de bits, que son como dos líneas, y entonces vemos la onda en medio. Entonces, eso se sale de las tablas, por decirlo de alguna manera. Eso en 24 bits o menos, eso no era recuperable. Tú habías grabado con saturación o con picos, y tú eso no lo podías recuperar. Eso estaba... Era suciedad, ruido, ¿no? Eso es defectuoso. Eso no sirve. ¿Qué sucede con el 32 bits? Que aunque tú tengas la forma de onda y la forma de onda esté saturada, sobresaliendo las líneas y picando y todo lo que tú quieras, esa información sigue ahí. Entonces, tú solamente cuando utilizas tu editor de audio o lo que sea, simplemente coges la onda, la pinchas y la haces más pequeña. Y toda esa información... En 24 bits estaba perdida. Toda esa información aparece. Y entonces no tienes saturación ni tienes picos. No tienes nada. Y es más, si lo haces al revés, si lo haces grabando algo, un sonido muy débil, un susurro, un respiro, algo así, cuando tú lo hacías también con otra profundidad de bits, al subir esa línea, esa onda, querer darle más volumen, más presencia, lo que aparecía es ruido. ¿Por qué? Porque no se puede inventar el sonido cuando no existe, o sea, el ordenador no puede inventar información que no tiene. Entonces, las grabadoras de 32 bits no llevan un conversor, llevan dos, uno que se encarga de la parte de arriba y uno que se encarga de la parte de abajo, de la parte con menos sonido. Con lo cual también pasa la inversa. Cuando tú subes la forma de onda, la amplías en un sonido muy débil, no aparece ruido de fondo, que es lo habitual del resto de bits. Esto a nivel... Eh... Consumidor, ¿qué significa? Pues que yo le doy... No tengo control de ganancia, lo primero, porque el aparato no la necesita, yo le doy a grabar y me puedo olvidar de que alguien pegue un grito o de que un batería le pegue un golpe a la caja de la batería y suene a 140 dB. No me importa. Porque eso, aunque yo lo oiga y diga, madre mía, se ha pasado, yo luego en postproducción puedo coger eso y tenerlo a mi gusto y bajarlo y decir, vale, no me ha picado, no, tengo toda la onda perfecta. Entonces son los 4.000 millones de... Tienes una fuente de sonido pura con la que puedes hacer lo que te dé la gana. Exactamente. Aplicación para esto, por ejemplo, y que también está funcionando mucho, es para gente que trabaja con vídeo, para gente que trabaja con entrevistas. ¿Por qué? Porque son gente que se dedica a usar el vídeo. O sea, ellos ven. Su trabajo es ver. Tienen que grabar, por supuesto, un audio de calidad, ¿no? Para que esté acorde con la imagen. Pero antes, claro, antes era pruebas de micrófono para una entrevista. Ponía las cámaras de vídeo, ponía las pruebas, los micrófonos. A ver, diga algo, como yo antes. Un, dos, tres, cuatro. Y entonces regulaba la ganancia. Pero sí, señor, le pegaba una tos y aquello se iba a... Sí, sí, sí. ...a prueba. Claro, ahora no. Ahora un videógrafo coge aquí, pone los micrófonos y le da a REC directamente. Y se olvida. Y cuando llega la postproducción, ahí tiene toda la información para poder trabajar con ella. Y eso es lo que viene siendo, después de dos horas de charla, los 32 bits con coma flotante, que son una... Parece magia, de verdad. Yo lo hice, lo probé el otro día. Es que sí iba a decir que parece magia, ¿eh? Lo que hace porque... Sí, sí. Me acaba de sonar la silla. Es que la silla también la tengo viejita. Suena un poco... Yo lo siento por mis ruidos. No son ruidos corpóreos míos, son ruidos de mi silla y eso. Entonces, el otro día, por ejemplo, yo soy músico. Fui a grabar un ensayo. Tenía que grabar unas cosas para luego estudiar unos solos de guitarra y tal. Y entonces yo cogí la H6 y la solté allí encima del amplificador. Y la iré a grabar y no olvidé. Y efectivamente, claro, en un local de ensayo, batería acústica, bajista, no sé qué, todo el mundo allí pegando gritos porque no toco precisamente música clásica. Bueno, pues me vine a casa con la grabadora. Efectivamente, la metí en mi software y claro, yo vi la onda que yo... O sea, que yo no tenía... No sé, es que no se veía más que una línea. Y efectivamente, cogí, la bajé, pinché y la bajé. Y te lo juro que era magia. O sea, ver aparecer todas las ondas otra vez y dije qué maravilla. Así que eso viene siendo, señores. ¿Y ocupan mucho más? ¿Los archivos son mucho más grandes? ¿Ocupan más tamaño? Pues esa es buena pregunta. Mira, por ejemplo, en 32 bits con color afrontante, ocupa un 33.5. 33% más que el 24 bits. O sea, no es tanta diferencia para la calidad que luego tienes y el jaleo que te quitas de encima. Lo que te decía antes, hablaba de la diferencia de tener una grabación y tener que tirarla. O llevarte otro micro de backup, que también me ha pasado con muchos videógrafos, de usar una grabadora y un micrófono a la vez para tener dos, por si acaso una tiene un problema. En este caso, ese 33% ahí me parece asumible. Sí, sí, sí. Si queréis, ahora que... habéis comentado esto, vamos a hablar de componentes, porque así podemos hablar del almacenamiento, podemos hablar de la forma de las grabadoras, de qué componentes llevan, cuántos micrófonos. Básicamente, es decir, qué es lo que llevan todas las grabadoras Zoom. Básicamente, toda la grabadora Zoom llevan dos micrófonos en XY para grabar en estéreo. Eso lo llevan prácticamente todas, menos la que os contaba XLR, que han quitado los dos micrófonos y han puesto entradas de línea. La H2N, que lleva cuatro micrófonos. ¿Cuántos micrófonos? Porque graba en 360. La H2 Essential, perdón. Bueno, la 2N, la antigua también. Y básicamente llevan dos micrófonos. ¿Qué sucede? Que, por ejemplo, en el caso de H6, los micrófonos de H6 es una cápsula que se puede quitar y puedes poner otras cápsulas. Por ejemplo, en este caso ya hemos lanzado la cápsula que te hace, que te da otras dos entradas más de Canon y XLR, ¿vale? Por si tienes que grabar desde seis fuentes externas distintas y no usar los micrófonos. Y tiene que salir en breve también un ADS, un micrófono que llamamos shotgun o no es de lapicero, es del cañón, que en este caso tiene, digamos, tres micrófonos. Es un cañón direccional, te graba la fuente que está justo delante y luego a la vez te graba las laterales por si quieres usarlas o no, porque van en diferentes pistas. Y eso es básicamente lo que es. Vale, pero ¿y en cuanto a controles? ¿Cómo manejas las grabadoras? ¿Todas se manejan a través de botón? ¿Tienen botones de algún tipo de sensor? No, son todas, todas tienen botones, por supuesto, y son bastante intuitivas y además cuanto más estás facilitando la vida al usuario, como es el caso de la serie Essential, menos botones tienen. O sea, antes tenían los controles de ganancia, los controles de no sé qué, y ahora se está haciendo todo bastante más intuitivo. Pero tienen los controles típicos de grabación, si grabas en varias pistas, seleccionar pistas de grabación. Puedes en algunas hacer marcaciones por si quieres volver a un punto determinado. Puedes exportar los archivos, los archivos son en formato WAV, que es el formato lineal de audio sin comprimir. Y luego tienen los botones típicos de avance, retroceso, búsqueda de la carpeta del proyecto. Todo muy, la verdad es que es muy intuitivo. Si te pones con ellas, las controlas en cinco minutos. Todo lo haces. ¿Tienes un accesorio para poderlas conectar por Bluetooth con el teléfono móvil? Y poder manejar desde el móvil, ¿puede ser? Efectivamente, tienen un accesorio que se llama BTA1, que se compra por separado. Y le tengo que puntualizar. Y entonces lo que haces es tener un control con un software que se descarga para el móvil en una app, estas que tenemos todos en el móvil. Y entonces es una pastillita. En el caso de la serie Essential se puede instalar en H4. H4. H4. Y H6. H2 tiene control también. Esta aplicación de móvil es solo, bueno, solo entre comillas, para manejar los controles de la grabadora, para grabar, parar, pausar, detener o tal. No para acceder a los archivos que hemos grabado y que están almacenados dentro de la grabadora. Efectivamente, efectivamente. Y luego también es un software, cada uno tiene su aplicación propia. Porque tienen diferentes configuraciones, más pistas, menos pistas, tal. Entonces cada uno lleva su configuración. Esto es interesante porque al manejarlo desde tu móvil, desde tu móvil no tienes contacto físico con la grabadora, con lo cual evitas que puedan haber ruidos, ¿no? Bueno, a ver, los productos de Zoom en general, los plásticos que utilizan, también están muy estudiados para que tengan el menor ruido posible. O sea, esto no es una carcasa que yo pongo ahí de plástico y ahí lo vendo y ya está. No, esos en Zoom se estudian. La manipulación, se ponen otros micrófonos y unos cascos y escuchan el composite del plástico para ver cuál es el que hace más y menos ruido. Y eso está hasta registrado, ¿eh? Esa mezcla está patentada. Y bueno, pero claro, siempre hay un mínimo ruido, como el de mi silla maravillosa que acaba de sonar y el de mi reposapiés del suelo, disculpad, con los oyentes. Y entonces, claro, eso también siempre lleva un algo de ruido. Pero bueno, también igual si lo aplicamos a los videógrafos, por ejemplo, ya no es tener ni que darle al red de la grabadora. Estás con tu cámara y tu móvil y estás manejando el audio en el mismo sitio. Correcto. Y bueno, es muy importante destacar que al menos la app para iPhone, para la grabadora H6, que es la que hemos podido probar, es muy accesible con VoiceOver y se puede manejar perfectamente. Incluso podemos conocer el tiempo estimado restante dentro de la tarjeta microSD, que en la propia grabadora no se puede, y a través de la app sí que se puede. Está completamente adaptada para poderse utilizar. Y es maravilloso. Si quieres, háblanos de la autonomía de la batería. Supongo que tendrá batería y alimentación también por red, ¿no? Va con pilas. Con pilas y sí, puedes poner pilas normales, alcalinas y recargables. Y bueno, la duración depende del modelo y del uso que le des, como todo base. Depende de las funciones que uses. Por ejemplo, si usas la accesibilidad y usas pilas, pues consumirá más energía. Lo que sí, son todas alimentación. Son todas alimentadas por el bus USB que puedes poner en las esenciales del móvil mismo, el cargador del móvil a 5 voltios y trabajar con ello enchufado directamente. O una powerbank, que también es interesante. O una powerbank, perfectamente. Exacto. ¿Y tenéis medida por un uso medio de X horas dura la batería? Sí, lo que es que, como te decía, depende del producto. Por ejemplo, a ver, en cada producto tiene una batería. A ver, en cada producto tienes una pestaña en la página web que pone especificaciones y detalles. Y que yo soy el tipo que se encarga de traducirla, que es muy divertido. Entonces, por ejemplo, en el caso de H2, que lleva varios micros, pues pone tiempo estimado, y el funcionamiento continúa utilizando batería grabación frontal estéreo. Y luego tienes otro que pone grabación frontal y trasera estéreo. Entonces, pues bueno, pero yo creo que de media, usando baterías de litio, muy bien es esto. Pero mira, grabación frontal estéreo 20 horas, grabación frontal y trasera estéreo 17 y media, y grabación de todos los micrófonos 9 horas y media. O sea, en el caso de batería de litio vamos a ponerle 15 horas, en el caso de un H2. Pero más o menos se podría un poco generalizar, pero vamos, son horas. Y una puntualización, no sé si posible, no sé, crítica constructiva sobre el firmware. Sobre el firmware que yo creo, desde mi punto de vista, que podría ser una vía para fidelizar más a los usuarios, sí, a los usuarios de estos productos, actualizarlo más. Porque yo creo que, yo por ejemplo tengo la, estas grabadoras son muy recientes y todavía no sé si se actualizarán o no, o como no, pero yo tengo la mesa de mezclas AP4 y se actualizó, pues eso, salió con el 1.0, se actualizó yo creo que al 1.20, y ya está, no se va a volver a actualizar nunca más. Y yo creo pues que, por ejemplo, con el firmware, en el caso de esta mesa, se podría actualizar, se podría hacer accesible. Por ejemplo, si hubiera alguna actualización que le diera alguna pequeña funcionalidad más, como la accesibilidad y tal, vamos, conseguiría fidelizar a los clientes de por vida, vamos. Sí, sí, pero todo esto que tú me dices me parece, no es una crítica, me parece perfecto y es una cosa que yo transmito a Zoom, o sea, pero mañana mismo, ¿sabes? Muchas gracias. Claro, claro. Fidelizaría a los clientes de, vamos, de por vida. De repente un modelo, la AP4, que, además, bueno, muchas personas ciegas pues la tenemos, porque dentro de lo que hay, pues tiene botones físicos y tiene tal, no tiene pantalla, tal y tal y es medio, te puedes apañar con ella, ¿no? Entonces, pues si ahora de repente te sale una actualización de firmware y te habla igual que te habla, pues una grabadora de estas de la línea esencial, pues vamos, abre un reto de ventas. Disculpadme, estamos hablando ahora de mesas de mezcla de la marca Zoom. Sí. Sí, es una mesa de podcast. Una mesa específica para podcast. Sí. Hay dos tipos, la AP8, yo la tengo aquí delante, y luego está la AP4, por ejemplo, que es como más portable. Y son mesas para hacer podcast en las que puedes, tienes unos bancos incluso y puedes memorizar anuncios, canciones, lo que quieras. Puedes grabar, convertir a MP3 para enchufarlo, puedes usarlo como interface para emitir en directo si quieres. Tiene salidas, dependiendo del modelo, más o menos, bueno, 4, 4, la AP4 tiene 4 salidas y la AP8 tiene 6 salidas de cascos independientes con volumen de 4. Tiene volumen independiente para cada hablante o parlante y, bueno, y tiene un montón de cosas específicas para podcast. Controles físicos y mecánicos, por lo que acaba de decir Arturo, ¿no? Sí, sí, sí. Todo con faders, en el caso de la AP8 lleva faders, en el caso de la AP4 lleva knobs o botones giratorios, más o menos en castellano. Puedes conectar, bueno, y también las ruedillas que tiene la AP4 también le falta una pequeña marca, una pequeña marca en relieve para poder saber hacia dónde está apuntando la nota. Sí, sí, sí. Y, bueno, apuntando la ruedita también es un pequeño fallo que tiene. Perfecto. Perfecto. No, no, pero, vamos, la he apuntado ahora mismo. Y, aún así, Arturo, tú la utilizas, ¿no? Sí, sí. Te la compraste porque... Sí, sí, yo le he metido un tajo a cada, a las ruedillas estas, le he metido un pequeño corte y así sepa dónde está apuntando cada una. Muy bien. Pues ahora mismo me lo acabo de apuntar y yo mañana a mi compañero, el francés, que es el que lleva la marca para toda la empresa, le estoy pidiendo ya que me diga cosas. Y con lo que sea, lo transmitiré. O sea, igual que hacemos en el grupo de Essential, yo digo lo que hay, lo que no hay, cómo hay. Y, de modo orientativo, ¿qué precios tienen estas salvadoras? ¿Cómo algo orientativo? Porque a veces hay ofertas, hay descuentos y tal, pero bueno, más o menos. A ver, yo es que soy mayorista. Vale. Entonces, claro, entonces lo que me pasa a mí es que yo tengo, nosotros tenemos un precio mental público recomendado. Yo no puedo dar en público precios que luego tenga cada tienda... Claro, claro, el recomendado orientado. ...como algo orientativo. Exacto. Cada tienda es española, pero bueno, como algo orientativo. Ya, lo que pasa es que luego, si digo el precio recomendado, como que asusta, ¿no? Vale. Que es caro, ¿no? Y luego lo encuentras en tienda y es mucho más barato. Con lo cual, yo recomiendo a todo el mundo que se meta en su tienda de confianza y vea los precios que hay de cada producto. A ver, entre tienda y tienda varían pocos euros, ¿no? O sea, o ninguno, no deberían variar mucho. Pues entonces, danos un precio orientativo, ni tan siquiera recomendado ni nada de eso, sino más o menos entre más o menos cuánto pueden valer, entre 200, 300 euros, 250... Sí. Es decir, que no sea algo muy concreto, muy preciso, que no te comprometa a nada, pero sí que nos hace, pues nos permite hacernos una idea del valor del producto, ¿no? Vale, pues mira, dame un segundo que estoy abriendo la pestañita del ordenador... Muy bien. ...porque no me quiero equivocar de cabeza. Ajá. Entonces, hablamos, por ejemplo, de una H1 Essentia, que es la grabadora de dos pistas, 32 bits y tal, con interface y todo eso. Estamos hablando de un precio de mi ordenador, cada día va más rápido, es una maravilla tecnológica, son mejores las grabadoras de mi ordenador Hewlett Packard. Muy bien. Hablamos de un precio de venta al público recomendado de 109 euros. Sí. Muy bien. En una H1, que es la más básica, ¿vale? Muy bien. En el caso de la más alta de gama, para hablar de todo el rango, nos iríamos, por ejemplo, a H6, H6, efectivamente, que de precio venta al público recomendado tiene... ¡Tachán! A ver, hijo mío, deja de pensar. 320 creo que era, por ahí. Ajá. 329. En ese rango de precios van subiendo, es como por escala, ¿no? Según vas teniendo más prestaciones, pues va a ser un precio un poco más caro. Sí, más o menos. Lo que es normal. La H4 220, 240, porque ahí es donde andaba. Exacto. Y la H6 por 330, sí, más o menos. Exacto. Bueno, sí. Está muy bien. Antes de que se me olvide, vamos a ver la capacidad de serie. ¿Qué capacidad tienen y si se puede ampliar? Me refiero a la capacidad para las grabaciones que vayas haciendo, que es guardarlas. A ver, memoria interna no tienen ninguna. Ninguna tiene memoria interna. Tienes que estar siempre con tarjetas SD. Vale. Y entonces, luego ya, siempre va en función de la tarjeta que le pongas. Ajá. De más o menos, por ejemplo, en el caso de la H6 aguanta tarjetas de un tera, aunque grabes en 32 bits con código flotante, eso son muchas horas de grabación, un terabyte. Entonces, son tarjetas micro SD, tanto HC como XE, pero no vienen de... ni la tarjeta viene de fábrica. Bueno, de hecho, lo que viene no es de fábrica. Bueno, de hecho, lo que viene es en las pilas, ya, porque ya estamos todos con los movimientos internacionales de aduanas que hay para mover baterías y material de ese tipo en aviones y tal. Se puso... y estamos todas las empresas, ya no solo Zoom, todos los fabricantes entregando prácticamente las cosas sin pilas. Y tampoco vienen con tarjeta. Últimamente algunas H6 hace muchos años venían con tarjeta, se regalaba la tarjeta, pero ya también lo quitaron. Entonces, bueno, la capacidad es en función de la memoria interna. Y no hay ninguna especificación. ¿Cualquier tarjeta SD serviría? ¿O son algunas? ¿Cualquier tarjeta? No, no, no, ninguna especificación. SD, HC o micro SD, XC. Vale, correcto. Y hasta un tera, y en algunos productos hasta dos teras. Pero vamos, al principio con un tera tiene uno para grabar ahí tres vidas. Muy bien. Y si os parece, podemos ir pasando un poco de la parte teórica a la parte práctica. Con Sara, cuéntanos un poco. Tú que las usas. Bueno, yo tengo la H6 y la H1. Y estoy soñando con la H2. ¿Vas a hacer la colección? No, no, no lo tenía pensado. O sea, de hecho es que mi primera compra no me salió bien. ¿Vas a hacer la colección? La primera compra no me salió bien, pero luego la volví a comprar. O sea, es como, no sé, una persecución con las Zoom. Yo antes he tenido grabadoras Olympus y evidentemente la diferencia es abismal. Entonces, ¿sois ex o mal? ¿Para bien o para mal? Para bien o para mal. Ah, no hombre, si fuera para la mal no me las compraría, tío. Claro, es que te voy a decir por qué, perdona que te interrumpa Sara. Es un poco lo que hablábamos antes de las Zoom. ¿Por qué? ¿De qué se dedica cada cosa? Nosotros nos dedicamos al audio y Olympus se dedica a la cámara de fotos y al vídeo, la imagen, vamos a decirlo de una manera. Con lo cual, nosotros tenemos una cámara de vídeo también que graba en 4K, pero está más enfocada a músicos. O sea, a esa cámara no le puedes pedir lo que le pides a un Olympus, por ejemplo. Entonces hay que hacerlo, pero hay que hacerlo un poco con todo en general, yo creo, en la vida, ¿no? Vamos a zapateros tus zapatos y ya está, y eso. Muy bien. Sara, una indiscreción. ¿Tú por qué utilizas grabadoras de este tipo? Pues mira, por la facilidad de... porque como yo toco el saxo, configurar un saxo no es fácil. Al menos para mí no es fácil, se oyen cosas. Entonces con estas grabadoras es súper rápido, o sea, directamente la puedes tener muy cerca y no tienes que preocuparte de ganancias ni de nada. O sea, esa es la principal... es que las uso para todo. O sea, la H1, por ejemplo, yo qué sé, estoy en... ¿cuántas horas? ¿Cuántas horas? ¿Cuántas horas? Estoy en cualquier sitio, incluso en tránsito, ¿no? Por ahí por la calle me piden que les grabe algo y se lo grabo en... pues eso, directamente conectando la grabadora al iPhone. Es una calidad que evidentemente el iPhone no te va a dar. Yo qué sé, en cualquier conferencia, cualquier... soy profe de música y todas las sesiones de mis alumnos las grabo con las grabadoras. ¿Tú llegaste a utilizar grabadoras cuando has estudiado sin ver? Sí, sí, sí. ¿Tú llegaste a utilizar grabadoras cuando has estudiado sin ver? Sí, sí, sí. ¿Tú llegaste a utilizar grabadoras cuando has estudiado sin ver? No, no demasiadas, porque tenía ahí... siempre he estudiado en integrada y cogía ahí racatacata, empezaba a escribirme todos los apuntes. ¿En braya, no? Sí. Es ahora, ¿no?, cuando estás sacándoles un rendimiento bárbaro. Sí, porque con la Olympus, no sé, tenía un sonido bastante más metálico, la utilizábamos para ensayar, pero es que incluso la H6 la utilizó como... la utilizó como interface de audio, directamente para grabar desde el ordenador o desde el iPhone, según, ¿no? O sea que estoy encantada. Qué bien. La verdad. Muchas gracias, muchas gracias por la parte que me toca. ¿Has utilizado grabadoras que no fueran accesibles y estas que sí lo son? Sí. La primera que tuve fue una Olympus, creo, chiquitita, súper... de hecho, todavía por ahí está, que llevaba dos pilas triple A. Y, bueno, las utilizaba para grabar cualquier cosa. Es que, igual que las personas hacen fotos, pues a mí me gusta ir haciendo grabaciones de cualquier sonido curioso. Soy una friki, ¿qué voy a hacer? No, no, no, no, está muy bien. Está muy bien. Claro, entonces, el que una grabadora sea accesible, pues, o no, pues es, ¿no?, entre el blanco y el negro. Te permite utilizar todas las opciones, ¿no? Total. Más que nada porque hay veces que piensas que está grabando y no está grabando, con las anteriores, me refiero. Claro, claro. O sea, se podían producir incidentes que ahora ya se han cumplido. Sara, a lo mejor tienes algo que decirme de cómo, como músico, ¿qué podríamos mejorar en las grabadoras? Sí, tengo algunas preguntas. Mira, en la H1, no sé por qué no exporta directamente, solamente permite exportar en 16 bits y 24. Vale. En... ¿En qué? En la H6 esto no ocurre. Las dos se pueden normalizar. Vale. Eh... ¿Y qué más te diría? Bueno, el tema de la síntesis, claro, es una voz pregrabada, no nos permite conocer el nombre de los ficheros. Pero, a lo mejor, el nombre de los ficheros, yo creo que, por lo menos, podría decir el día, la hora, minutos, cuando se grabó... Exacto. Cuando lo has grabado. Sí, podría. Porque igual que cuando te lee la fecha, cuando vas a poner al principio, pones la fecha y la hora, ahí sí que los números sí que están pregrabados. Vale, pero cuando grabáis y os lee la grabadora, os lee el nombre del archivo, ¿no? No, no, no. No. No. Pero en este caso, eso está hecho de fábrica, ¿no? De fábrica es donde se grabaron esos pequeños WAVs que están en la memoria interna, en la EEPRO interna, donde está guardado el programa para poder manejar la grabadora. Ahí están grabados unos pequeños WAVs con los números para poderte leer, entre comillas, el día, el mes, el año, la hora, minutos, tal. Cuando pones, por lo menos, la hora del sistema, la hora de la grabadora y cada una de las opciones del menú, pues están grabados esos pequeños WAVs con esa voz. Correcto. Y luego, además... Claro, es que la información del archivo es un chorizo de número que te pones todo eso que tú dices, te pones fecha... Claro, claro. Eso sí que se podría leer porque ya están esos WAVs con los números, ya están grabados y listos. Exacto. Y luego, cuando pones los números, ya están grabados internamente porque están para, al principio, cuando pones la hora, el día, mes, año, hora, minutos, segundos, todos esos números ya están grabados, simplemente tenéis que reproducirlos. Así que es muy fácil. Sí, sí, perfecto. Me lo estoy apuntando. Sí, aunque fuera como un contestador de estos telefónicos que llaman... Cuando vas bajando, pues te podría decir simplemente los números 24, 12, 2024. Simplemente que te lo digas. De hecho, es Zoom, como dice Arturo, quien produce estos audios. Sí. Y genera un archivo, un conjunto de archivos, no sé cómo será, que son los que tiene que bajarse la persona que necesita este tipo de apoyo, ¿no?, de vuestra web y sincronizarlo, ¿no? Sí, pero no, pues te bajas el firmware y ese firmware es un archivo binario que directamente lo cargas en la grabadora y esos archivos, esos audios se quedan dentro de la grabadora. Dentro tiene que tener un pequeño almacenamiento. Tiene una pequeña RAM dentro. Claro, ahí es donde van los clasificaciones. Ah, vale, vale. Tú no puedes modificarlos. Lo del nombre de los archivos lo voy a mandar. Pero el nombre sí que se podría. Y alguna cosita más, como por ejemplo la batería o cosas así, sí que se podría añadir la etiqueta sonora, batería, y luego a continuación un número, que esos números, pues otra vez, como ya están grabados, simplemente se va a verbalizar. Batería, 33. Porcentaje de batería, dice. Sí, sí, sí. Sí, o con una tecla rápida que la puedas consultar. Sí, el tiempo que te falta estimado de grabación, cosas así que... Es verdad que lo hice al comienzo. Al comienzo comenta... Cuando tú la enciendes, ¿no? La batería y el tiempo. Pero claro, no siempre... Y luego es que cuando haces varias tomas de la misma pieza, claro, escucharte toda la toma para saber cuál es la correcta, porque aquí tal y no sé qué. O sea, el tema de leer los ficheros sería la leche. Sería súper útil. Sí. Vale, lo del porcentaje de batería habría que estudiarlo porque sería ponerle muchos sensores a unas pilas, a ver qué cantidad tienen. Sí. Pero bueno, también lo apunto. Pero actualmente te dice batería completa cuando le pones las... ¿Verdad? Sí, te dice batería completa. Vale. Es que no sé decirte si hay más matices porque yo no he pasado de la completa todavía. Que yo sepa no. O sea, la tengo mucho tiempo enchufada, pero no sé, igual que te dice eso, ¿no? Que vaya calculando el porcentaje. Exacto. Sí, media, alta, algo orientativo al menos. Y también creo que en pantalla creo que está bien. Y también creo que en pantalla creo que también pone la duración, ¿no? El tiempo estimado de horas que te faltarían en la tarjeta microsedí. Sí, según el formato que se lecciones. Eso, que te quedan 33 horas o lo que sea. Y eso tampoco... Claro, claro, claro. Sí, yo lo voy a transmitir. Pero esto, a ver, esto lo que pasa es que habría que hacer una pestaña además en una subcarpeta dentro del menú que fueras a pedirle que te lea la batería o pedirle que te lea... O simplemente... ...el chino. O mejor con algún botón que en la menú principal no tenga ninguna función. Sí, un acceso directo. Sí. Vale, pues apuntado queda todo, la verdad. Me encanta que hagáis estas cosas y más en público, como estamos haciendo para que vea al resto de la gente que realmente nos interesan estas cosas y nos importan. Luego había otro tema, perdonad, que es que ya que tengo aquí la oportunidad de estar diciéndole cosas, perdonadme. El tema del reproductor de ficheros. Creo que en la H4 no estaba muy fino el tema de la reproducción en bucle o seleccionar esto, ¿no? Sí, y estamos esperando que nos actualicen, que haya actualización de firmware. Está tardando un poquito. De hecho, me están preguntando algunos compañeros en el WhatsApp que tenemos. Pero de momento, ayer lo chequeé con mi otro compañero especialista de producto, que es Óscar Maldó, en el Máquina. Máquina que yo. Y todavía no tenemos actualización. Yo no sé si se habrán encontrado algún problema, porque por vagancia, ya te digo yo que no es. O sea, hacerla la harán. Sí tendrán algún problema para utilizar eso o alguna cosa, pero vamos, tiene que llegar y llegará. Y lo harán, seguro. Vale. Bueno, y por enseñar un poco cómo suena esto, cómo se escucha la accesibilidad, pues voy a ponerla un poco. Todos los menús se pueden manejar con una... Sí. Se puede manejar con una ruedecilla. Hacia arriba, hacia abajo, nos movemos por las diferentes opciones del menú. Y pulsando un botón, accedemos a la opción de menú que en ese momento tenemos seleccionada. Con eso se maneja todo y esto suena así. Espera de grabación. Eso es. Se oye muy bien. Sí. Ajustes de entrada. Ajustes de salida. Ajustes de grabación. Tarjeta SD. USB. Ajustes del sistema. Listeria. Ajustes del sistema. Listado de ficheros. Ajustes de entrada. Ajustes de salida. Esto es un poco, pues, con un rolero. Ajustes de grabación. Podemos entrar en cualquiera de ellos. Tarjeta SD. Pulsamos el botón de entrada. Formateo. Test rápido. No la S, dale a ese que pone formateo, a ver qué pasa. Cuidado, cuidado. Test completo. Vaciar papelera. Atrás. Espera de grabación. Ajustes de grabación. Ajustes de salida. Ajustes de entrada. Listado de ficheros. Ajustes de entrada. Listado de ficheros. Listado de ficheros. No hay nada. Simplemente hace clic. Clic, clic. Claro. Subo. Un pedido es que bajo, otro es que subo. Atrás. Y atrás. No le doy nada más. Fijaros. Espera de grabación. Si dijera, por ejemplo, número, simplemente que dijera 1, 2, 3, 4, 5, ya sería una referencia, ¿no? Eso ya sería una maravilla. Sí, sí. Sí, sí. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Idioma. Bueno, pues, ya está. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Idioma. Pero bueno, mejor si te pudiera decir la... Claro, es que, sabes, si yo tengo tres ficheros de hoy y cinco de mañana... Sí. Hasta que no lo reproduzca yo no sé cuál es el de mañana. Si te puedo decir la fecha porque está, la fecha es la única cosa que te pone... Es la clave. ...como nombre del archivo, es la fecha, horas, minutos, y está ahí esa información y eso... y esas voces ya están grabadas en el firmware. Simplemente... Claro. También os digo una cosa. no lo estamos inventando aquí. Esto posiblemente ya haya habido este tipo de peticiones en el mundo y lo estén arreglando ya y también os informaré de eso. Es decir, una actualización nueva con no sé qué y con los mandos. Que ahí estaremos. Fecha y hora. Ajuste fecha y hora. Formato de fecha. Ajuste fecha y hora. Día. Mes. Día. 21. 20. 19. 18. 19. 20. 21. Así es como habla. La voz está pregrabada. Se le ve muy fluido el tránsito entre un elemento y otro. Está muy bien. No se puede modificar nada. No se puede modificar ni la voz, ni la velocidad, ni nada de nada. Casi funciona perfectamente. Muy bien. Pues me alegro de que estéis contentos con estos aparatos. De verdad que nos nos han dado orgullo y satisfacción hacer cosas para... La tecnología hay que ponerla siempre al servicio de todo el mundo y aprovecharla y no solamente como negocio. A ver, estamos a ganar dinero, pero está claro, como en todos los negocios, ¿no? Pero se puede ganar dinero y estar pendiente de las necesidades de la gente, de las personas y de quien sea. O sea, entonces, me parece maravilloso. Es una política muy japonesa también, ¿eh? Sí, sí. Muy japonesa. Son muy así. Son muy familiares. Van a vender más. Lógicamente, con esto se van a vender... Exacto, van a ganar más dinero. Sí, sí. Que esté bueno para todos. También para la empresa. Sí, sí. Exacto, exacto. Nos encanta. Claro, claro. Sí, sí. ¿Alguna cosa que te guste más, que te guste menos? No sé si a lo mejor... Bueno, voy a preguntar sobre cosas que quiero, ¿vale? Que me encantarían. Que podríamos hacer otro podcast entero, pero no va a ser... Vamos, que no me voy a tirar tanto del asunto del rollo, ¿vale? Un poquito. El tema de montar pistas no está pensado, ¿no? En estas grabadoras. No. Eso sería... La verdad es que no... Sí, sería la leche, pero no están pensadas para esto. Están separando un poco productos. Antes, por ejemplo, tenías la H4 normal, la H4N, que esa sí te permitía overdubs y grabar encima de las pistas y tal. Y además tenías... La H1 te permite overdub. La H1 sí. Es un cachondeo. Parece mentira, pero esa sí te lo permite. Es la más básica, ¿no? Claro, es que esto no lo entiendo muy bien. Claro. A mí me ha pillado y yo tampoco lo entiendo. Claro, pero teniendo cuatro pistas en una H4 o una H6 y que grabes algo y no puedas grabar nada encima, pues es un poco... No sé. A mí no me... A ver, yo quiero pensar que... Tiene un porqué, ¿vale? También estamos lanzando otros productos. De momento hemos lanzado R4, más pensado, para músicos y grabar en multipistas. Es una grabadora... Pero no es accesible, ¿no? No es accesible, de momento. Es así, pero en futuro podría ser accesible. Fíjate lo que te digo. Como hablábamos de la P4, imagino que lo harán y espero, sobre todo, espero que lo hagan. Pero sí, lo de no poder hacer grabaciones multipistas es una cosa que estas grabadoras no tienen y de momento creo que no van a tener. Ya, vaya hombre. Pero para nosotros músicos es una faena, ¿eh? Hombre, ya te digo. Total. Yo el otro día, por ejemplo, os contaba de cuando fui al ensayo, a ver, me salían los temas, pero tenía que componerme y estudiarme los solos de guitarra. Entonces dije, bueno, pues cuando llegué al solo de guitarra, yo me callo y lo dejo grabando en vacío, que graben la base rítmica. Yo en casa luego llego con... A ver, ese es que lo descubrí el otro día. Llego con mi H6 y me compongo mi solo por pistas, unas narices, no tuve, no hubo manera. No lo pude hacer, Sara. Ya. Y dije, pues es cierto que no graban en multipistas, pero bueno. Es que teniendo varios micrófonos es como una contradicción, ¿no? Claro. Sí. Vaya salto, vaya entrada. Pero tienes que grabar con los micrófonos y todo en tiempo real. Y yo creo que así lo más importante está. A lo mejor lo que comentabas de grabar en pistas separadas, a lo mejor está más reservado para mesas, ¿no? En la mesa de mezclas, en la P4, por lo menos, sí que graba cada micro, cada tal, incluso los pads, lo graba en pistas separadas todo. Sí, sí, justo. Te grabas todo por separado. Claro, está más pensado para... Lo han dejado más para el... Sí. Este tipo de productos. Sí, exactamente. Esa ha sido la idea. ¿O crees que el futuro de la accesibilidad, sí que hay futuro en el tema de la accesibilidad dentro de Zoom? ¿Sí que van a seguir sacando productos accesibles? Además, el buen resultado que han tenido estos últimos y la buena acogida, ¿van a continuar? Sí, sí, van a continuar. Yo creo que sí. Yo creo que sí. Sí, sí. Tavareas ahora también... Vamos a presentar en... Vamos a presentar en la Feria de Estados Unidos las novedades del año, la reunión y tal, así que ya iré viendo a ver cómo evoluciona una cosa y aunque no lo pueda decir, pues tendría que matarlos, pero alguna perla podré soltar. Genial. Vale. Un poco. Y nada, por mi parte, daros las gracias por la oportunidad y por dejarme hablar. Muchas gracias. Y no interrumpirme con todo lo que hablo. Y ha sido un placer. Y que cualquier otro tipo de... Yo soy muy de hablar y cualquier tipo de podcast, la tecnología me gusta mucho. Me queréis llamar para lo que sea o... Aquí estoy disponible para lo que os apetezca. Os voy a dejar una perla hablando de tecnología y grabación. Venga, vamos. Esto es un regalito. Qué guay, qué guay. Hablabas de los soportes de grabación, de los rollos de espera de Edison, los discos que antiguamente eran de grafito y luego se hicieron de vinilo, de plástico y tal, con el petróleo y tal. ¿Qué os gustaría? Bueno, pues en los discos de toda la vida, el sistema de levantado del brazo de la aguja, cuando terminaba el disco, o sea, la cara, lo inventó mi señor padre. ¡Ah! ¡Ah! ¡Ah! Entre las lindezas de mi padre, era ser inventor. Y entonces inventó eso en el año, creo que, 59 o 60. Tuve un padre mayor. Y yo sé que se lo vendió a Marconi, a Italia. A Marconi. A Marconi. Qué interesante. Estamos hablando de cuando estaba top el disco, ¿no? Se levantaba hacia arriba, ¿no? Para luego recopilar. Y volvía el brazo a su origen. A su sitio exacto. Sí, sí. Pues eso ya es una perlita que os he soltado. Así de rápido. Qué bien, qué bien. Pero bueno. Bueno, un poco recopilando, recapitulando un poco, pues eso, que a lo mejor, en cuanto de punto de vista de la accesibilidad, ¿no? No son cosas perfectas, porque siempre nos gusta pedir más. Siempre nos pasa con los móviles. Claro. Con que iPhone, pues, siempre nos fijamos a veces en eso que falla, o en eso que es el punto débil de la accesibilidad o tal. Pero no dejan de ser los mejores, ¿no? Desde el punto de vista de la accesibilidad, pues son los mejores terminales. Pero bueno, siempre nos gusta, pues, que sea un poco más. Y nos gusta ir mejorando, ¿no? Y también es muy interesante que Zoom, pues, también escuche a sus usuarios. Sí, bueno, a ver, Zoom es innovar y innovar es su mentalidad 100%, como unos japoneses. O sea, todo lo que puedan ir mejorando, te aseguro que lo van a hacer, te lo garantizo al 100%, ¿eh? Está genial. Y ser los primeros en esa línea, pues, va a abrir camino. Y lo que comentábamos antes, que si consiguen finalizar a los clientes, pues, nos van a tener aquí de por vida, vamos. Pues, muy agradecidos por eso. Pues, muy bien. Muchas gracias, Fernando. Claro, a vosotros siempre. Muchas gracias, Sara. Gracias a los dos. Gracias por invitarme. Gracias, Sara. Gracias. Y un saludo, un saludo a todos los oyentes. Un saludo a todos. Las grabadoras. A todos. Les acordamos, Ricardo, los medios de contacto. Pues, mira, el correo electrónico es gafotas arroba segatos punto es y... Y el WhatsApp, el más 34 644 6407. Gracias. Y el correo electrónico es gafotas arroba segatos punto es y... Y el WhatsApp, el más 344 6407. Pues, muchísimas gracias. Un episodio más por acompañarnos hasta aquí. Y hasta el próximo. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós... Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós... Adiós. Adiós... Todo? Todo? Todo? Todo? Todo? Todo? Todo? Todo? Todo? Todo? Todo? ¡Suscríbete al canal!
Gafotas, cegatos y sus aparatos #4
Fecha: miércoles, 4 de diciembre de 2024, a las 00:00:00
En este cuarto episodio de Gafotas, Cegatos y sus Aparatos nos proponemos darte una Sobrecarga de conocimientos sobre contenedores que almacenan energía.
¿Te has quedado alguna vez con la batería baja en el peor momento? esta vez , nos ponemos las pilas con Jonathan Chacón, un crack de la accesibilidad y la tecnología, para analizar que retos presentan las baterías actuales y cómo enfrentarlos.
Desde las clásicas iones de litio hasta las emergentes en estado sólido, exploramos las oscilaciones de estas tecnologías: tamaño, autonomía y cómo factores como el calor las dejan sin energía. También descubrimos alternativas futuristas como baterías flexibles, generación termoeléctrica, y métodos más locos como la fotosíntesis artificial y la radiosíntesis, inspirada en hongos radiófilos de Chernóbil.
¿El objetivo? Imaginar un futuro donde no te quedes sin carga a mitad del día. Dale al play y súmate al viaje hacia un mundo con acumuladores de energía más eficientes. ¡Ya disponible en todas las plataformas!"
Intervienen:
Enlaces a Sitios referenciados en el episodio:
iPhone y el Caso Batterygate (apudacta.com).
Galaxy Note 7: Samsung confirma que las explosiones fueron por baterías defectuosas (Xataka).
Créditos:
Duración: 01:32:44
Mostrar descripción detallada del logo de Episodio 4. Baterías, ¿Talón de Aquíles de la tecnología?
Descripción detallada del logo de Episodio 4. Baterías, ¿Talón de Aquíles de la tecnología?
La imagen es una ilustración de estilo cómic que muestra a un hombre con un bigote prominente y cabello peinado hacia atrás. Lleva gafas de sol oscuras y unos auriculares grandes sobre las orejas. Viste un traje con corbata y una bufanda alrededor del cuello. En su mano sostiene un dispositivo que parece ser una batería grande con tres celdas visibles y dos cables que terminan en conectores tipo jack. La ilustración tiene un estilo retro y los colores son principalmente tonos de marrón, verde y gris.
Mostrar transcripción de Episodio 4. Baterías, ¿Talón de Aquíles de la tecnología?
Transcripción de Episodio 4. Baterías, ¿Talón de Aquíles de la tecnología?
Muy buenas, lo que sean. Yo soy Arturo Fernández. Y yo soy Ricardo Abad. Y esto es Gafotas, Cegatos y sus aparatos podcast. Bienvenidos al cuarto episodio de tu podcast favorito. Tenemos a Ricardo y su micro. ¿Qué tal Ricardo? ¿Cómo estás? Pues mira, Arturo, muy bien. Me alegra escucharte y también que podamos estar ya otra vez con la audiencia. Y esta vez, más que hablar yo de mi micro, vas a hablar tú del tuyo porque está diciendo la gente que sales un poco con la ganancia subida en los episodios anteriores. Salía, salía. Ya la he bajado un poco a ver si sale un poco mejor. Bueno, hay que ver cómo nos hemos vuelto con el tema del sonido. Estamos aquí un poco pijoterillos aprendiendo y intentando mejorar el episodio. ¿Y hoy estás cargado de baterías? ¿Cómo andamos? ¿Cargado de energía? Pues sí, en principio estoy cargado de baterías. Bueno, la tengo al 35%, pero yo puedo sacar mucho rendimiento de esta batería. Aún así, bueno, ya sabes que el tema de las baterías da para mucho. Y si yo no estuviera cargado, pues tendría un cargador externo o cualquier otro sistema que me pudiera cargar. De todas formas, yo no soy la persona indicada para hablar de baterías. El invitado de hoy sí que tiene conocimientos y probablemente nos ponga al día. ¿Tú cómo vas de baterías? Pues aquí andamos. No sé si es energía recargable o si son baterías de litio, de níquel cadmión o yo creo que la mejor es la nuclear, que es la más ecológica, aunque digan lo contrario. Pero bueno, para que nos cuente mejor de todo esto, tenemos a nuestro invitado. Jonathan, muy buenas, ¿cómo estás? Buenas Ricardo, buenas Arturo. Pues muy bien, un placer y totalmente cargado. Muy bien, Jonathan, bienvenido. Estamos muy contentos de que estés aquí en Gafotas, Cegatos y sus aparatos. Y bueno, a Jonathan lo conoceréis mucha gente porque lleva muchos años, aunque es muy joven, dedicándose a divulgar desde su blog, desde sus aplicaciones, mayormente desde sus trabajos, las colaboraciones que hace en otros podcasts y demás. Él se autodenomina investigador y desarrollador de accesibilidad y nuevas tecnologías, que su trabajo en la actualidad es líder en accesibilidad en Cabify, la compañía de transportes. Pero, pese a todo esto, esencialmente es muy friki de la tecnología, pero no solo de asistencia, sino de todo tipo de tecnologías. Entonces es una persona que no solo se informa y disfruta obteniendo esta información y compartiéndola, sino que también se atreve a cacharrear. Es un gran cacharrero, empieza a no tener visión, pues acomete también reparaciones y demás. Y bueno, está muy bien. Y bueno, este es el perfil de Jonathan que cuando le dijimos, Jonathan, nos gustaría que participaras en el podcast, pero no para hablarnos de accesibilidad, no para hablar únicamente, me refiero, sino de tecnologías. Y aceptó, con lo cual estamos muy agradecidos. Como siempre, Ricardo, tú sabes que lo más importante es divulgar y compartir. Y bueno, como tú bien indicas, no es solo de accesibilidad de lo que uno vive. Y en ese apartado de nuevas tecnologías es indispensable tener conocimientos y experiencias con ramas troncales de la tecnología. Todo es tecnología, desde el uso de una piedra, como siempre digo yo, que fue el primer producto de apoyo, porque somos bichos bastante indefensos y tenemos que suplir nuestra indefensión con tecnología. Y bueno, el tema de las baterías, la verdad es que el fallo fue mío, porque cuando Ricardo me vino a preguntar, yo le dije, de lo que quieras, y me saltó lo de baterías. Yo he de reconocer que la química no es uno de mis fuertes, me defiendo, pero no es uno de mis fuertes. Pero sí tiro bastante por la parte de física. Y bueno, para no meternos en temas muy enreversados, decir que una batería pues es un elemento que lo que hace es transmitir energía a un elemento que la consume. Y por ahora necesitan una conexión física entre el generador o batería y el receptor o dispositivo que la consume. O incluso no tiene por qué ser un dispositivo, puede ser un sistema o incluso un ente vivo, biológico. Y además esto de las baterías pues afecta a todos, aunque a veces pues intentamos que la tecnología sea transparente, pero desde lo más pequeño hasta la empresa más grande está afectada y puede estar afectada positiva o negativamente pues todas las baterías, ¿no? Ricardo, ¿algún ejemplo de alguna empresa grande que haya tenido algún problemilla? Hombre, pues el famoso Battery Gate de Apple, cuando no hace mucho, porque realmente no sé los años que hace, pero no hace mucho, pues los usuarios se dieron cuenta que al actualizar sus teléfonos, algunas aplicaciones y el teléfono en sí les funcionaba más lento y entonces, bueno, esto fue por una gestión de la administración de la batería que aplicó Apple para los modelos más antiguos, cuando las aplicaciones exigían muchos recursos y el procesador no era suficiente. Y no se entendió así, se entendió como obsolescencia programada y entonces, ¿qué pasó Arturo? Eso es, esto fue en diciembre de 2017, donde la gente se enfadó mucho, muchísimo, porque consideraban que Apple no había sido transparente con ellos, con los usuarios, que de repente pues los dispositivos más antiguos, con las baterías más deterioradas, empezaban a ir más despacio y las asociaciones de usuarios y demás, pues denunciaron, pusieron varias denuncias a Apple y su imagen pues se vio muy afectada, ¿no? Un poco perjudicada. En cambio, yo quiero decirles a toda la gente de Apple, hermanos, yo sí que os creo. Yo creo que sí que tenían razón en este sentido, es decir, lo que estaban haciendo y siguiendo lo que es la política de Apple, el limitar el funcionamiento de un dispositivo cuando el requerimiento del software es superior a lo que puede dar el procesador, es una práctica correcta, no sé si... Fue un poco feo, por lo menos feo. Fue un error de gestión, tanto de la comunicación a los usuarios finales, como de no permitir un sistema para desactivarlo. La verdad que el problema era que... Falta de transparencia, tal vez. Sí, muchísimo. En la comunicación a los usuarios, vamos a hacer esto porque hay un riesgo de que ciertos modelos con baterías deterioradas entren en lo que se llamaba degradación extrema de la batería, que provocaba que se hinchase y son famosos los iPhone 3GS, 4 y 4S, que estallaban la pantalla hacia afuera, incluso algún daño físico, por suerte no a personas, siempre a lo mejor a una prenda de vestir o a un mueble, y entonces para evitar eso, en modelos con baterías bastante más grandes, como era el 6 Plus o los 7 Plus, 8 Plus, pues tomaron esa decisión unilateralmente de cuando la batería tenga una degradación de cierto nivel, creo que era a partir del 80 o 70 y mucho por ciento, el procesador no podía ir más allá del 70 por ciento de su capacidad, lo que pasa que hicieron un algoritmo un poco chapa. ¿Qué pasa? Que había gente que tenía degradación del 60% y del 50%, entonces en vez de quedarse en ese 70% del procesador, seguía bajando, entonces había procesadores que no es que fuesen lentos, que se iban para atrás, o sea, mal, y era todo por seguridad. Correcto, antes he dicho la política de Apple, pero quería decir la filosofía de Apple. Tomar decisiones unilateralmente. Por el bien del usuario, por supuesto, siempre por el bien del usuario, supuestamente. Y bueno, a veces también el usuario quiere tomar decisiones sin entender y es una de las cosas que nos enfrentamos a la hora de incorporar baterías a dispositivos móviles o no tan móviles. A la hora de plantearnos un dispositivo móvil, bien sea un teléfono, bien sea un wearable, bien sea un vehículo, bien sea un elemento domótico para el hogar que no puede estar conectado a la reeléctrica porque es, por ejemplo, un detector de humedades o un detector de inundaciones o una luz para la terraza o la azotea, pues es muy importante tener en cuenta que dependiendo del tamaño, la temperatura a la que va a estar expuesto el dispositivo, muchos factores, el tiempo de uso que va a tener un pico de energía, pues se tiene que optar por un tipo de batería o una tecnología de baterías, que eso va a limitar muchísimo el rendimiento del dispositivo. Por ejemplo, puede que queramos un dispositivo con una forma esférica, eso nos va a limitar que, por ejemplo, no podamos elegir baterías de íon litio y tengamos que ir por polímeros o baterías de gel. ¿Qué pasa? Que las baterías de gel o de polímero, si hay un impacto lo suficientemente fuerte, pues son bastante explosivas y hay que tener cuidado con ese tipo y entonces la solución a nivel de industria cuando se tiene que producir un dispositivo wearable con ese tipo de batería es que hay que meterlas en un cofre, una especie de armadura, para protegerla de impactos porque si no, no consiguen el certificado de comercialidad en Europa o Estados Unidos y luego lo que pasa es que eso va en contrapunto a que el dispositivo no es fácilmente reemplazable en piezas. Entonces, digamos que es un contrasentido continuo y son muchas decisiones. He hablado de íon litio, he hablado de polímero litio, hay otras tecnologías, pero vamos a centrarnos principalmente en las actuales que están en el mercado, que son la íon litio y la de polímero litio. Las de íon litio son las clásicas que hemos tenido hasta hace un par de años y digo que hemos tenido porque ya empiezan a utilizarse más baterías híbridas que tienen una parte de íon litio y otra parte de un polímero e incluso están sustituyendo el litio por otros materiales o minerales, pero eso lo veremos más adelante. Y el tema está en que hasta hace relativamente poco se utilizaban otros metales más nocivos como el níquel, el cadmio, incluso el plomo se sigue utilizando, el plomo se habla de plomo pero en realidad es una base sólida de plomo junto con unos ácidos que provoca la contención de electrolitos. Es como la batería de los coches, ¿no? Exactamente, son muy pesados y eso llevarlo enganchado a un teléfono como que no. Hay un tema de entender en cómo se consigue electricidad. Normalmente se consigue electricidad cuando ponemos dos elementos en contacto y hay una diferencia, hay un diferencial entre ambos ellos, bien porque son de distinto material o son de distinta temperatura o son de distinta carga potencial o una combinación de todo eso y eso provoca que las cargas eléctricas entre ambos semiconductores o entre ambos materiales se muevan. Una vez que tenemos movimiento en las cargas eléctricas, electrones, pues podemos extraerlos para alimentar a ese dispositivo que está conectado a la batería. El tema está en que ese movimiento de los electrones provocan uno de los grandes problemas de las baterías de ion litio, que aunque sean baratas, porque ya se ha descubierto uno de los grandes bulos de la industria, que decían que el litio era muy escaso en el planeta, en realidad que había que cavar un poquito más al fondo y se ha descubierto que hay fuentes de litio para aburrir, aunque hay materiales más abundantes en el planeta, pero bueno ya el litio no es escasea, ya eso de vendernos una batería para un coche por valor de 8.000 euros ya no. Pero he leído por ahí que están buscando ya otras alternativas y el litio que ahora están codiciado probablemente deje de tener valor porque no sea ya el objetivo. Es que el litio es muy costoso de extraer, hay mucho pero es costoso porque hay que, como lo explico para civiles, hay que filtrar una especie de salmuera química que se extrae de canteras y de pozos, como el que extrae petróleo y gas pues hay que hacer un filtrado de ahí y extraer el litio que nunca viene puro y entonces tienes que refinarlo y entonces es un proceso bastante costoso, no sólo a nivel económico para el extractor, la empresa que extrae el litio, sino también a nivel de ecología y sostenibilidad del planeta porque mina de litio que hay, catástrofe ecológica que tenemos siempre. En Cáceres había una planteada, no sé si la llevarán a cabo. Si se hace con los nuevos sistemas de control no hay tanto peligro como existían los 80 y los 90, que no se gestionaba, por ejemplo, no había tecnología para gestionar la emisión de gases, los gases se dejaban salir a la atmósfera, pero es que esos gases es una proyección, un spray y eso cae porque todos los elementos tienen peso, entonces cae al suelo, entonces no te cae al lado pero a lo mejor cae a 20 ó 40 ó 60 kilómetros más lejos de donde estaba el géiser. Está claro. Muy bien. Y bueno, temperatura, no podemos utilizar una batería de ion litio o de polímero en ambientes de más de 50 grados Celsius de media, o sea, en Écija, en Sevilla, hay peligro de que te cargues el iPhone por la temperatura ambiente y, por ejemplo, irte al Sáhara o irte a la Antártida o al Ártico, pues las baterías de ion litio y de polímero litio, en el caso de las de polímero, el tema de la temperatura les afecta más el frío, en las de ion litio les afecta más el calor, pierden esa capacidad de mover los electrones y entonces pierden efectividad. ¿Qué pasa? Que al aumentar el coste para mover esa carga, la degradación es mayor y también el riesgo de que se rompan los sistemas de contención y de todo el tema de fracturar los componentes internos de la batería. Y ya si hablamos de baterías sólidas de metal litio, ahí hay mucho más peligro porque se pueden crear grietas y por eso se están haciendo muchos estudios con otros materiales, por ejemplo, las baterías de ion sodio aguantan muchísimo más el rango de temperatura. El sodio es mucho pero bastante más denso que el litio, eso implica que puede almacenar más electrones, puede almacenar mucho más carga y también el estado químico natural del sodio es más estable que el litio, entonces la degradación es menor. Mientras que una batería de ion litio puede aguantar 3.000-5.000 ciclos de carga-descarga, una batería de sodio, las pruebas que hay empíricas en laboratorio, pues dejaron de contar a partir del millón de ciclos carga-descarga. O sea, una batería que te va a aguantar un millón de ciclos hasta que aparezca una degradación superior al 90%. O sea, es una maravilla. Problema, el sodio, al ser más denso, pesa más. Una batería de sodio y una batería de litio, para el mismo volumen, pensemos en esas baterías tan monas que tenían los Nokia, de unos 3 por 2 centímetros por uno de alto, una especie de pastilla de jabón de hotel, pues una batería de esa pesaba unos 75-100 gramos. Si fuese de sodio, pesaría unos 300-500 gramos. Estamos hablando de tres veces más, cuatro veces más. Sí, sí. Y eso sin contar con el cofre, en algunos casos la administración de cada país obligaría a imponer, que esa es otra. Estamos hablando del peso útil de la batería. Hay baterías que en realidad pesan 20 gramos, pero como van en un wearable, la industria obliga a meterles un cofre de protección contra impacto, contra rotura, que hace triplicar su peso. Un wearable es toda aquella tecnología que se lleva encima, en la ropa, en los accesorios y demás. Así es. Y junto a las baterías de ion-sodio, pues hay otras alternativas, como acumuladores de calor, acumuladores de diferencial químico, y eso siempre hablando de dispositivos pequeños. Si ya nos vamos a dispositivos grandes, como puede ser una casa, un vehículo, una planta de fabricación, ya hay muchísimas más tecnologías. Desde utilizar un diferencial de altura de agua, o sea, por la noche subimos el agua a una cierta altura y durante el día la dejamos caer y eso va produciendo electricidad. Y tenemos, entre comillas, una batería eterna. Pues no es así, porque el agua se evapora. Toda batería tiene una degradación, bien sea por la evaporación del elemento producto. ¿Explicas tú qué es el calostro? Pues el calostro es aquella primera parte que, cuando amamantaban cabritos, lechones y cualquier mamífero, hasta humanos, pues era una parte más espesa de el nutriente que daban a través de las mamas, las madres, y estaba lleno de muchos elementos y minerales y vitaminas en general. Pues estamos en la primera toma de pecho tecnológico a nivel cuántico, aunque hay mucha investigación teórica. Ahora, gracias a la miniaturización extrema de las herramientas y los observadores, sensores, microscopios y demás, podemos ya poder trabajar. Pero estamos muy lejos. Las baterías cuánticas prometen no degradación y producción casi eterna de energía. Eso va en contra de muchos principios de la física teórica y de la física práctica. O sea, no hay nada eterno, todo va a la entropía. Entonces, quizás es que no conocemos todavía la realidad en la que nos movemos y el mundo cuántico tiene otras reglas, que ya se está demostrando que así es, pero estamos muy lejos de esas baterías cuánticas. Entonces, por todo lo que estás comentando, la limitación en las baterías en general es la que nos está llevando a una limitación en la tecnología. No tenemos sistemas, dispositivos, aparatos más potentes porque no tenemos una batería que lo pueda soportar. Claro, ahí tenemos el problema, por ejemplo, de la implantación de vehículos eléctricos por el límite de autonomía. O sea, mientras que un vehículo de combustible, aparte de una tasa de recuperación de efectividad, o sea, repostar el depósito es casi inmediato. Mientras que una batería, aunque se están haciendo ciclos de carga cada vez más rápido, los veinte minutos, media hora de recarga en una electrolinera no te los quitan. El problema está en que más batería en un vehículo, más peso le pones al vehículo, más electricidad gasta para mover ese vehículo, entonces es un ciclo vicioso que no, no, hay un límite. No existen hoy por hoy camiones de carga grande, o sea, camiones de más de 12 ejes que sean totalmente eléctricos. Ya empieza a haber camiones de 2, 4, incluso 6 ejes, pero la industria no lo está apoyando mucho porque están viendo el rendimiento y no sale a cuenta. Taxis sí, vehículos para repartir sí, pero para cargas pesadas todavía tiramos de combustible. Y ahí la gran esperanza es las baterías de hidrógeno. Mira, Fijaros, hablando con mi hijo sobre este tema, que también le apasiona, digo el de la tecnología, no el de las baterías. Me comentó que había una empresa china cuya propuesta era la siguiente, es decir, te vendía un vehículo autónomo, eléctrico, lógicamente, pero también gestionaba todo lo que era la carga y la reposición de las baterías, cerraría el círculo. Con eso él se aseguraba, la empresa me refiero, que las cargas fueran más correctas y durará mucho más tiempo la batería. Probablemente donde hay un problema hoy en las cargas de baterías de estos vehículos autónomos es un poco en lo desbaratado que está todo y el poco rigor que hay a la hora de ponerle una serie de parámetros adecuados a cada batería que acaba deteriorándola antes del tiempo que le corresponde. En este caso yo lo veo muy interesante porque me ha hecho mucha gracia lo de electrohorineras, has dicho, que serían gasolineras eléctricas. Me ha hecho gracia porque yo conocí una electroharinera, que era del principio del siglo, era preciosa y en aquel momento era producción de harina a través de medios también con electricidad. Bueno, esto era una curiosidad. Bueno, pues entonces esa era la circunstancia. Claro, y no podemos ir solo a problemas y límites actuales para cosas grandes, también para cosas pequeñas. O sea, estamos en un momento en que la cibernética y la mecatrónica están llegando a la salud. Digamos, de llevar wearables dentro de nuestro cuerpo. Todo el mundo, claro, no dice que es un marca pasos o un dye, un desfibrilador autónomo independiente, para la gente con cardiopatías severas o, por ejemplo, las bombas de glucosa o bombas de insulina. También hay bombas de adrenalina para algunos pacientes. Todo eso, por desgracia, tienen una vida media que no se estima más allá de cuatro años y son pacientes que no tienen una salud fuerte y le estás obligando a ciclos óptimos. Digo óptimos porque hay gente que le ponen un marca pasos y se comen la batería del marca pasos en un año porque tienen arritmias o su corazón está deteriorado o son gente que se les dice que lleven una vida pacífica y no lo hacen. Pero ¿hay una degradación por el uso o realmente por algún tipo de producto orgánico que también las deteriora? Un poco de todo pero, por ejemplo, en el caso de los marca pasos es que si tú no te cuidas cuando ya tienes un marca paso estás obligando a que el marca paso se esfuerce para corregir eso de no te pongas a correr que tienes un marca paso, que estoy viendo una película para adultos. Lantearte otra cosa. Entonces es un tema de las baterías además tienen un sobreesfuerzo que dependiendo la tecnología que utilicemos, si es ion litio el sobreesfuerzo porque tú le pides un alto rendimiento no lo pueden hacer. Es más, se siguen utilizando baterías de níquel, cadmio, porque son baterías que dan suficiente potencia para utilizar ciertas herramientas como taladradores. Pese a la toxicidad del cadmio. Pese a la toxicidad del cadmio pero hay una justificación esas baterías van a ser utilizadas en herramientas profesionales que no en teoría no están disponibles para todo el mundo. Eso de mantenerlo alejado del alcance de los niños. Correcto. Por desgracia como no hay un sustituto para ese tipo de baterías y por ejemplo que digo yo en una cantera de mármol rojo en Australia ha dejado unos 700 kilómetros del núcleo poblacional más cercano pues ahí tienes que llevar baterías de ese tipo para que los taladros funcionen. Esto también es un punto interesante que hoy en día que todo es ecologismo pues los residuos de las baterías pues también hay que tratarlos y no son precisamente muy limpios. Claro ahí hay un tema de se hablaba hasta hace poco y digo poco porque ha sido este año cuando se ha publicado por fin el paper de una investigación de más de ocho años cuando se degradaba una batería de níquel cambio no era recuperable o sea el 100% del elemento iba para la basura tú podías lo que es desensamblar la batería intentar recuperar el níquel el cambio no era recuperable se tenía que tratar como un residuo. Un residuo contaminante no se podía hacer nada con él. No, o sea ya había sufrido una transformación química por haber sido utilizado como batería ese esfuerzo de mover el electrón sobre él pues provocaba unas reacciones químicas que aquello ya no como cuando te pasas de aplicar calor al estaño que ya lo degradas. Bueno pues en el caso de la de ion litio se podían recuperar un 20-40% de la batería para intentar fabricar otras y en el caso de la de polímeros con suerte se llegaba al 60%. Con una nueva tecnología que se está empezando a aplicar ahora se consiguen recuperaciones de la de ion litio del 80% y de las de polímero dicen dicen lo que pasa que todavía no se ha publicado en el estudio por completo que del 98%. ¿Las de ion litio fueron las que tuvo Samsung tantos problemas cuando las sacó y quiso hacerlas tan grandes o esas eran polímeros? Sí las de ion litio con la del Note 7 ahí fue una tormenta perfecta porque fue una batería demasiado grande en lugar de hacer lo que hacen otros fabricantes de pongo cuatro en línea en serie ellos dijeron yo pongo una sola entonces el cofre de protección no era lo suficientemente fuerte como para mantener la estabilidad de todo el componente que pasa que a eso se le iban generando micro grietas y las baterías cuando fuerzan ese movimiento de carga empiezan a producir calor y produce calor calientas lo que tengas al lado que es una pantalla oled que se calienta la pantalla oled calienta la batería la batería que ya está calentita se vuelve a calentar y tienes un detonador cuando tú tienes un ciclo térmico de un lado a otro que se retroalimenta eso se llama detonador y entonces pues así detonaban yo leí una noticia que me llamó mucho la atención que era sobre unos documentalistas australianos que se desplazaron al desierto esto sería sobre el año 95 por ahí que más o menos cuando tuvieron un poco su salida no al mercado este tipo de baterías con mayor expansión no y lo utilizaban las cámaras de rodaje las cámaras de vídeo no de grabación entonces habían ido a hacer un documental pues era sobre bueno pues un sargento americano que cruzaba el sáhara para un poco salvar a su ejército o bordear no lo que era el acoso de rommel de la rata del desierto no y llegar a un punto concreto bueno pues en todo este en toda esta movida dejaron una de las baterías pues junto a la arena ya una roca bueno aquello con 50 grados de temperatura dándole el sol una detonación pero brutal brutal hasta el punto que toda la gente llegaron a pensar que si era actividad volcánica del desierto del sáhara porque realmente fue muy muy muy muy bruto lo que pasó sí que es cierto que a raíz de esta de este incidente y de que lo reportó el equipo a la gente pues se tomaron medidas de protección lo que tú dices no estas cámaras antitérmicas anticalor no una cosa es apoyar suavemente la batería en el suelo y hay gente que quiere o antes de llegar al suelo 10 centímetros una batería que pesa un kilo pues va creando micro fracturas en esa cámara entonces dice tú bueno una micro fractura no va a costar no pasa nada pero cuando tienes una situación de 50 o 60 grados pues cualquier problema se magnifica y ahí podemos entrar también en el problema que estamos teniendo ahora en el espacio que estamos utilizando no baterías sino acumuladores porque en el espacio para recargar sólo tenemos paneles fotoeléctricos o generadores de electricidad por isótopos o por combustible en gel porque el combustible líquido en el espacio se congela vaya entonces hay que usar geles que son más densos ya podemos estar más tranquilos es decir este tipo de explosiones este tipo es decir han conseguido la industria ha conseguido protegernos la industria ha conseguido protegernos mucho más y en eso los problemas que tuvo samsung con el galaxy note 7 abrieron los ojos a vale nos estamos centrando en los grandes fabricantes pero los pequeños fabricantes no o sea no estábamos observando toda la cadena de producción un uno de los fabricantes más importantes de batería es hitachi pero hitachi no produce las baterías es la empresa que te las vende la producción a lo mejor estaba en en saigón o estaba en en tailandia o estaban en otro lugar de china y cambiaron de proveedor y entonces los procedimientos no tenían la misma calidad que antes entonces bueno me vale carga entonces hubo mucha batería defectuosa y samsung se lo comió entonces ahora incluso cuando se hacen los análisis y un producto seguro para el mercado se presta muchísima más atención ahora a la batería que incluso a los componentes funcionales del dispositivo a un pequeño inciso cuando se va a comercializar un producto en europa o en eeuu sobre todo europa que es certificado de pues se hace se presta muchísima más atención ahora a la batería y a las piezas móviles por ejemplo un producto puede perder su capacidad de ser comercializable en europa porque una pieza móvil se desprenda y sea de poco tamaño y eso puede ser un peligro para gente muy joven o muy mayor entonces esas piezas móviles a menos que sea de un impacto o sea cualquier fractura o desprendimiento por un accidente no no no debe ser en el uso cotidiano sacando metiendo un uso normal del elemento se desprenda y se desprende una pieza pequeña pues eso ya te invalida el poder comercializarlo en todos los países de la web y también hoy en día sigue habiendo problemas con patinetes y cosas de estas que también de vez en cuando hay alguna noticia por mal uso en muchos casos muy mal uso y también que no se compran a través de las vías oficiales tener en cuenta que las aduanas no pueden observar el 100% de los productos que entran en el territorio que pasa a ti te viene un patinete por poner el caso más habitual de elenco que es una sub filial de xiaomi el patinete oficial de xiaomi que es como 200 euros más caro que el delenco no ha habido demasiados problemas si ha habido alguno ha sido porque el pasajero se ha estampado y ha provocado la fractura de la batería sino de más componente pero el delenco si venían con baterías e incluso los recambios de batería no cumplían la con la normativa de la unión europea tenéis en cuenta que esta normativa es del 2018 bueno vamos a dar un aviso a navegantes no que supone porque es muy común que por ahorrar unos euros unos dólares o lo que sea que está muy bien la gente acceda a comprar baterías más económicas a que se enfrente dispositivos en general el dispositivo lo podemos dejar fuera y prestar atención a la batería de la batería aunque todas nos pueden parecer lo mismo su vida útil va a depender mucho no de los materiales empleados sino de su pureza y también de los procedimientos que se han utilizado para su ensamblaje una batería que esté contaminada contaminada es que además de los elementos sólidos no sólidos de su interior pues haya entrado un poquito de aire o el alineamiento del cilindro entre cátodo y ánodo pues no esté lo suficientemente alineado o que el cofre de protección tenga micro grietas porque aquí el señor montador los tenía todos en una caja como el que tiene puntillas todo eso importa porque porque es como la creación de una bombilla incandescente mientras menos oxígeno haya dentro de la esfera de cristal más años va a durar por cierto esto hay una historia muy bonita de que philips y los grandes fabricantes de bombillas se aliaron entre todos para al menos poner un 0,1 por ciento de oxígeno dentro de la bombilla para que no fuesen eternas pero bueno eso ya con lo cual hay que les damos las gracias a estos sinvergüenzas bueno que tenía razón y lo que estaba comentando artura es así no sólo batería sino cuando el dispositivo también es barato y no está contrastado lleva dentro una batería efectivamente por eso decía que si compras un móvil o un patinete o no sé qué pues claro va con su batería incorporada no y cuando hacen las versiones internacionales o cosas y pues a lo mejor sí que tienen en cuenta la legislación de otros países y ya por así decir pues le ponen más cariño a la hora de fabricarlo y la versión local sólo con intención de venderla sólo en china por ejemplo pues a lo que quiera pero que muchas veces pagamos la marca por las garantías en el resto de países pueda lo mismo hay que ver el lado bueno y el lado malo de la sobre regulación de cosas que no estamos quejando mucho de europa pero hay cosas que sí son buenas yo por ejemplo he tenido la oportunidad de acordar cuando dejábamos un teléfono móvil al lado de una radio o una televisión pues con un móvil comercializado en perú eso no era un piri piri eso eso era horrible o sea sí sí sí totalmente pero bueno es también un tema de la seguridad que tenemos a la hora de manipular un dispositivo que vamos a llegar a llevar pegado al cuerpo en las baterías aunque limitan lo que podemos hacer con la tecnología se está avanzando mucho y con las nuevas modelos de batería aún desconocemos el impacto o los problemas que vamos a tener con ella por ejemplo las baterías de ión sodio si llevamos ya casi 20 años estudiándola y ya se están utilizando de forma experimental en por ejemplo el sistema de alimentación eléctrica auxiliares los conocidos site para o los cuerpos electrógeno de hospitales pues además del cuerpo electrógeno por combustible también hay un cuerpo electrógeno de batería de sodio son las que he dicho que pesarían tres o cuatro veces más que las actuales no pero sí sí pero es que encima está de para alimentar un edificio para el tema de el cerebro del edificio inteligente pues es del tamaño de una de una nevera de metro 80 bueno no está mal el bicho pesado o suyo entonces son cosas que ponerlo en un vehículo o en un coche no no no o sea si el coche ya de por sí pesa unos 800 kilos le pones eso y no nos vamos los 3.000 actuales un coche eléctrico nos vamos los 5.000 u 8.000 y luego para cargarlas y para todo pues tampoco no están claro porque la batería de ión sodio por desgracia tienen menos velocidad de carga que eso es otro tema que ahora entraremos de que las de polímero de litio la velocidad de carga o las formas de cargar una batería también es un limitante tecnológico para los dispositivos de hoy de mañana por ejemplo un wearable que va a ir en contacto con nuestra piel bien sea un reloj bien sea un auricular bien sea algo que va al pecho o que va en contacto con las mucosas no debe tener puertos de carga convencionales tienen que estar sellados y muy protegido en el caso de auriculares bluetooth por ejemplo son pines muy pequeños o son agujeros muy pequeños donde se hacen pruebas que la superficie de la apertura nunca superior a la superficie de de colapso de aceites sabéis que si tenemos una superficie metálica le hacemos agujeros de un tamaño mínimo y ponemos aceite por ahí si es lo suficientemente pequeño el orificio el aceite no no pasa por ahí pues eso se estudia y todo el tema este provoca que las baterías tengan una velocidad de carga solución carga por inducción hay grandes fabricantes que han querido no sé si hacer marketing o romper las leyes de la física porque la carga por inducción tú utilizas un un circuito con un cable en espiral y eso provoca que la carga electromagnética vaya en una dirección lo que pongas ahí recibe esa carga electromagnética si ese elemento tiene un receptor de carga electromagnética tenemos un wearable con un autocargador lo único que tenemos que hacer de pasar es ponerlo en un campo electromagnético para cargarlo pues ese cargador por inducción en realidad es una bobina de un cable que dependiendo de la tecnología pues lleva su cobre con su poquito de de níquel o también lleva el cobre con algunos metales nobles y eso provoca que vaya electricidad cargas eléctricas en el aire y mientras más cerca pues más pronto carga pero actualmente no hay ningún cargador en el mercado que supere un aprovechamiento del 65% de lo que se manda o sea nosotros queremos cargar a un móvil y le estamos regalando un 45% del dinero que costaría cargar ese móvil a la empresa productora de electricidad esto es importante que sepan son este tipo de cargadores por contacto que no tienes que conectar nada si no depositas el móvil en una especie de condor a mano o recipiente o la monedita típica de los inteligentes y todo esto esto es lo que se llama también carga por inducción y esta es la que regalamos un 40 a 45 por ciento de la carga al respetable y este punto también es importante que no todos cargadores son iguales aunque por fuera todos son un trozo de plástico que se enchufan normalmente al enchufar la pared y por otro lado hay un cable para enchufarlo a nuestro terminar a nuestro móvil reloj o lo que sea por dentro no todos son iguales no porque hay algunos de esos productores de inducción o cargadores como queremos llamarlo que tienen bobinas de mejor calidad de mayor recorrido y de mayor altura que permiten que en lugar de tener un cono de emisión tengan un cilindro o sea la producción electromagnética está más concentrada entonces se despilfarra pero existe el cargador universal para cualquier tipo de dispositivo que lo dejan es que depende depende de si tu dispositivo es compatible con cómo transmite ese cargador TRANSCRIPTION TEXT TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION CHARACTERISM TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIO TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIpción TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN Tiene una pequeña pantalla digital y funcionaba. ¿Por electrolisis o algo? En realidad, bien puede ser por un diferencial de humedad que mueve algo en su interior o bien por un diferencial de temperatura, que ese agua provoca que haya una diferencia de temperatura y provocamos ese movimiento de cargas eléctricas. El tema es que se evapora. Un pequeño apunte. Sabéis que no se produce en una central nuclear, no se produce electricidad por el uranio. El uranio lo que hace es calentar agua a vapor y ese vapor se mueve a velocidades brutales por unas tuberías que mueven unas turbinas que eso tiene... la turbina está conectada a una dinamo que es lo que produce la carga eléctrica. No es que haya gente que se pensara que el uranio es lo que está dando chispazos y no, no es así. La energía la seguimos obteniendo con la máquina de vapor, en este caso movida por uranio. Sí, sí. Ahí toda la investigación que hizo Tesla con las dinamos y las bobinas es toda la tecnología que tenemos de batería y de producción de electricidad en la actual. Se siguen utilizando los planos de Tesla, de Nikola Tesla, para diseñar centrales tanto termoeléctricas como nucleares como hidroeléctricas, o sea... Sí, sí. Yo he leído en algún sitio que existe también una forma de obtener energía en gurables, en cosas vestibles y ponibles, por el roce, por el simple movimiento. No hablo ya del impacto como tú decías con el talón y demás, sino para cargar pequeños dispositivos pues haciendo vida, ¿no? Es decir, insertados o integrados en la ropa, este tipo de sensores que no sé lo que serían, no sé si conoces algo de ello. Sí, hay varios. Hay pequeños sensores, por ejemplo, para temas de doméstica. Hay unos interruptores, un interruptor de pared, un botón, que se comunica inalámbricamente con la central o lo que sea y no lleva ninguna batería ni nada. Simplemente con la pulsación del dedo hace un clack. Eso sí, son un poco ruidosos. Y ese clack es el que produce la suficiente energía para poder transmitir con el protocolo que utilice cada uno y comunicarse con la central y decir que has pulsado ese botón. Pero una Dynamo también, ¿no? Es similar. Más que una Dynamo es un sistema de rozamiento que hace que suba la temperatura entre 3 y 8 grados durante un instante. Vamos, el mismo mecanismo que un cipo. Le metes a la piedra del mechero, provocas esa chispa, sube la temperatura y le pones un combustible, sea gasolina o gas, y tienes la llama. Pues esos interruptores también. El problema de esos interruptores, como estaba discutiendo yo con un compañero del foro de Vida Diaria para Personas con Discapacidad, es que como tenga fibromialgia o algún deterioro muscular en la mano, no tiene fuerza suficiente porque Mientras que un interruptor necesita unos 10 newton de potencia para activarlos, un niño puede producir tranquilamente 25 newton. Ese interruptor puede necesitar unos 40 o 45 newton de media. Sí, van más duros y hacen un ruidito, además, clack, que por la noche o tal también puede ser un poco molesto. Sí, he recordado una cosa que antes quería haberla comentado y se me pasó. Hay que ser prudentes, ¿no? Y cuando nos ponemos a cargar nuestros móviles, nuestros gadgets, no hacerlo cerca de cosas inflamables como ropa, tela y demás. Es decir, está la tecnología muy avanzada, pero la chispa aún sigue saltando, ¿no? La chispa aún sigue saltando, sobre todo si utilizamos no solo cargadores o baterías de dudosa procedencia, sino los cables. Los cables muchas veces son los grandes generadores de esa chispa. De todos modos, lo que se nos ha dicho de pequeños siempre de, niño, no te acercas al fuego de la cocina, pues lo mismo tenemos que aplicar a toda vida diaria. O sea, si tú pones a cargar el móvil en una mesa y pones encima un jersey, está provocando que el móvil se caliente aún más. Pero muchas veces la almohada puede estar tocando casi, ¿no? Porque se carga en la mesita de noche y está muy próxima, es muy fácil. Sí, es fácil, pero por suerte para nosotros esa chispa inicial no tiene una apertura de salto de más de un centímetro. O sea, esa chispa, cuando se emite, ten en cuenta que es un material que se desprende, que está cargado y de alta temperatura, 90 grados, entonces se baja de temperatura muy rápido. Correcto. No va... Hombre, si encima de estar la almohada cerca, te has pulido media botella de whisky en la almohada y pegas el chispazo... Claro que es más inflamable, sí, sí. Arturo me comentaba, cuando estábamos preparando la documentación y todo esto, de una historia en un festival de drones que me impactó mucho porque... De aeromodelismo, pues uno de los participantes, que llevaba más un Phantom 4, pues le cambió la batería por una de polímero de litio para durar más en el aire. La prueba fue un éxito porque duró más de una hora volando el drone y estaba el hombre feliz, como en París. Y cuando aterrizó, pues vio que la batería estaba más caliente de lo normal. Saltó unas pequeñas chispas y como el suelo estaba pues muy seco, se produjo un incendio. Bueno, hubo suerte porque era una exhibición, estaban por ahí cerca los bomberos, lo pudieron apagar, se incendió una hectárea. Y de ahí se aprendió que había que tener mucho cuidado con las baterías y desde entonces la asociación esta de aeromodelismo tiene un protocolo para guardarlas en bolsas aislantes, para controlar la temperatura durante el vuelo y después del vuelo y tener ciertas precauciones que habitualmente no se suelen tener. Mira, el ejemplo que dices, DJ, que es uno de los fabricantes más famosos de drones, tanto civiles como profesionales, lleva seis sensores en la batería. ¿Por qué? Porque ya en estos 20 metros de altura que suben, la batería exige un esfuerzo de un 10% más. Eso se va calentando, pero sería eléctrica. Bueno, el modelo de la pasarela empezó a humear, aquello que fue un desastre, la verdad es que les hizo un flaco favor, pero parece ser, supongo que esto sería un sistema de resistencia, un circuito cerrado que produciría un calor controlado y por alguna razón, claro, es que se juntaba todo el textil. Para tejer, muy diversos, tanto de que se producía una especie de emisión de inducción de carga, o sea, podías cargar el móvil poniéndote el móvil en la chepa del abrigo, pero claro, eso no, eran simplemente, la gente no se esperaba eso. A la hora de tejer, el tejido normalmente tú lo pones en forma de rejilla. Estás tejiendo baterías. Algo así, pero había tejidos que le daban forma y el hilo tomaba una especie de espiral, entonces se producía esa emisión electromagnética. De todos modos, ya sí hay productos de mercado que llevan baterías y estamos hablando no solo de chaquetas o pantalones, principalmente siempre es para ambientes de montaña o ambientes extremos. No, no, y calurosos. Yo le he echado el ojo a una chaqueta de trabajo que tiene refrigeración, o sea, para estar fresquito. No, no, te garantizan que el tejido se va a mantener a 15 grados. ¿Quién alimenta eso, una batería? Sí. ¿Una powerbank? Una especie de powerbank, lo que pasa es que la powerbank va alojada en la espalda de la chaqueta y tiene un grosor de un cuarto de centímetro y es flexible. O sea, tú al tacto tienes que tocar mucho para detectar. Simplemente lo notarías como una chaqueta de tela gruesa. En realidad, ese tejido es una batería. ¿Y cómo es el futuro de las baterías? ¿Por dónde va a ir esto? El futuro de las baterías, en el caso de los wearables, la carga rápida va a ser por contacto, sí o sí, porque hay un tiempo de uso, sino también en los ciclos de degradación. Hay mucha esperanza en abaratar el ión sodio o hacer una hibridación con el litio sodio para que la batería al menos no te pese un kilo, que te pese 200 gramos, pero tengas una batería de móvil, de un iPhone, que te dure las dos semanas o las tres semanas. ¿Cuál sería tu sistema de carga y batería ideal? Vamos a hacer una recreación. ¿Cuál sería tu sistema de carga y batería ideal? No hablo del futuro, hablo de lo que tú desearías. Es decir, en tu día a día hay unas necesidades, realmente a todos nos marean y nos llevan locos las baterías. Para ti, hoy por hoy, con las necesidades que tienes para cargar tus dispositivos y todo lo que tengas, ¿cuál sería tu sistema de carga y tu batería ideal? Pues yo, por ejemplo, me encantaría que de verdad un dispositivo que tiene batería, cuando está siendo utilizado conectado a la corriente, la batería no sufra. Porque, por ejemplo, el equipo portátil que utilizo para trabajar diariamente, cuando me voy de viaje, sí tiro de batería, pero el 99 lo utilizo conectado a la corriente eléctrica. En teoría no debería haber degradación, pues sí la hay. Menor, pero sigue habiendo degradación. Entonces, por ahí. Y luego el tema de los dispositivos inteligentes, o sea que tengan un nivel de procesador alto, no duren un día, duren día y medio porque siempre hay imprevistos. O sea, yo todas las noches cargo algunos dispositivos y durante la mañana, durante la ducha, cargo otros. Vamos cortos, es decir, lo que nos está ocurriendo. ¿Pero tú crees que esto es porque están administrando la tecnología y la van sacando poco a poco o porque físicamente no son capaces de ofrecer una solución mejor? Yo lo comento porque recuerdo que cuando sacaron el CD, que lo sacó Philips, a mí me comentaron, el CD es el disco que había, y me dijeron que la tecnología que había en Eindhoven, en Philips, esta del CD, ya había más de 15 años inventada y el propio mercado había administrado su salida, agotando el vinilo y otro tipo de soportes, hasta que tú piensas o vosotros. Y siguen utilizando tecnologías de al menos 10 años porque la están amortizando. Correcto. Porque están amortizando y quieren seguir amortizándola porque muchas veces también, probablemente hay otras tecnologías que estén por ahí, pero tienen que seguir amortizando y quieren seguir vendiendo lo que tienen. Y también hay un limitante regulatorio, o sea, yo puedo inventarme de repente una batería que funcione con hidrógeno, le echo agua, le pongo el tapón y tengo una batería que me dura el teléfono 3 semanas. Genial. El problema de una batería de hidrógeno actualmente es que es explosivo como tenga un accidente. Se me cae el teléfono con una batería de hidrógeno en el teléfono y el explotido que tuvo la batería de litio en el desierto se queda en pañales con el daño que puede hacer eso. Entonces vamos, tenemos claro que hay una obsolescencia programada, eso está claro, y ahora podemos hablar de un racionamiento de tecnología programado para amortizar lo que ha sido la inversión. En eso estamos de acuerdo, ¿no? Sí, por parte de los fabricantes de baterías sí, y por eso hay gente como Microsoft y Apple que llevan relativamente poco, porque creo que llevan 6 años, Microsoft, tienen su propia división energética y Microsoft ya está haciendo experimentos con grupos electrógenos con energía nuclear, o sea, centrales nucleares pequeñitas, ya pueden ser del tamaño de una habitación, pero son pequeñitas. Sí, para ciudades de 40.000, 50.000 habitantes, pero que podían darles luz perfectamente, ¿no? O centros de datos que darían suministro de inteligencia artificial a toda Europa. Se comenta también que Tesla, por la necesidad que requerían sus vehículos eléctricos, también ha hecho una evolución de lo que son las baterías bastante importante, ¿no? Sí, pero ahí Tesla lo que ha estudiado es el engranado de los filamentos de batería dentro de la batería en sí, del cuerpo de batería, que una batería de un coche eléctrico es una especie de tablao flamenco de 2x4 metros que va en el suelo del coche. Entonces, dentro de ese cofre, de ese tablao flamenco, pues tú tienes, por decirlo de una manera, un montón de pilas cilíndricas una detrás de otra, por ponerlo así en realidad. Haciendo investigaciones y cómo se pueden moldear las baterías cuando son de polímero y cuando estás haciendo una batería híbrida, no solo de ion litio, puedes darle forma. Pues descubrieron que con ciertas formas fractales se protegía contra la degradación y también se aumenta la producción energética sin aumentar el degradado. Entonces, se ha avanzado mucho y se ha conseguido y se ha ratificado la teoría física de que la forma y la ordenación de los componentes influyen muchísimo, no solo en el aspecto de temperatura, sino también en reproducción, almacenamiento y descarga. Bueno, pues si os parece, podemos ir dando algunas conclusiones y podemos ir terminando. Podemos lanzar una pregunta al aire, que es el título que le vamos a dar a este episodio. Entonces, podemos decir, os lo pregunto a los dos, que la batería es el talón de Aquiles de la tecnología. Actualmente es un limitante. No tenemos ciertos dispositivos porque no podemos desenchufarlos de la pared. No hay baterías para que esos dispositivos sean útiles. Tú también lo piensas, Arturo. Sí, claramente. La tecnología podría avanzar mucho más, por ejemplo, en robótica, asistentes para hogar y cosas así, que hoy por hoy con las baterías que tenemos no es plático tener un asistente o un robot en casa que la batería dure 20 minutos. Y pese al robot 100 kilos, que es otra cosa. Para que te dure 20 minutos lleva una batería que ni el coche que tengo abajo. Yo solo con dejar de llevar el ladrón o el robacorrientes, los distintos cargadores y las powerbank van cuando viajo. Ya solo por eso, daría lo que fuera. Realmente es un rollo. Necesito media mochila para llevar todo esto. Simplemente para que funcionen los dispositivos portátiles. Sí, ahí también hay un tema de las powerbank de ahora parece que las hacen peores que las antiguas. Pues sí. ¿Tú tienes powerbank? Yo tengo varias y sigo utilizando una del año 2008 de 10.000 miliamperios con carga USB-B y sigue alimentando bien a dispositivos de ahora. En cambio, powerbank que tengo por ahí, bien que las he adquirido o me las han regalado porque antes donde regalaban bolsa con panfletos de los congresos, ahora te regalan una powerbank. Y son más modernas, se recargan mucho más rápido, pero no me hacen... Puedes decir la marca, no hay problema. Es lo típico que por fuera pone Congreso Internacional de Turismo y dentro una Hitachi Penta. Correcto. Yo es que me he pasado lo mismo con una Ronson que me dura un montón. Es que me sigue funcionando fenomenal. La tengo ya 7 u 8 años. Lo único que hago es ser con las cargas muy cuidadoso. No la dejo enchufada cargando mucho tiempo, sino controlo mucho el tiempo. Tú también, ¿no? Sí, sí. Las 3 primeras cargas hago lo que es un seguimiento de cada media hora me paso y tardas en cargarte 3 horas y media, tardas en cargarte 4 horas. Cuando pongo a cargar ese día la batería, le pido a cualquier asistente de altavoces que todos tenemos que bien empiece por A o por S o por G, cuenta atrás 3 horas y media, cuenta atrás 4 horas. ¿Y el enchufe? Paso de tener un sistema un poco más domótico con un enchufe inteligente y cuando el enchufe inteligente tiene un consumo inferior a 2W durante 5 minutos, pues se apaga. Deja de cargar la batería. Puede ser un pico. El pico puede ser por arriba o por abajo. No, pero durante más de un tiempo, claro. Pero le pones que tenga menos de 2W durante 5 minutos, por ejemplo. Lo digo porque hay baterías, o sea, PowerBand, perdón, que llevan un chip que cuando están al 90% de carga empiezan a reducir la velocidad. Entonces baja ese voltaje y te puede dar un falso positivo. Arturo, tú hablabas de dispositivos y de PowerBand, de todo, ¿no? Es decir, cuando está a cargar lo que sea. Cada dispositivo es distinto. Hay que estudiarlo un poco antes para ver la domotización. Si es por debajo de 2W o de 1W o de 3W o durante cuánto tiempo, durante 5 minutos, durante 10 minutos... Un día tendrás que contarnos con detalle todo esto de la domótica porque parece alucinante. De verdad que esto sería una solución maravillosa porque yo tengo que estar mirando el reloj o poniendo una alarma como dice Jonathan. Y me despreocuparía porque daría la orden y ya está. Lo separaría y yo haría otra cosa. Y ahí entramos otra vez en lo de cuidado con los enchufes inteligentes porque algunos no consiguen apagar toda la corriente. Te dan un 0 y en realidad es 0.8 o 1.2. Sí, sí, claro. Bueno, es que hoy no toca esto, pero bueno, ya lo hablaremos. Así que no liamos. Bueno, muy bien. Pues vamos terminando. Muchas gracias, Jonathan, por haber estado con nosotros. Esperemos que repitas. Que hayas estado a gusto y que repitas. No, no te rías. Tienes que comprometerte aquí ya en público. Ah, ya en público. Bueno, pero el tema lo ponéis vosotros. Sí, sí, como... El siguiente tema es baterías, pero de cocina. Pues de eso también hay avances tecnológicos ahora, ¿eh? Con los otros patillos también. ¿Tú controlas los temas de cocina? No, pero sí controlo el tema de electrodomésticos. ¿De electrodomésticos? Vale. Inteligentes. Sí, sí. Y tontos también. También. Bueno, pues mira, sí que es una temática bastante interesante la de los electrodomésticos. Pues muy bien. Muchas gracias, de verdad. Hemos estado muy a gusto. Un placer. Lo mismo digo. Yo la verdad que con Ricardo creo que he compartido el micrófono en alguna otra ocasión, pero ha sido todo un placer. La verdad que muy bien. Y, bueno, esperemos que los escuchantes y escuchantas opinen. Exactamente. Que nos metan caña y mejoramos así. Pues muchas gracias. Nos volvemos a oír en otro episodio. Damos los medios de contacto, Ricardo. Bueno, pues la dirección de correo electrónico es gafotas@cegatos.es. Y el WhatsApp es más 34644640792. Gracias por acompañarnos y llegar hasta aquí. Hasta luego. Hasta luego. Chao. Chao.
Gafotas, cegatos y sus aparatos #3
Fecha: domingo, 24 de noviembre de 2024, a las 00:00:00
En este episodio de Gafotas, Cegatos y sus Aparatos, nos adentramos en el mundo de Glide, un dispositivo revolucionario que redefine la movilidad para personas ciegas y con baja visión. Junto a nuestros invitados, Roberto y Moisés, exploramos cómo este asistente robótico combina inteligencia artificial, diseño ergonómico y tecnología háptica para guiarnos. Ellos han podido probar recientemente un prototipo funcional de Glide y tienen muchas cosas para contarnos, sobre todo nos hablarán de sus sensaciones desde la valiosa perspectiva de quienes han podido probar personalmente el deslizador.
Desde sus características innovadoras hasta los retos que enfrenta en su desarrollo, debatimos su impacto en la comunidad, su compatibilidad con otros apoyos y el futuro de la movilidad asistida. ¿Sustituirá al bastón y al perro guía? ¿Qué papel jugará en la vida de sus usuarios? Descúbrelo en este episodio repleto de reflexiones, sensaciones y anécdotas.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Glide: una herramienta de movilidad para personas ciegas -Doble Tap Podcast.
Primer contacto físico con Glide: conociendo un prototipo alfa – DobleTap Podcast
- Sitio Web de Glidance INC (inglés).
Bastón telescópico de aleación de titanio para personas ciegas (Tavkomco) - Amazon.
Créditos:
Duración: 01:41:09
Descripción detallada del logo de Episodio 3. Glide, aspirante a auxiliar de movilidad… ¡Empújalo y sortea todos los obstáculos!
La imagen combina elementos ilustrativos y realistas. En el primer plano, se observa una figura dibujada en estilo retro-línea clara: un hombre con gafas redondas, bigote, auriculares, gorra plana, bufanda, chaqueta y botas. Está montado sobre un patinete eléctrico moderno, sosteniendo el manillar con ambas manos. Lleva una mochila al hombro, reforzando la idea de movilidad y dinamismo. El fondo es un espacio arquitectónico realista y contemporáneo, que parece ser el interior de un edificio corporativo o una terminal moderna. Incluye amplios ventanales que dejan entrar luz natural, techos altos con estructuras geométricas, plantas decorativas, sillones minimalistas y una escalera mecánica. El suelo brillante refleja tanto el entorno como la figura ilustrativa, integrando ambos estilos en una composición armoniosa. La escena simboliza la unión entre lo clásico y lo moderno, destacando el uso de tecnología y movilidad en un entorno urbano sofisticado.
Transcripción de Episodio 3. Glide, aspirante a auxiliar de movilidad… ¡Empújalo y sortea todos los obstáculos!
Muy buenas, lo que sean. Yo soy Arturo Fernández. Y yo soy Ricardo Abad. Y esto es Gafotas, Cegatos y sus aparatos podcast. Bienvenidos al tercer episodio de tu podcast favorito. Estamos una vez más. Y bueno, aquí intentando hacer un buen audio con nuestros micros y nuestros volúmenes. Esperemos que esté todo normalizado. ¿Qué tal tu micro, Ricardo? Hola, Arturo. Pues nada, tan bien ya como el tuyo. La verdad es que estoy ya muy acostumbrado a él. Ya somos casi uno. Y bien, en principio el feedback que recibimos del sonido no es malo, con lo cual para un podcast es algo importante. Así que nada. Esa es la idea, que salga bien y que todo el mundo lo pueda escuchar agradablemente. Y bueno, hoy vamos a tener un episodio sobre ruedas, ¿no? Pues en principio sí, porque vamos a hablar de un dispositivo que va sobre ruedas. Y el episodio tiene que ir sobre ruedas también. Lo primero, y antes de que se me olvide, quiero saludar a toda la audiencia y agradecerles que estén aquí con nosotros. Y agradecerles también todo el feedback que nos han enviado acerca de los episodios anteriores. Pues sí, vamos a hablar de un dispositivo sobre ruedas que lo empujan personas que no ven. Pero primero vamos para ahí centrándonos un poco de cosas más generales a un poco a las cosas más concretas. El tema más genérico es la movilidad, especialmente para personas con discapacidad visual. Tradicionalmente cómo va esto de la movilidad también para los más profanos, cómo se mueven las personas ciegas y poco a poco vamos acercándonos al producto de hoy. Pues casi mejor hacerlo así, porque como lo había dicho yo, un vehículo con ruedas que empuje una persona que lo ve podría ser el carrito del bebé, podría ser el carrito de la compra, pero en este caso no es así. Estábamos hablando de un auxiliar de movilidad y de estos que es lo que creo que podemos comentar, cómo está el estado del arte de los auxiliares de movilidad que utilizan las personas ciegas. Básicamente utilizamos tres auxiliares de movilidad. Uno de ellos es el auxiliar humano, también conocido como lazarillo dentro de la literatura, que son los acompañantes y no tengo que decir más. Simplemente una persona ciega con una técnica muy básica se coge del brazo de la persona y es trasladado de un sitio a otro a petición y puede ser tanto un familiar como puede ser hasta un servicio solicitado. Dentro de lo que es ya la tecnología, porque tecnología es un bastón, aunque no sea electrónica, estarían también el bastón blanco que es muy conocido dentro de la gente porque es un símbolo identificativo de que la persona que lo utiliza es ciega. Si tiene banda verde pues es con baja visión, si tiene blanco y rojo es con ceguera y además sordera que es sordoceguera, que es una discapacidad con entidad propia. ¿Tú lo utilizas, Arturo, bastón? El blanco, yo utilizo el blanco y esto también de los colores va un poco también por barrios. En algunos países cambian un poco el color y tal, pero el más comúnmente aceptado es el blanco que yo creo que todo el mundo sabe lo que significa y el blanco y rojo pues que no es que sean del Atleti, sino que cada uno tiene sus peculiaridades. Correcto. Y bueno, es tecnología pero muy básica, ¿no? Es decir, un bastón en sí es un mango y luego es una vara o un palo que lo que hace es una prolongación del dedo de la persona ciega. Con ella reconoce el entorno, tanto por la percepción áptica que es por lo que vibra el bastón y le transmite a su mano y dedo, como también por el sonido, lo que se llama ecolocación, que produce el bastón al arrastrarse o golpear el suelo y que genera un paisaje sonoro que permite a la persona percibir cómo es su entorno. Y nos quedaría otro que son nuestros queridos perros guía. ¿Puedes hablarnos algo de ellos, Arturo? Pues no mucho, conozco mucha gente que los tiene y bueno, son como un paso más allá del bastón, ¿no? Y luego, además de la parte más emocional que te une con el animal, que es una extensión de la persona, ¿no? Y como pues son, bueno, como todo en la vida, tienen sus ventajas y sus inconvenientes respecto al bastón. Probablemente tenga alguna ventaja más, sobre todo para los que lo usan habitualmente, pero bueno, también tiene alguna desventaja. A veces cuando tienen que coger un taxi o un vehículo similar o cosas así, pues a veces también tienen ahí sus más y sus menos, ¿no? No todo el mundo lo entiende. A la hora de entrar a un restaurante y demás, con que por ley tienen acceso completo a cualquier parte, excepto un quirófano, pero en la práctica pues a veces tiene que pelearse un poco con ello, ¿no? Correcto. Son auxiliares de movilidad, prácticamente físicos, mecánicos y donde la persona ciega en todo momento es quien toma decisiones. Es decir, el perro no te lleva, no le dices vámonos a comer gambas. Claro. Y el perro se va. Bueno, supongo que después de muchos años, ¿no? Con la persona igual entiende lo que es ir a comer gambas, pero lo suyo es que hay que llevarlo y cuando te desplazas con un bastón blanco también tienes que saber dónde quieres ir, con lo cual la orientación es imprescindible para todo esto. Sí, eso es. Algún día a lo mejor será interesante entrar más en detalle, porque hay gente que cuando le preguntas a alguien en la calle dónde está tal sitio o no sé qué, pues hay gente que le da las explicaciones al perro y no es eso, pero bueno. No, no. En otro momento vamos a entrar más en detalle. Cuando tengamos algún tipo de intérprete traductor de Huaweis, ¿no? De español a Huaweis, pues ya lo haremos. Bueno, pues nada. Y dicho esto, creo que también es importante saber que existen otro tipo de tecnologías de asistencia para la movilidad, que normalmente son accesorios, que en sí no son auxiliares de movilidad, pero sí que prestan un servicio, como pueden ser los GPS específicos para personas ciegas, como pueden ser algún tipo de sensores que transmiten vibraciones o algún mensaje sonoro a través de un dispositivo que se cuelga, a través de unas gafas y demás. Pero esto en sí no sería un auxiliar de movilidad, sería un asistente para la movilidad y luego estarían los robots. Pero esto es una cuestión que hasta del dispositivo que vamos a hablar hoy, pues aún no hay nada en el mercado que podamos utilizar como para que sea un dispositivo externo que, a raíz de unas indicaciones o modus proprio, por que programemos algo nos lleve a un sitio específico. Pero eso ya será materia de otro podcast. Así que creo que lo que procede es que presentemos a nuestros tertulianos que saben mucho de esto. Sí, vamos a presentarlos porque saben mucho y lo conocen de primera mano. Luego nos contarán. Tenemos, repite, Roberto, muy buenas, ¿qué tal estás? Muy buenas a los dos, muy buenas a la audiencia. Gracias por invitarme otra vez. Muchas gracias por haberte dejado otra vez para hablarnos de estos temas. Roberto, muchísimas gracias por estar con nosotros en este episodio de nuevo y también presento a Moisés González. Moy, ¿cómo estás Moy? Muy buenas a todos, ¿qué tal? Muchas gracias por invitarme. Muchas gracias a ti por estar con nosotros en esta mesa camilla, como os lo decía. Encantado. Bueno, pues estas dos personas, además de saber mucho de tecnología, de muchas tecnologías, son cofundadores del dispositivo del que vamos a hablar hoy y que no es otro que Glide o como quieran nombrar a la española o a la inglesa. Y bueno, este dispositivo que aún un poco pues muchas de las últimas tecnologías que hoy en día tenemos. Era curioso que hasta ahora pues nadie hubiera hecho algo así porque nos está tocando vivir una época que tecnológicamente tenemos muchas piezas sueltas de gps, de inteligencia artificial, de reconocimiento a través de cámaras, de síntesis de voz, reconocimiento de voz. Bueno, hay muchas piezas muy interesantes especialmente para nosotros y juntar todas o muchas de ellas en un dispositivo pues podría ser algo sumamente interesante. Pero quizá podríamos empezar por describir un poco cómo es este dispositivo, ¿en qué consiste? Sí, sí, sí. Tenemos que saber, vamos, cómo es exactamente Glide o Glide porque no tenemos ni idea físicamente cómo es. Yo voy a contaros cómo es, cómo es el prototipo que yo he visto, que lo vi la semana pasada, la semana pasada o la anterior, ya se me va la cabeza. Yo creo que fue la semana pasada. Estuvieron en Londres haciendo una demostración y presentaron su último prototipo, el tipo alfa todavía. Bueno, para quien no esté relacionado con la terminología, el prototipo alfa es un paso previo antes que la beta, o sea que todavía está muy en pañales, muy en concepto. Pero bueno, para contestar a la pregunta que hacíais, vamos a ver si lo puedo describir de una forma sencilla. El dispositivo tiene dos ruedas, una base más o menos, no sabría decir si piramidal o cónica, no muy grande. Las ruedas son del tamaño de como de un carro de la compra o algo así más o menos. Tiene esta base en la que se aloja la gran mayoría de los sensores. Luego de esa base sube un mango telescópico, eso quiere decir que se ajusta en altura para diferentes medidas que se necesiten. Y arriba de esa barra, digamos, está el mango que el usuario agarra y con el cual empuja el dispositivo. Porque el dispositivo tiene que ser empujado, no va tirando de ti, sino que tú lo empujas. Y a grandes rasgos este sería el dispositivo. Las cámaras están en la parte superior de esa barra que comentaba, hay una cámara. Y bueno, yo creo que esa es la descripción. No sé si Roberto quiere complementarla. Como es de grande, de pesado, de alto, es muy armatoste, es pequeño, es como un balón de fútbol, es más pequeño, más grande. A ver, el dispositivo, ellos te enseñan en realidad, o por lo menos yo recuerdo cuando estuve con ellos en julio. Me enseñaron varios prototipos, porque en realidad tienen varios. Hay un prototipo que es el que ellos esperan que sea en diseño el final, pero que en realidad todavía no lo tienen. Te lo enseñan, pero es solo una carcasa, que es más o menos como lo que describió Moisés. Yo diría que, la gente por ahí dice, bueno, es como una aspiradora. En cierta manera sí, porque es un mango y es una estructura con un cuerpo, con ruedas. Lo que lo colocas delante de ti. Como dijo Moisés, tiene una cámara. Bueno, en realidad ya habrá decidido que va a tener dos cámaras en el arnés. Una cámara que va mirando hacia adelante, mirando el camino que tienes delante. Y una cámara que iría mirando hacia abajo, para ayudar con la detección de cosas como paso de cebra, quizás un charco de agua. Cosas que la cámara que normalmente mira hacia adelante quizás no detecte con tanta facilidad. Entonces utilizar información de las dos cámaras. Y pesado no es. Yo no recuerdo el peso exacto que ellos esperan que tenga. Me suena que son tres kilos. Como unos tres kilos. Sí, ok. Pero lo que se siente, lo cual no es confiable, porque lo que se siente no es lo que va a ser. En realidad es bien ligero. La sensación no es de que estás empujando un carro de la compra siquiera. ¿Y pensáis que eso es positivo o es negativo? El que sea tan ligero. A mí me resulta positivo, porque da movilidad, es flexible. No es inseguro, a menos de mi percepción. No se siente inseguro, pero se siente cómodo de mover. Yo estoy de acuerdo con lo que dice Roberto, pero sí que tengo que decir que hasta ellos mismos dijeron, es que nos ha dicho alguna gente, que es hasta demasiado ligero. A mí me pareció, la verdad, bastante seguro, bastante robusto. Es verdad que, rodándolo, que al final es como lo vas a usar, se siente muy ligero, más de lo que yo esperaba, la verdad. Y ellos mismos comentaban eso, que alguna gente les había dicho que es tan ligero que alguna gente sí que le transmitía un poco de inseguridad. En mi caso, igual que dice Roberto, no fue así. A mí me pareció bastante robusto, fácil de manejar, la verdad. Y bueno, en cuanto a lo que preguntaba Domínio Arturo antes, no es nada armatoste. De hecho, de alto depende un poco de cómo pongas el mango, porque como ya hemos dicho, es ajustable en altura. Pero el mango a lo mejor te puede llegar como por la barriga o algo así, más o menos. Otra cosa que ha dicho antes Roberto, y me gustaría volver a recalcarlo, porque es claro, a mucha gente le pasaba en la demostración. Cuando cogía el robot con la mano izquierda, se lo ponía como si fuera un perro, se lo ponía al lado en lugar de adelante. Y al parecer, por lo menos por ahora, el robot ha de ir delante de ti. Lo puedes sostener con una sola mano, pero lo tienes que mantener delante. O sea, tienes que mantenerte detrás del dispositivo, porque el dispositivo lo que va a hacer es ayudarte a mantener la línea recta y darte dirección. O sea, tú lo empujas y el dispositivo, si hay obstáculos, te va a inducir a girar, porque las ruedas giran. O sea, el dispositivo te puede girar en izquierda o a la derecha, o te puede hacer frenar. Pero la dirección se la da uno. Después hablaremos que tiene varios modos, o se espera que tenga varios modos de uso, pero en principio es un dispositivo que vas delante de ti y su función es, en cierto modo, parecida a la función esencial de un perro guía. Te ayuda a mantener la línea recta y cuando es necesario, te ayuda a evitar obstáculos. Es muy importante esto que comentáis, de que lo que hay ahora y lo que se espera que sea, lo que ellos esperan que pueda ser el producto final, esa diferencia que estéis haciendo continuamente, porque lo que hay ahora puede que sea o puede que no sea el producto final, ¿no? Seguro que no. Seguro que lo que hay ahora no será el producto final, eso seguro. Esperemos que no, ¿no? Yo esto sí lo digo. Con lo que hay ahora mismo, yo no saldría a la calle confiado tal y como está. No es la idea, no es la idea. Es que lo que hay ahora ni siquiera está terminado en cuanto a software ni hardware ni nada. Lo que hay ahora es un alfa. Es que ya os digo, después vendrán los beta, que ni siquiera será final, y ya después de esto, pues... Sí, pero vamos a seguir hablando de sensaciones. Ya que sois unos privilegiados y habéis podido probarlo, ¿vale? Mi mano, cuando va a empezar a moverse, ¿a qué se coge? ¿Es un alfa tipo Arnés? ¿Es un alfa tipo carro? ¿Qué es rugosa? ¿Qué sensación me da cuando está en movimiento que noto que... ¿Tiene botones a mano? ¿Algo más? Eso es difícil de responder porque ya tampoco está el diseño final del alfa. Como está ahora, o por lo menos como estaba cuando yo lo tuve, lo usé, es un alfa... ¿Cómo describirla? Horizontal, como un... Sí, es más tipo carro, yo creo, ¿no? Más tipo carro de la compra, sí. Ajá, ajá, tipo carro de la compra. Se espera que tenga botones, se espera que transmita vibraciones en la mano, se espera que tenga un altavoz, se espera todo eso. Ahora no tiene nada de eso. Es un alfa que agarras, y la sensación es esa, agarrar un carrito que tienes delante, y aquí es donde seguramente los dos tendremos percepciones diferentes. Yo fui muy escéptico a la demo, pues en general es mi actitud con tecnología, yo fue a ver qué están enseñando, qué es esto realmente. Yo lo agarré, salí caminando, y la sensación fue de... ¡Guau! Esto me gusta a mí. ¿Te gustó? Sí. Yo me sentí como si hubiera... Es esa sensación que a veces tienes con tecnología o con cosas... Esto se supo a mí. Sobre todo cuando empezó, porque voy a introducir esto ahora brevemente, el dispositivo se plantea que va a tener varios modos de uso. Tres modos, fundamentalmente. Un modo en que podríamos llamar estilo libre, le llaman a eso freestyle, en el que tú vas caminando en la dirección que quieras, y el dispositivo simplemente va tratando de que en cualquier dirección que elijas mantengas línea recta, te va a evitar obstáculos y te va a llevar a frenar si estás aproximándote a algo que él no puede manejar, como una pared o lo que fuere. Tiene otro modo que es de seguimiento, en el cual el dispositivo sigue un objetivo en movimiento. Ese objetivo puede ser otra persona, que se plantea si va a ser con la cámara, se plantea si va a ser con un beacon que la otra persona tiene. Entonces, sencillamente tú vas empujando el dispositivo y cuando el objetivo al que tú estás siguiendo cambia de dirección, pues el glide te va a inducir a cambiar de dirección. Y tienes el tercer modo, que es el modo de guiado, en el cual tú tienes una ruta prefijada y el glide va a tratar de que tú te mantengas en la ruta. O sea, estás caminando y tienes que girar a la derecha, el glide te va a dar una indicación a través del mango, gira a la derecha y va a girar sus ruedas y demás. Entonces, cuando empiezas, lo primero que te hacen en la demo es que te muestran el modo de seguimiento. Claro, como es una prueba de concepto, el ingeniero tiene un control remoto y te va guiando. Entonces, yo salí caminando con aquello y la sensación, la respuesta del dispositivo cuando estás caminando y te va tirando a la derecha, a la izquierda para cambiar de dirección, yo la sentí súper orgánica, la sentí súper fluida. Y dije, guau, esto funciona. Me imaginé inmediatamente andando por un aeropuerto, por sitios esos que son medio complicados, donde a veces orientarse es muy difícil y tener ese nivel de guía para andar rápido, para andar despreocupadamente. Y dije, guau, esto se siente bien. Qué interesante. ¿Tú también, Moi, cuando estuviste probándolo por la estación...? Sí, yo tuve dos pruebas. La primera fue en una sala cerrada, digamos en una sala de reuniones, más o menos. Y luego la otra fue en una estación de Londres, en una estación de tren bastante grande, con bastante gente. Mi primera prueba fue, como dice Roberto, primero te controlaban ellos en una sala de reuniones. Y, bueno, bien, la verdad que muy bien. Efectivamente, yo también sentí los giros bastante fáciles de identificar, bastante fácil de seguir. Yo en ese momento no tenía muy claro, en la primera prueba no tenía muy claro si tenía que ir delante o al lado, y entonces ahí tuve el minuto este, hasta que me dijeron que tenía que ir delante. Pues era un poco raro, porque, claro, él giraba, pero como no iba delante de mí, pues no era totalmente preciso. Cuando lo puse delante, pues claro, todo cambió. Pero realmente lo del guau que dice Roberto, mi guau fue en la estación. O sea, yo ponerme a andar en la estación, entre gente que me venía, columnas que yo ni siquiera sabía que estaban ahí, que luego me dijeron, es que has pasado entre columnas, yo no me había dado cuenta. O sea, es impresionante. Y eso que tenía, por supuesto, al ser un prototipo, tenía sus fallos. En mi caso, por ejemplo, los frenos no estaban funcionando en ese prototipo. Pero es increíble la sensación de decir, voy a ir andando con confianza, o como con un perro, en el sentido de que no me voy a chocar. Es impresionante, la verdad, está muy bien. Muy bien, ahora lo que tienen que conseguir es que, con tecnología, no con un control remoto, ni con el seguimiento de un beacon, que para los que no sepan lo que es un beacon, es una baliza, una especie de bluetooth de baja energía, que se lleva adelante, identifica a una persona y el dispositivo lo sigue. Es como una señal. Entonces, bueno, decía que el objetivo final que tiene LIDE es que todo esto lo pueda hacer tecnología autónoma. Y claro, es un reto, a mí particularmente me parece muy fuerte, pero bueno. Yo Ricardo, perdona, la prueba que hice en Paddington, en la estación de Londres, esa fue sin control. O sea, bueno, hubo parte con control, pero gran parte lo hice sin control, yendo para donde yo quería. Yo también. La segunda prueba que yo hice fue así también, que fue en un salón lleno de sillas, mesas, obstáculos, personas también, los otros que estaban esperando la demo, los propios miembros de la compañía que se te meten en medio para simular el juego. Entonces la instrucción es, tienes que atravesar esta sala. Hay un sonido, o sea, hay una persona que se pone fena, tienes que atravesar esta sala y agarra hasta donde yo estoy. Y esa prueba yo la hice también a estilo libre. Con el dispositivo yo sé a dónde quiero ir, pero no sé lo que tengo en medio, no sé a dónde me voy a encontrar. Y yo la hice varias veces. No sé si la segunda vez que la hice ya pensé, yo voy a ver si este aparato de verdad sirve. Y ahí prácticamente me eché a correr. Yo quiero correr con estas cosas, amor, ¿qué pasa? Lo peor que puede pasar es que me voy a chocar con algo y voy a terminar con eso. Arranqué a correr y empecé a dar vueltas por alrededor de mesas, sillas, por gente. En ese momento, y eso totalmente dependiendo del modelo que tienen ahora que está medio entrenado, la única cámara que tienen, o sea, lo básico que tienen. El modelo es su inteligencia real. El modelo es su inteligencia artificial propietaria que están entrenando ellos, que es la que toma las decisiones para que tú no choques. Exactamente. Y esa rapidez de respuesta que me tiraba a la izquierda, me tiraba a la derecha, y yo seguía sin perder la velocidad y sobre todo sin perder la confianza. A esto hay que dedicarle tiempo. A esto hay que ponerle energía. Este aparato tiene que salir del adelante. Personalmente, eso es algo que a mí siempre me ha golpeado de alguna manera. Yo nunca me he sentido demasiado cómodo caminando rápido con un bastón. O sea, yo camino confiado con un bastón, en un sitio conocido, mucho mejor, qué sé yo. Pero yo siempre tengo la sensación de que no voy con el bastón todo lo libre que yo quisiera. Y lo sé porque mi esposa es usuaria de perroguía, yo he andado con perroguía, yo sé la sensación que da un perroguía es muy diferente a la que da un bastón. En ese sentido, el perroguía te da mucha más confianza, te da mucha más libertad. Por lo menos así lo experimento yo. Y yo personalmente no creo que llegue a tener un perroguía. Pero la sensación que yo experimenté cuando esté a correr por aquel salón, con aquel aparato, es decir, esto se parece más a como yo quisiera caminar. Esto se parece más al estilo de viaje que a mí me gustaría. Por supuesto, yo no andaría por el mundo corriendo, pero un poco es la idea. O sea, puedo andar caminando despreocupadamente y con tiempo de reacción suficiente para evitar obstáculos, para cosas así. Y como concepto me encantó. Yo voy a contar lo que me pasó a mí en la primera prueba que hice en la sala, en el modo de estilo... Bueno, de hecho lo voy a contar también porque me parece importante, la verdad, cuando se hacen las cosas bien me parece importante contarlas. Yo le pedí a los tres que vinieron a Londres, le pedí si por favor podía dejarme grabar un vídeo caminando con el Clay. Y me dijeron que sí, que sin problema. Cuando me dieron el aparato, le dije, ¿en qué modo está? ¿Está en modo freestyle o en modo control? Dice, pues en el que tú quieras, graba lo que tú quieras. Lo grabé en modo libre y claro, ¿qué pasó? ¿Qué pasó? Como empezó a esquivarme cosas y en un momento dado como que... a la izquierda y caminé como un metro más recto o no sé cuánto sería pero bueno el caso es que chocó el aparato con una silla y claro todo esto está grabado en el vídeo a mí en ningún momento me dijeron oye vamos a editar esto vamos a tal no yo no dijeron nada yo les pregunté que qué había pasado que porque había chocado y lo que pasaba es que claro como en nuestro prototipo no estaban funcionando los frenos lo que me dijeron es que lo que había pasado es que el glide no tenía un espacio por donde girar y ahí lo que debería haber hecho es frenar si lo hubieran funcionado como no había manera pues no chocó él con la silla pero lo que lo que pasó fue que no giró porque él consideró que no había un espacio suficiente entre una silla y otra para meterme por medio y no había otro sitio para donde ir salvo hacia atrás y me parece muy interesante también que me dejaran grabar el vídeo sin ninguna restricción y sin incluso con el choque ni siquiera me dijeron ellos hoy lo grabamos otra vez para que no subas esto no no yo les pregunté me lo explicaron qué es lo que haya pasado y con total naturalidad me parece también muy importante pues eso no vender humo destacar esta transparencia no que tienen con la información y con lo que están haciendo no porque lo que está haciendo esta empresa que si queréis hablamos un poco haciendo un pas de quiénes son ellos los que han puesto en marcha este este proyecto y además la forma en lo que lo están haciendo y luego seguimos hablando del dispositivo así que roberto una de las cosas que me llama la atención de este proyecto es que se desmarca del estilo tradicional de las compañías que desarrollan productos para ciego y productos para personas con discapacidad donde básicamente es una caja negra un día te enteras de que hay un producto te hacen una demo en ciertos sitios y mira cómpralo y por supuesto unos precios prohibitivos normalmente tienes que utilizar beneficios tienes que tratar de tener un programa que te lo financie cosas estas estas personas se están apostando por crear una marca de consumo y por un desarrollo abierto completamente abierto desde el principio plantearon el concepto empezaron a tratar de hacerse escuchar por la comunidad de personas ciegas fueron al al cies al evento grande este de las vegas en las vegas el evento el evento este de electrónica de productos de consumo ahí bueno llevaron su primer su primer prueba su prototipo su primer prueba de concepto y desde entonces se han planteado un desarrollo abierto entonces tienen reuniones mensuales a través de zoom con los usuarios donde cualquiera puede participar uno se registra en la página web y te mandan los enlaces están viajando por todo el mundo enseñando sus prototipos para recoger la alimentación de los usuarios y saber qué es lo que funciona qué es lo que no funciona qué es lo que quiere la gente hecho el concepto ha cambiado muchísimo desde que yo empecé a escuchar sobre glide cuando se planteaba bueno un dispositivo para cubrir ciertas necesidades básicas de movilidad para personas que no tengan movilidad e ir expandiendo desde ahí y evidentemente o por lo menos la sensación que yo tengo porque nunca lo han dicho claramente pero a lo largo de los meses yo he escuchado como el enfoque del concepto ha ido cambiando ya se está hablando activamente de que el glide podría funcionar en un aeropuerto de que podría funcir que la idea es que funcione en todo tipo de terrenos incluso se habla de que hacerlo súper modular para que las ruedas se puedan cambiar porque si tú el terreno por donde tú te mueve requiere ruedas diferentes pues tendrás ruedas diferentes ya se habla de trabajar con personas sotos ciegas de un enfoque súper elemental para personas sin movilidad personas que han perdido la vista recientemente hemos pasado a un enfoque esto es para tanta gente como sea posible y vamos a tratar de desde el principio abarcar tantos escenarios como sea posible con una fundación con una base que permite extenderse entonces eso eso genera cierta confusión si se quiere sobre todo en las demos se le hace mucho énfasis a la gente lo que estás probando no es el producto final lo que estás probando es un prototipo es una prueba de concepto es lo que podría llegar a ser hecho el hecho de que una persona te esté llevando el control remoto lo que te está diciendo es esto no funciona si es en el usuario con el que están hablando tiene más o menos una formación técnica ellos no tienen ningún problema en darte detalles de la red neuronal que están entrenando de cómo lo están entrenando de lo que le funciona de lo que no en ese sentido súper increíble son súper sentís partícipe de la el desarrollo del prototipo es muy fácil sentirse partícipe porque se percibe mucho la apertura del interés la gente que lleva muchos años trabajando en tecnología que están muy acostumbrados a desarrollar de esa manera y se le sienten muy abiertos muy valiente si se quiere ellos también son usuarios de este producto amos miller que es el fundador de la empresa uno de los cofundadores y el alma del proyecto es una persona ciega varios de los ingenieros que trabajan en el proyecto son ciegos por lo menos uno de ellos es ciego yo en lo que dices también es muy importante efectivamente amos miller que además trabajó en microsoft en saunas que me parece ese proyecto en el trabajo en microsoft es el desarrollador de soundscapes actual voice vista que no son gente no son gente que que haya llegado al mundo al mundo tiflo sin ser usuario sin tener conocimiento de usuarios y te presento esto que lo hemos visto muchas veces muchos productos que te lo presentan te los venden a 5.000 euros y en realidad pues no te soluciona prácticamente nada no es eso no es eso hay proyectos académicos con muy buenas intenciones pero nunca han visto a un ciego ni en foto y quieren solucionar la vida no te pasa mucho a mí me pasa cuando hablo con desarrolladores de producto y de cosas que están hablando del producto y están hablando de personas ciegas no voy a decir nombres pero pasó me pasó hace poco con una entrevista que escuché de un producto que es cual anda tratando de llamar la atención y la sensación de que te da esta gente no tiene ni idea te hablan de los ciegos como de un mundo y entonces a veces cosas básicas y se sorprenden exacto es un mundo ajeno a veces con interés incluso la actitud no necesariamente negativa pero es parte del desconocimiento tú hablas con amos hablas con kyle al otro cofundador y son gente que saben de lo que están hablando conocen a sus usuarios se plantean problemáticas concretas las las analizan desde un punto de vista objetivo y realista y eso da mucha confianza correcto y saben que la retroalimentación de los usuarios que serán los clientes finales de ese producto es importantísima porque nada para los usuarios sin el usuario y esa máxima la llevan hasta el final y eso es buenísimo para cualquier desarrollo pues sí yo creo que de hecho ha sido lo que también ha motivado a que mucha gente bueno no sé cuánta gente pero si bastante hayamos decidido invertir tiempo y dinero en el proyecto yo por lo menos en mi caso es la primera vez que invierto las dos cosas juntas en un proyecto sobre todo tanto dinero tanto tanto tanto para una persona pero es yo en mi caso es mi primera vez y arrepentido para nada desde luego tiempo lo sabemos que has invertido y además te agradecemos que lo hayas contado porque eso también está muy bien para los que no tenemos información directa como estáis haciendo ahora roberto pero voy a haceros una pregunta indiscreta cuánto dinero os ha costado ser cofundadores y qué conlleva esto pues yo en mi caso en euros hablando en euros creo que fueron 800 y algo porque te lo ofrecían con un 40 por ciento de descuento su precio base será de 1500 dólares y te ofrecían con un 40 por ciento de descuento y un ahorro también en la suscripción mensual al sensible way finding que luego mencionamos un poco lo que es que básicamente es la red de inteligencia artificial que están entrenando ellos para guiado entonces eso yo creo que a mí me costó casi lo creo que 800 y algo 900 euros creo recordar a mí me costó 2000 dólares con impuestos y todo es lo que describe el precio aquí el precio financiera de 1500 sin impuestos cuando se habla de precios se habla sin impuestos aquí los impuestos de hecho se nos dijo que en europa todavía los impuestos no nos los cobraban porque como no sabía en qué categoría iban a ubicar el robot pues no sabía si iban a tener un iba otro otro entonces bueno eso seguramente no lo tengan que cobrar después o sea que me parece que si me lo cobraron aquí lo que sí yo estuve muy escéptico la verdad también canta el proyecto pero mantuve una posición escéptica hasta el último minuto en que me decía esto merece la pena sobre todo después de este último vídeo que sacaron de aspiracional como decir y me dije yo yo meto dinero en un montón de cosas que al final no van para ninguna parte esta gente está haciendo muy bien las cosas y además tengo muchas ganas de probar lo primero que haga así que además decirlo por lo menos en eeuu ellos se comprometen en cualquier momento te pueden devolver el dinero si quieres antes de que salga el dispositivo e incluso cuando salga el dispositivo tiene 60 días para si quieres devolverlo y reclamar te van a devolver íntegramente todo lo que has pagado yo no me planteo eso simplemente yo quiero ser parte del proyecto y quiero probarlo y la suscripción no no me apunté la suscripción mensual famosa eso lo veremos cuando salga la suscripción es objetiva o es obligatoria creo que sí es obligatoria porque si no te quedas sin las sin el sin el servicio de inteligencia artificial que al final es lo que va a guiar el aparato bueno creo el tema de esto voy a decir lo que creo puedo estar equivocado la red neuronal que están entrenando para evitar obstáculos y guiado es el dispositivo el local lo que sí es el local es un modelo en local lo que sí va a hacer falta la suscripción es porque ellos van a por supuesto proveer servicios gps para orientación con lo cual necesita conectividad móvil y se plantean también utilizar modelos con modelos de inteligencia artificial generativa para proveer cosas como descripción de imágenes claro la voz también ya eso requiere yo no sé por ejemplo ellos dicen claro que efectivamente si te quedas sin internet o te quedas y por ejemplo en un metro o en un sitio donde no haya cobertura el aparato no te va a dejar tirado en cuanto a evitar obstáculos pero yo no sé por ejemplo para el tema de buscar por ejemplo un paso de cebra o para detectar de pasos de cebra y eso yo no sé ya de dónde va a tirar si va a ser de local o no lo que están entrenando la red neuronal para para porque eso necesita ser muy rápido entonces se supone lo que tienen previsto es que la cámara nueva hasta que han puesto les sirva desde información suficiente para identificar el paso de cero claro bueno y estratégicamente es imprescindible tener esa autonomía que sólo dependa de la energía del aparato porque en un momento de sombra de transmisión te deja tirado y para una persona ciega que sin comunicaciones no poder moverse es una pena no por eso lo que es lo básico siempre va a estar en local porque si no efectivamente claro tú vas a un sitio que no hay cobertura y te quedas con un aparato y inservido nada más se supone que te va a ayudar también en interiores y en interiores en la probabilidad por ejemplo imagínate un subterráneo un metro la posibilidad de que no haya coberturas grandes y te da fiabilidad porque esa parte cuando es autónomo y él no por sí mismo va tomando decisiones y si hay un obstáculo entiendo que lo esquiva o lo rodea o algo así como sabes que lo está que te está llevando por otro camino porque hay algo ahí o porque ha salido la pinza o cómo te da esa fiabilidad y seguridad yo creo que eso lo vamos a tener que ver es que no queda otra que la misma confianza que tienes con un perro claro o sea como supongo que la persona no es lo mismo porque un perro decías porque lo hace pero en un aparato fíate de un aparato todos sabemos que los aparatos no son 100% fiables no que escucha yo por ejemplo yo tengo bastante gente bastante bastante gente que tiene perro y que lo que más le costaba era fiarse del perro claro yo sé que eso es así claro pero de un perro pero de un aparato pero fíate de otra cosa es decirte de un aparato no que la informática es la única ciencia es la única ciencia que bajo las mismas condiciones de presión temperatura húmeda etcétera cada vez hace lo que le da la gana entonces yo te podría decir por ejemplo y qué pasa yo he tenido perro vale y ahí entra también el control del usuario pero alguien te podría decir oye y qué pasa si de pronto ve el perro a un perro y se olvida del ciego y va por el perro o ve comida comida o claro eso pasa al final esto es un dispositivo muy nuevo que vamos a tener que ir descubriéndolo sobre la marcha si da confianza si no da confianza yo de hecho esa es una de las cosas que hablábamos con igual me adelanto un poco pero pero yo sé que o creo que este dispositivo no va a venir a solucionar sobre todo en una primera versión el 100% de los problemas que tengamos en la en la movilidad estoy seguro 100% de que no va a ser así pero ninguna solución tecnológica da un 100% en nada solucionar algunas cosas para otras habrá que usar otras cosas es más de hecho algo que se me ha pasado comentar antes ellos tienen pensado por conversaciones que han tenido con usuarios ellos tienen pensado incluir en el propio cuerpo del light un bastón para para temas de escaleras y bueno y bueno yo estoy un poco impresionado porque os considero dos personas sensatas con muchos conocimientos de tecnología y que habéis con este entusiasmo de lo que hoy por hoy es un prototipo y prácticamente es un concepto pero que estoy transmitiendo esta información no tan positiva la verdad es que vamos es emocionante porque a mí me hace replantearme muchas cosas yo verdaderamente aún estaba en el punto escéptico y poco crédulo no pero creo que en este momento ha cambiado un poco la cosa y si os parece podemos hablar un poco más del dispositivo de sus componentes si solo acordar eso que estás diciendo ricardo porque uno está muy entusiasmado con el proyecto ya uno pasó la fase de decidir qué iba a hacer con eso pero si es verdad que sobre todo para la gente que se podría plantear porque todavía se puede reservar o preordenar si se quiere hay mucho con el glide que todavía está sin aclarar no para nosotros sino por los propios desarrolladores que no saben qué camino va a tomar se habla por ejemplo el tema de las escaleras a día de hoy no hay una solución para subir y bajar escaleras si llegas a una escalera tienes que soltar el glide usar un bastón o como subir la escalera sin como le preguntaban a hemos ponido las escaleras mira yo agarro el glide y con el propio frontal del glide porque el glide tiene un frontal un bumper para un vehículo con eso mismo yo sí lo veo eso sí que lo veo si voy tocando los escalones pero por ejemplo qué tal qué tal lugares donde tienes tres o cuatro ciegos imagínate una convención como un puñado de ciegos con glide que va a pasar con eso o un sitio súper concurrido donde tienes un montón de gente tienes carritos de la compra cómo se las va a arreglar o cómo se las va a arreglar en terrenos accidentados pero fíjate por el tamaño que sí sí sí sí pero por el tamaño que tiene y todo y lo que ha comentado muy el llevar un bastón pegadito a tu glide o encima para momentos así un poco críticos no tiene que ser todo esto es un pensamiento propio no es una emergencia claro es decir en un momento de emergencia tengo otra alternativa es otro auxiliar de movilidad que encima tenemos la suerte de que es muy discreto ocupa muy poco es muy portable y bueno y se saca y luego como pesa poco el glide pues lo subimos lo bajamos en las mismas condiciones que llevamos un bolso con nuestro bastón blanco no entonces bueno es un planteaje es un mal para mí menor no mayor en este caso no sé cómo lo veréis vosotros yo lo veo igual que por cierto nos dijo bueno ya se lo comenté hace un mes y medio dos a los chicos de glide y nos lo dijeron ahora cuando estuvimos en londres que que les enviáramos vídeos de sitios que nosotros pensábamos que para glide pudieran ser conflictivos o sea que por ahí también están también le decíamos es que quizá en eeuu yo no lo sé porque no he estado nunca en eeuu pero siempre tenemos la imagen aquí de que en eeuu son calles más anchas calles con y aquí en europa hay muchísima calle o hay más calles estrechas callejones los cubos de basura y en una calle estrecha con lo cual ya no tienes casi espacio entonces le planteamos mucho ese tipo de dudas y ya pues eso en principio querían feedback de vídeos de sitios conflictivos o que pensábamos que podrían ser conflictivos para él sí sí claro en cada país hay una infraestructura y una forma de de gestionar los espacios y glide tiene que ser mundial me refiero tú puedes desplazarte a cualquier sitio y debes tener seguridad pero lo que tú dices yo a mí yo estoy de acuerdo contigo me parece que que si tengo un aparato que me soluciona me lo estoy inventando es que te soluciona un 70 por ciento de los problemas que tienes en tu movilidad y para el otro 20 o 30 vas a tener que utilizar un bastón a mí me parece algo realista y prefiero que sea así a que me digan que va a poder vas a poder utilizar el aparato en todo tipo de situaciones y luego resulta que llegas a unas escaleras y por lo que sea necesitas el bastón y no ya tengas que llevar algo aparte un bolso con el bastón o lo que sea y me llama mucho la atención los dos porque la sensación ha sido la misma la que habéis transmitido tanto en el salón donde corría roberto o en la estación donde tú ibas es ya la despreocupación el poder ir con algo y no estar pensando me voy a dar un golpe no me voy a dar sino esa sensación un poco de libertad no de poder avanzar sin estar pendiente de todo realmente es muy valiosa o por lo menos yo lo considero así poderse relajar caminando yo nunca he podido hacer con un bastón tampoco es quizá hay zonas y situaciones en la vida en que si ocurre un poco esa relajación hasta cierto punto pero siempre siempre hay siempre hay un punto ahí medio complejo y las así con ese prototipo es así con este dispositivo se puede mejorar eso sobre todo lugares complejos donde esos aeropuertos o quizás una cosa que pasa mucho en eeuu llegas a un sitio te deja el vehículo donde estás y tienes que atravesar una zona de parqueos para encontrar un negocio para encontrar algo eso es eso es un tema porque son espacios abiertos sin apenas referencia correcto y si bueno y el glide puede mejorar eso bueno aparentemente sí porque una de las cosas que puedes hacer es deberías poder hacer según se plantean ellos es elegir un objetivo un objetivo que esté a la vista de la cámara y que te lleve en esa dirección y una cosa que te dicen hay por ejemplo días un hotel y le puedes indicar al glide que busque el escritorio que busque el mostrador de recepción y yo le decía bueno pero un mostrador de recepción al final qué cosa es en una cosa alargada que al final te puede terminar llevando al mostrador de la cafetería no creo que sea diferente bueno pudiera ser no sé todas esas cosas las vamos a resolver pero la idea mira incluso si no pudiera encontrar objetivos tan solo poder caminar y tener la certeza de que uno está siguiendo una línea recta ya para mí es una ya para mí es un avance que en cuanto a lo de la comodidad con al caminar yo que estoy totalmente de acuerdo yo lo hablaba de hecho estos días con varias personas yo vivo a 20 25 minutos de casa de mi pareja andando es un camino sencillo lo que pasa que tienes que atravesar una calle que la calle alcalá aquí en madrid que es una calle en la que hay mucha gente y a muchas veces coge el metro porque me da pereza ir esquivando a la gente que va con el móvil que no se me da pereza de bajo el metro y hasta pero me gusta ir andando y puede ir de hecho cuando es de noche o muy pronto por la mañana si voy andando porque no hay casi nadie maravilloso pero yo creo que esa despreocupación de ir relajado caminando es algo que nos va mejor yo por lo menos lo espero como agua de mayo una cosa que plantean ellos ya para dando la transición al dispositivo es que se va a poder enseñarle rutas al clave por ejemplo si hay una ruta que tú haces con cierta frecuencia la puedes grabar de alguna manera o la vas a poder grabar en una de las visiones que ellos tienen de implementación y si le puedes enseñar una ruta que haces con cierta frecuencia por lo menos tienes la garantía que te puede relajar y arrancar a caminar si habrá un cambio significativo en la ruta ya te alertará porque eso habrá que implementarlo de alguna manera o incluso me planteé bueno qué tal explorar explorar sin sin sin rumbo en un sitio nuevo voy a salir a caminar no digo que eso se puede hacer pero yo perfectamente puedo imaginarme la sensación en la que yo le activé al clave un modo de este es mi punto de partida en algún momento yo voy a querer regresar aquí vamos a poner un beacon aquí es que eso se puede hacer incluso con cosas como la escuela exacto vamos a arrancar a explorar me perdí ya no sé ni dónde estoy hoy ya quiero regresar pero ya no sólo para ti roberto o moisés que tenéis una movilidad elevada aceptable avanzada por llamarlo de alguna forma soy bastante autónomos independientes la gente con más limitaciones que tienen menos movilidad no tienen no pueden hacer una ruta porque no controlan bien pero si el aparato es capaz de memorizar rutas alguien que le acompañe la primera vez y hagan la ruta la comparta o yo por ejemplo grabó una ruta de la comparto correcto es que son magnífico y a mí me encanta que roberto haya dicho esto de esta última cosa que ha dicho de volver a hacer salir a explorar y regresar porque es una cosa que yo tenía en cabeza se lo comentaba un amigo hace un mes así y imagínate tú vas a una casa rural vas a una casa me voy a dar una vuelta por ahí por la tarde no quiero ir solo o no quiere la pete de salir nadie me voy yo solo lo grabó mi punto de partida y cuando quiera cuando me aburra digo regresa que efectivamente no estamos diciendo que ya esté implementado eso sino que son cosas que imaginamos me gusta que más gente imagine lo mismo porque entiendo que vamos por un camino no tan no tan excéntrico no tan sí sí sí pero es repetir mejor muchas ya hechas o hacer cosas que ya están más o menos superadas con la tecnología actual no pero yo entiendo que el punto más fuerte de este aparato es la inteligencia artificial no la hora de tomar decisiones sobre la marcha de poder evitar obstáculos o yo creo que el punto más importante va a ser ese pero no sé si actualmente tenemos la tecnología suficiente para poder hacer todo eso en local en analizar vídeo en tiempo real en local y poder tomar decisiones que resuelva correctamente esas situaciones no que puedan producirse correcto si queréis hablar también un poco de los sensores mientras explicáis esto que comenta arturo todo lo que conozcáis al respecto yo de sensores se que lleva bueno las dos cámaras que ya le van a poner el siguiente prototipo dos camas dos cámaras lleva también un líder creo Uno o dos, no estoy seguro tampoco, porque eso ha ido variando. Y creo que lleva también un sensor de desnivel o algo así para... Pero no sé qué más, la verdad. Pero son componentes de automóvil, en realidad. Lo interesante es que ellos están utilizando tecnología existente y me parece que Kyle, uno de los cofundadores que tiene cierta experiencia previa en desarrollo con este tipo de componentes, se ha centrado en buscar tecnología que ya es fiable, que ya funciona, e integrarla. Y fundamentalmente es tecnología de automóvil lo que están usando. Correcto. De hecho las ruedas van por servofrenos, ¿no? Sí. Exactamente. Tengo entendido que sí. Eso es así. Bueno, pues por lo que comentaba Arturo, ¿qué pensáis del tema de cómo gestionará en local la inteligencia artificial que están entrenando? ¿Pensáis que será capaz el dispositivo de guiarnos? A ver, esa inteligencia artificial se supone que va a hacer una serie de cosas muy concretas y eso ayuda mucho. Cuando tú tienes una tarea concreta para... Eso lo vimos el otro día con el podcast que hicieron con este señor, Alfonso D. Cuando tú tienes una tarea concreta para que la inteligencia artificial haga y tiene suficientes datos, puedes entrenarla y eso puede dar muy buenos resultados. La inteligencia artificial va a hacer cosas muy concretas. Detectar obstáculos que tengas delante y buscar rutas alrededor de esos obstáculos y bueno, mantener la línea recta ya no es necesario. Y lo tercero que va a hacer es identificar cosas muy concretas. Identificar quizás pasos de cebra que tienen una configuración más o menos de estándar o si no poca variación e identificar ciertas cosas que podrían ser problemáticas como quizás agua o no sé, el otro día le preguntaba a alguien si Glide podría identificar excrementos de perro, por ejemplo. Importante, importante, muy importante. Oye, hay aspiradoras que se supone que ya las identifican, o sea, que entiendo que sí. A eso voy ahora. Todas esas funcionalidades ya son posibles con inteligencia artificial y con visión por computadora. A mí eso no me preocupa demasiado porque ya todo eso está probado en el terreno de Machine Learning. A día de hoy, entrenar un modelo para que identifique objetos, para que identifique texturas, para que identifique bordes, eso se puede hacer y ya se sabe cómo hacerlo. Ya hay arquitectura para eso, de modelos de redes neuronales para eso y hay técnicas en Machine Learning para hacer eso. Yo pienso que eso va a funcionar, al menos para los escenarios elementales. Ahora, en la práctica, y ahí es donde entra el escepticismo, ¿cuán flexible va a ser esa inteligencia artificial para lidiar o ese modelo? Y eso va a ir mejorando, por supuesto. Con imprevistos. Porque ya que ellos tengan datos, van a refinarlo. Pero, ¿cuán flexible va a ser en entornos dinámicos, en distintos tipos de terrenos? ¿Qué tal si se te enfanga la cámara? No sé, tú ni lo sabes. Que pueden pasar tantas cosas en el mundo real, ¿cuán tolerante va a ser esa inteligencia artificial? Creo que se nos olvidó contar, cuando describimos el dispositivo, que en principio lo que ellos tienen previsto es que sea resistente a lluvia ligera o media, o no a meterlo en una piscina, pero sí a lluvia ligera o media, va a ser resistente. O sea que, bueno, pues, por ese lado. Creo que es IP5. Si se moja la cámara, le caen unas gotitas a la cámara, cualquier cosa, pues, claro. Exacto. Y, bueno, son todos modulares. Así que todas esas cosas, pues, tendremos que ir descubriendo las según avance del dispositivo. Que es que a mí también es una de las cosas que más, a mí particularmente ya como usuario, pues, del tipo que soy, a mí es una de las cosas que más ilusión me genera ir en este proceso viendo cómo se van resolviendo también esas dificultades. No, sin duda. Lo que ocurre es que, por ejemplo, las aspiradoras inteligentes, que todas las habéis citado, dentro de un espacio controlado como es un domicilio, pues, los imprevistos son menos. Es decir, son situaciones prácticamente todas repetitivas. Es decir, el medio urbano, por no irme al rural, es la jungla. Es decir, es la jungla por todo lo que se puede encontrar. Y un tema que no hemos tocado tampoco y que sí que me gustaría comentarlo, que de hecho es importantísimo, es, te van a ver cuando lleves el aparato, te van a respetar, te van a identificar o te van a pasar por encima con un patinete. Claro, esto es así. De hecho, hay un proyecto, creo que lo compartí con vosotros, que era el proyecto este del VIP, ¿no? Que llevaba la maleta de la doctora. Sí, la japonesa, ¿no? Sí, exactamente, porque se dieron cuenta la gente de IBM, bueno, en concreto, un grupo de estudio, ¿no? Más que IBM era. Que para este tipo de dispositivos, cuando ocupaban la calle, era tal el descontrol, cuando habían masificaciones y demás, que no respetaban a la persona ciega ni lo que llevaban en la mano ni nada, vamos, que lo atropellaban. Entonces, es un sistema muy curioso que detecta lo que es la intromisión o el posible impacto futuro y avisa, advierte tanto a la persona que no ve, para que se ponga a la defensiva y dispare. No, eso de disparar es broma. En algunos casos estaría bien. Con la pistolita de agua, aunque sea. Una descarga o algo. Un sitio fuerte para que el despistado no arramble con el dispositivo. Entonces, bueno, yo entiendo que esto también es una circunstancia que a mí particularmente me interesa. Sí. Yo aquí te puedo decir dos cosas de lo que ya sé y luego ya podemos hablar de lo que pensamos. Pero de lo que ya sé, te puedo decir que mi experiencia de cinco minutos, por supuesto, en la estación de tren en la que estuve en Londres, no tuve ningún altercado con gente. Bueno, en general ningún altercado, pero ningún altercado con gente, de chocarme con gente, de que me atropellaran y nada. Fueron cinco minutos, o sea, que perfectamente no quiere decir nada, pero no lo tuve. Y luego lo otro que también se sabe es que el dispositivo va a ser fácilmente identificable, o fácilmente identificable o fácilmente visible, mejor dicho. Va a llevar un anillo LED, o sea que en principio se va a identificar bien. Que la gente lo asocie a que eso sea de un ciego, pues supongo que tendrá que estandarizarse o tendrá que acostumbrarse la gente a ver eso por la calle. Sí, habría que hacer campañas y todo, igual que le... Le podrían hacer que tuviera forma de R2D2, que todo el mundo sabe lo que es. Sí, exactamente. Bueno, eso no eres el primero que sugiere eso, ¿no? Bueno, lo haría mucho. Arturito. Arturito, a ti a ti, Arturito. Otra cosa que quería comentar es la fecha de lanzamiento que ellos tienen prevista, que en principio es en otoño de 2025. En principio en febrero comenzarán con las betas y de ahí a septiembre, octubre lo quieren sacar. Yo, yo ahí casi es donde soy más escéptico. A mí me cuesta pensar que, bueno, yo creo que la gente lo va a ver y lo va a ver. Yo creo que la gente lo va a ver y lo va a ver. Y casi es donde soy más escéptico. A mí me cuesta pensar que eso esté para sacar en esa fecha. Sin, sin mucho dato en los que basarme. Es una opinión sin mucho fundamento. O sea, que tampoco, tampoco sé si tiene mucha importancia, pero sí me cuesta, sí me cuesta creerlo que no vaya a haber un retraso en eso. ¿Vosotros pensáis lo mismo, Arturo, Roberto? Todo va a depender si ellos consiguen cerrar el diseño para la fecha que quieren. Y esa es la parte complicada. Después hay una parte que yo no estoy escuchando. Y mira, igual estaría bueno preguntarles de, para funcionar en cualquier país, Estados Unidos, en Europa, ellos van a necesitar certificaciones. Aprobación de la FCC por aquí, de otras, de otras agencias federales. Esos procesos toman su tiempo. Ellos están contando con el proceso, con el tiempo de fabricación. Pero, claro, quizás, depende cómo lo distribuyan. Quizás las primeras unidades las puedan distribuir porque son directos usuarios. A lo mejor se pueden plantear aquello como esto es una, un proceso de prueba extendido. No sé si eso se podrá hacer. Estoy hablando sin conocimiento. Hay muchos factores por los que esto se puede, se puede complicar. El primero es que no logren cerrar el diseño cuando quieren. Eso puede pasar con cualquier producto que se prevea que se lanza en una fecha. Después pasan cosas con la industria, pasan cosas con la disponibilidad de materiales y, sobre todo, pasan cosas con dificultades inesperadas que aparecen. A lo mejor de pronto en febrero se dan cuenta que tienen un problema de diseño y que no es tan sencillo de solucionar y tienen que volver a la fecha de diseño y cambiar cosas. A ver, ellos hablan con mucha confianza de que eso va a ser así, pero cualquiera que haya visto cómo se desarrollan productos sabe que las papeletas son para que no. ¿Pensáis vosotros que la comunidad de graders es consciente de que esto es así o la gente está muy inquieta y con ganas de que el producto llegue en 2025, sí o sí? Yo te puedo hablar de mi entorno o no te puedo hablar de mucho más, la verdad, pero de mi entorno creo que sí que la gente es bastante consciente y está el pensamiento este de que cuando llegue, que llegue bien o que no llegue una cosa a medio hacer. Creo que sí se acepta bastante el retraso, creo que la gente o por lo menos mi entorno sí lo acepta bastante. Yo creo que vamos a ver lo de siempre, si no consiguen cumplir la meta vas a ver siempre el grupo de gente que va a decir bueno mira esto no es tanto así, dijeron que en septiembre, ya estamos en diciembre y esto no ha salido, ¿qué pasa? Y ahora las reuniones con explicaciones de por qué no ha salido, dándole ánimo a la gente, eso siempre pasa y no sería la excepción en este caso. Quizás, quizás ahí es donde se va a poner a prueba cuánta confianza tienen ellos la gente, en este caso como ellos han sido tan transparentes, quizás la gente sea más tolerante, pero ellos mismos están dando gran seguridad de que van a cumplir las metas. Sí, no me parece bien cerrar ahí filas e intentar que no se despiste el equipo y trabaje con una fecha, aunque luego se demore. Eso se les ha preguntado, no somos los únicos que se cuestionan, si eso va a estar para 2025. La parte más importante es cerrar el hardware, decidir si ponerle o no un lidar o ponerle dos, una otra voz, que son decisiones que luego te condicionan el producto a futuro. Entonces, eso no son fáciles. Una cosa es también diseñarlo sobre el papel y luego a la hora de mandar eso a producción, ser capaces de tener las piezas en tiempo, en forma, con la suficiente calidad, con tal. Luego el software ya se puede actualizar, pero luego el software se puede actualizar más adelante. No, el software continuamente. Y cuenta con ello. Yo dudo que el software que recibiremos en 2025 o 2020, bueno, cuando llegue, yo dudo que ese software, eso posiblemente va a estar en un estado beta, bastante beta. Claro, pero eso es más fácil luego de actualizar. Pero lo difícil es decidir la parte de hardware hasta aquí. Una vez que ya le das al click del OK desde la parte de hardware, luego ya no puedes cambiarla, ya es más difícil. Es una decisión a largo plazo que, claro, puedes sacar otra versión de hardware, pero ya es mucho más caro y el problema es mucho más gordo. Eso hay que tenerlo muy, muy claro. La parte del software tengo más confianza porque estamos, mire, ahí que el tío controla mucho y, además, se ha rodeado siempre de gente muy pro en estas circunstancias. Roberto, tú eso lo conoces más que yo porque fuiste tú el que emitiste este comentario el otro día cuando conversábamos. Lo procuramos y la implicación. Sí, son gente con experiencia de desarrollo, no son principiantes en lo que hacen. En cambio, el hardware sí que tengo todas mis reservas, pero no con este equipo y con este proyecto, sino con cualquiera que se lleve a cabo y en estas condiciones. Estamos hablando que es gente que tiene unas condiciones económicas limitadas, que está siendo la comunidad de usuarios quien está apoyando todo lo que es el proyecto y que, lógicamente, no pueden tener muchas alegrías. Tienen que ir todo muy ajustado. Entonces, cuando llegan al punto de tener que escalar todo lo que es los componentes del dispositivo y meterlo ya en lo que es producción industrial, ahí es lo que comentaba Roberto, ahí puede pasar de todo porque el prototipo lo admite todo. Pero cuando ya vas a hacer el producto final, empiezan las cosas a desarmonizarse, a desequilibrarse y a entrar en otra fase que yo creo que no es previsible nunca. Solo el hecho de tener que trabajar con operadores móviles para implementar este servicio de suscripción mensual, que de eso tampoco se está hablando mucho porque a lo mejor ni ellos mismos lo tienen claro, eso es una historia. Eso a lo mejor no lo vemos al principio, esta suscripción mensual para guiado. A lo mejor al principio lo único que vamos a tener es lo que funcione en dispositivo, el tema de obstáculos y el tema de porque el guiado ya depende de conexión, depende de que ellos tengan un servicio de GPS. Eso es fácil, hay servicios de GPS que pueden utilizar, pero necesitas conectividad. Correcto. ¿Y el interfaz? ¿Habéis previsto alguna interfaz? ¿Tendría síntesis de voz, un reconocimiento de voz? ¿Tendría un botoncillo? Al principio va a tener, lo que no saben es qué van a meter configurable por el dispositivo y qué van a meter por aplicación, pero en principio va a tener una interfaz del propio aparato y una aplicación móvil para gestionar ciertas cosas también, como las actualizaciones. Pero no saben todavía qué va a poder gestionar el dispositivo y qué con el móvil. Están ahí pensando, por ejemplo, el otro día se habló en la reunión, cuando estuvimos en Londres, hablábamos de que había que avisarle al dispositivo en qué mano lo llevas y que no sabían si iban a meter esa configuración en el propio dispositivo o con el móvil. Entonces, bueno, están ahí en eso. Pero sí, al principio va a tener. Si llegas a una intersección, un cruce para poderle decir de alguna forma, o el primero te tendrá que decir a ti, no sé, hay una calle hacia la derecha, hacia la izquierda, de frente hay coches o lo que sea, para poder elegir por dónde quieres ir, si estás en un modo libre, ¿no? De hecho, ellos han subido algunos vídeos de lo que quieren que sea el dispositivo, hay algunos vídeos en su canal de YouTube, demostrando todas esas cosas, todas estas cosas que comentas, que se me ha olvidado decirlo antes, cuando estábais hablando de esto. Y a mí el otro día, no sé si a Roberto también le llegó o a alguien más, pero me llegó una encuesta de cómo querían que fuera más o menos el proceso de adopción de Glide por el usuario. Pues las configuraciones y demás, todo ese tipo de cosas. ¿Qué preguntas os hacían? ¿Qué preguntas nos hacían? Qué buena pregunta, con la buena memoria que tengo yo para esas cosas. Por encima, por encima, tampoco. No, nos preguntaba. Era bastante larga. Sí, es larguilla. A ver, ¿alguna pregunta que hicieron? Sí, si preferías, pues creo que una de ellas justamente era eso, si preferías configurar el aparato desde una aplicación o desde el propio aparato, o si las instrucciones preferías que fueran en Brighty o en una aplicación o en una web. Sí, te daban esas opciones, instrucciones en Brighty, aplicación o en una interfaz web o en una página web. Te ponían también cómo preferías dar direcciones, si dictándolas, si escribiéndolas o si seleccionándolas de una lista, por ejemplo. Interesante. O sea, ese tipo. Tipo de paquete, si te sentías cómodo utilizando herramientas para cortar, típico de cortar la caja. O si eso es un problema, cuán problemático era eso. Qué sé yo. Cómo preferías la documentación, si en audio, si en video con audio descripción, si en digital para móvil, si en digital para web. Era un montón, eran como 16 páginas que te preguntas. El precio puede ser un problema. Para mí, a ver si se me entiende lo que voy a decir, para mí es muy barato. Baratísimo. A ver, vamos a concentrarnos en el mercado para el que va dirigido esto, la utilidad que tiene o que podría tener y la tecnología de la que estamos hablando. Cualquier cacharro en el mundo de los productos para personas con discapacidad y específicamente de la tiflotecnología, te cuesta de 4.000 dólares arriba. Un Orcam con las mismas gafas estas de Envision, cuestan como 3.000 dólares. El NOAA, Nira. Por ejemplo, el NOAA, yo qué sé, aparatos. Las iSense, por ejemplo, que al final, o sea, no es por, o sea, ese es. A mí cuando sacaron ese precio me sorprendió muchísimo, digo, es que no. A lo mejor también, bueno, pregunto si puede ser un problema en sentido amplio. Incluso puede ser un problema desde el punto de vista de negocio. Para ellos este precio es rentable. Para ellos eso significa que tienen que vender bastante y tienen que tener un mercado, o sea, tienen que garantizar de verdad una respuesta positiva de la comunidad. Yo no sé cuánto les cuesta a ellos fabricar, por supuesto. Yo creo que no lo sabrán ni ellos todavía, supongo. Ni ellos tampoco. Claro que no, que no lo saben. Al principio decían que esto iba a costar lo que cuesta un móvil. Esto dije, bueno, esto no me lo creo yo y probablemente él va a descubrir pronto que no se puede cobrar eso. Y yo pensé, sí, cuando esto salga, esto va a costar de 2,000 para arriba. Así que cuando escuché 1,500 y además eso lo han cerrado ya porque lo están vendiendo a ese precio, que, bueno, a ver, es significativo. Que suba luego, vamos a ver. Eso lo tendrán que ir viendo. Pero la intención de ellos es crear una marca de consumo. Eso es muy importante. La mayoría de las empresas que venden para ciegos se plantean, o sea, no están apuntando al usuario, no están apuntando a nosotros. Están apuntando a los servicios, a los gobiernos que cubren estas cosas, a organizaciones de ciegos que la financian, a estructuras que pagan por este tipo de aseguros médicos en países donde eso se cubre así. Y están tratando de asegurarse precios altos y contratos de venta para, porque lo que les interesa es asegurarse unas ganancias concretas. Estas gentes se están atreviendo y dicen, bueno, yo, vamos a confiar en que la gente va a comprar esto. Y están apuntando a crear un producto de consumo que lo pague la gente. Porque están diciendo, la movilidad es de lo más esencial que hay. Es más esencial incluso que una línea braille dependiendo de qué tipo de audiencia estén apuntando. Porque todo el mundo necesita moverse. Y hay gente que no se mueve. Es que hay gente, lo que decía Ricardo antes, que a lo mejor nosotros tenemos una movilidad que nos movemos, podemos salir. Pero es que hay gente que a esto le va a solucionar la vida. En Estados Unidos eso se va a vender como pan caliente. Yo estoy bastante seguro de eso. Creo que ellos también están contando con eso. Ellos están contando en la cantidad de dinero que una persona que recibe beneficios del gobierno por los distintos planes, programas de beneficios económicos que hay aquí, se puede permitir. Y yo tengo la sensación de que si ellos consiguen sacar un producto más o menos como lo que están tratando de sacar, en Estados Unidos se va a vender como pan caliente. Hombre, a mí es que para personas que hoy no se están moviendo porque les da miedo la calle, porque no se acostumbra a ningún auxiliar de movilidad, porque parece inseguro, lo que propone Glide, simplemente para moverte por tu barrio, ir a los ultramarinos, ir a casa de tu hermana, de, bueno, donde quieras. Por terrenos controlados. Este dispositivo tiene muy buena pinta para este tipo de perfiles de movilidad bajo o limitado, ¿no? Sí, que muchas veces, y creo que es un error, que yo sobre todo, al final te vas concienciando y lo vas viendo y trato de cometer lo menos posible, pero muchas veces cometemos ese error los que tenemos un perfil en lo que sea, en movilidad, en tecnología. Un perfil un poco más avanzado o más alto, tenemos la esta de olvidar un poco que hay muchos perfiles y que la, yo creo que la tecnología está para ayudarnos a todos desde luego, pero en primer lugar yo creo, y con más ahínco si cabe, a la gente que peor lo tiene. Sí, sí, sí. Me gusta mucho también de Glidance lo que estaba comentando Roberto, ¿no? Decir que, bueno, sales con un precio que no es abusivo y la gente de una u otra manera se lo puede permitir, pero es que en sus maneras, si tú lees sus preguntas y respuestas dentro de la página web, llegan a decir que si los 30 euros que tienes que pagar por la suscripción esta para la inteligencia artificial y otros servicios tuvieras dificultad para pagarlos, que no te vas a quedar sin moverte. Decir que ellos van a tener soluciones y respuestas para esto porque entienden lo importante que es la movilidad. Es decir, que es una declaración de intenciones para mí muy interesante. A mí eso me parece, a ver si consigo que se me entienda bien, me parece un marketing muy bueno. O sea, me parece una frase que queda muy bien. No digo que sea mentira, eh. Digo que me parece una frase muy bien puesta, muy bien puesta. Habrá que ver luego qué soluciones son esas que proponen si realmente hay un usuario que no lo puede pagar. Han declarado unas intenciones. Incluso dicen que puedes pagar unos meses sí, otros meses no, dependiendo del uso que le puedas dar o tal. Eso no me lo creo yo mucho. Por eso, efectivamente, eso queda muy bonito. Yo creo que tampoco. Porque es que eso es muy complicado de implementar. Sí, pero lo ponen, lo ponen. Sí, sí, lo ponen. Sí, lo ponen. Sí, yo sé que lo ponen, sí. Yo sé que lo ponen. Y no hay, o sea, yo no dudo que están pensando cómo conseguirlo. A mí me parece sumamente ambicioso, ¿no? Yo creo que han preguntado a los usuarios qué queréis y han puesto todo en la carta de los Reyes Magos. Porque, claro, luego si haces caso a todo lo que quieren los usuarios, como un ejemplo, ¿no? Los usuarios van a pedir, seguro, que te reconozcan los semáforos si está verde o está rojo. Y actualmente, pues, sabemos que hay una aplicación que hace esto, que reconoce o que lo intenta. Que, de hecho, en principio, hasta donde yo sé, van a trabajar con ella. Claro, pues, esta aplicación precisamente lo que quería era que su público, la parte de negocio, pues, quieren hacer a través de instituciones. Lo que pasa que, pues, a veces, a lo mejor alguna institución, pues, no considera que es lo suficientemente fiable. Y, a lo mejor, pues, ahí no han encontrado quizás todo el negocio que buscaban inicialmente, ¿no? Entonces, pues, hay veces que, y eso es solo un punto muy concreto, que es la detección de semáforos si está verde o está rojo. Pues, eso es más todo lo demás que quieren ponerle. A mí me parece un proyecto súper, súper ambicioso. Y, bueno, ya veremos. Ambiciosos para el precio. Oye, ¿os apetece que hagamos una simulación como la que hace Amos Miller en el vídeo este? Que, por cierto, pondremos en la descripción el enlace y la transcripción del contenido. ¿Nos podéis explicar, tanto Roberto como Moi, cómo sería levantaros en vuestra casa y tener, estamos, es una simulación, ¿eh? Eso no, tener vuestro glida, vuestro glide ahí en el hall antes de salir, ¿qué haríamos? Bueno, podemos ir por partes. Podemos inventarnos, no sé, que estamos, a ver, yo trabajo desde casa. No tiene mucha gracia levantarse por la mañana. Lo más probable es que me desayune y me siente aquí. Pero, por ejemplo, yo me puedo imaginar perfectamente estar en de viaje de trabajo o estar en un tema de conferencia. Me puedo imaginar, por ejemplo, ir al campus de Microsoft, que tengo que viajar varias veces, por lo menos una o dos veces al año allá. Y es un campus súper difícil de navegar. Me puedo poner en esa situación, pero facilito. Así que, sí, podría imaginarme, qué sé yo, levantarme en la mañana, prepararme para salir. Y, entonces, en la habitación del hotel podría estar el glide. Claro, acabo de llegar, llegué en el avión a la 1 de la mañana, ni me fijé dónde estaba. Básicamente, llegué, me quité todo y me tiré en la cama y me dormí. Y a la mañana ya no me acuerdo muy bien ni dónde estoy. Entonces, aquí en el, por ejemplo, podría, yo no sé ni dónde dejé el glide, ni siquiera dónde dejé la maleta. Sé que al lado del glide, pero no sé dónde. Podría decir, oye, glide, ¿dónde estás? Glide, ¿dónde estás? Estoy aquí. 100% cargado, tiempo de caminata de 6 horas. Se me ha olvidado cargar. Porque se nos está olvidando y por eso se carga. Ya empezamos mal. Si sacas el 0% sacas el bastón que lo tienes debajo. Como tiene conexión USB, se está hablando de que se le podría conectar una batería externa. Si estás en una situación como esa y tienes una de estas baterías que se usa para los móviles, para una externa, la podrías conectar por ahí. Exacto. Pero bueno, sí me puedo imaginar perfectamente agarrando el glide, saliendo por ahí para allá, por el pasillo del hotel, que no me acuerdo muy bien ni cómo llegué a la habitación, porque a veces llega a la una de la mañana. Y dije, bueno, tengo que encontrar un ascensor, más o menos me acuerdo por dónde, quizás tenga algún método de detección de ascensores, no lo sé. Y bueno, vamos a buscar el ascensor. Y ya sé, quizás me encuentre por el camino los carritos del servicio de habitaciones, de la limpieza, qué sé yo, que a mí me encanta darles bastonazos. Sí. Las que me gusten, pero termino haciéndolo. Y cuando lo hago, siento, siento, me encanta cómo suena. Eso a mí me lo perderé. Llegamos al ascensor, hay gente en la entrada del ascensor, que eso es una cosa que siempre a veces me pone un poco nervioso, dejar que la gente pase y no estar en la desesperación de meterme en el ascensor antes que se vaya. Bueno, pues con el glide quizás sea un poco más fácil. Y agarrar un taxi, agarrar algo, ir al campus. Y bueno, el campus está bien mapeado, así que ¿qué podría hacer Glide? Por ejemplo, si te encontraras con un cruce, ¿qué haría Glide? Si nos guiamos por lo que plantea, te avisa cuando te estás aproximando al cruce. Podemos ponernos en situación, estoy caminando por la acera, voy hacia la parada de donde salen los autobuses para el campus y escucho el tráfico que se va acercando, con lo cual pienso, bueno, estoy llegando a la esquina y cuando estoy aproximando a la esquina, Glide me diría... Aproximándote a la intersección tal, tienes paso de cebra adelante, paso de cebra a la izquierda. ¿A dónde quieres cruzar? Bueno, con un poco de suerte lo voy a saber. Y creo, la idea es que con botones le puedas indicar, si no me falla la memoria, si te vas a ir a la izquierda o te vas a ir a la derecha o te vas a seguir. Entonces digamos que voy a seguir, pues le presionaría el botón hacia adelante, quiero seguir, y entonces Glide activaría el modo de voy a buscar paso de cebra, me indicaría, me colocaría justo en el inicio del paso de cebra y frenaría. Yo no me acuerdo exactamente cómo es que lo ponen en el video. Creo que hace algo así, te coloca en el paso de cebra y te da la indicación de, bueno, cuando estés listo para cruzar, con un ojo o con cualquier cosa, me chequeo el semáforo, vuelvo a darle la indicación de avanzar, y sobre todo en esas calles súper anchas, donde no hay muchas referencias, que yo por lo menos avanzo con el bastón, así, dando toques en el centro, pensando, bueno, con un poco de suerte llego al otro lado, si no, llegaré a ver a dónde. Bueno, pues mantengo la línea recta, llego al otro paso de cebra y sigo mi camino. ¿El camino te lo indica? ¿Él siempre indica un camino? No, pero te trata de mantener la línea recta. O sea, si yo salgo caminando con mi paso de cebra adelante, salgo cruzando, la tendencia natural, que es a desviarse, que tiene uno con el bastón, si no tiene una línea guía, como es que tengo yo, por lo menos, no hay ese problema, porque Glide intenta mantener la línea recta, está intentando que llegues al siguiente paso de cebra, entonces va a mantener esa línea recta. Es mucho más fácil mantener la línea recta si estás empujando un aparato con ruedas, que no te deja girar. Para mantener esa línea, mira, el paso de cebra que tienes enfrente y las líneas de la carretera. Si el paso no estuviera marcado, por ejemplo, se fijarían las líneas de la carretera también como guía. Y si, por ejemplo, una rama se cruzara delante de vosotros, porque sale, por ejemplo, de una estancia que hay ahí, hay una rama que está invadiendo, os va a dar directamente en la cara y tenéis posibilidad de esquivarla. Y se está hablando de que también te daría algún tipo de información audible. Y si no hubiera salida, está la rama ahí que haría Glide. Si está la rama ahí, dice no puedo ir ni a la derecha ni a la izquierda. Claramente te frenaría. Y ahí te tocará elegir qué hacer. Eso es lo que yo contaba, que me pasó a mí, que como no podía frenar, en teoría frenaría y te daría una descripción de por lo que ha frenado. Y te tocará elegir qué hacer. Si te dice que hay una rama, tocas la rama con la mano, la buscas, o bajas la cabeza y pasas con Glide delante de ti y ya sigues. ¿Te diría que hay una rama a tanta altura o te intentaría dar una descripción del obstáculo que has encontrado? Sí, en principio lo que ellos quieren es que te den una descripción de por qué se ha parado para que tú puedas tomar una decisión. A una distancia para que con la mano tú puedas quitar la rama y pasar por debajo. Si no sabes qué ha parado pero no sabes por qué, pues malamente vas a poder tomar ninguna decisión. ¿Y él solo frena o él también tendría motor para tirar y decirte hacia el lado? No, él nunca anda. El motor eres tú. Sí, solo frena y gira. ¿Gira? Si gira tiene motor para moverse. Gira la rueda, pero él no se va a mover nunca hacia adelante sin que tú lo empujes. Son los servos lo que se mueve, la dirección de las ruedas. Solo la dirección de las ruedas, no es capaz de girar. Bueno, pues está al fondo el campus con unas escaleras hermosísimas y de repente está llegando Roberto que va hacia las escaleras. Pues nada, que va hacia las escaleras. Encima no tienen barandilla. Puñet. Pues llegaré a las escaleras y me dirá... Aproximándose de escaleras hay escalones ascendentes o algo así. O escalones, bueno, en este caso... Ascendentes, sí, sí. Me diría escalones ascendentes. Quizás en el futuro me diría cuántos steps hay, cuántos escalones hay. Y bueno, lo normal en Estados Unidos es que si el edificio es medianamente moderno junto a la escalera hay una rampa. Así que si el Glypodri puede detectar la rampa, probablemente me guíe hacia la rampa. Eso no lo han dicho ellos, eso lo estoy diciendo yo porque me parece muy razonable. Si no hay rampa... ¿Está propuesto? No lo recuerdo. Yo la verdad que sí. Es muy interesante la propuesta esa, no está mal. A ver, es que ese es el tipo de cosas que a mí nunca se me ha ocurrido mencionar porque Amos vive en Seattle. Tiene que haber visto eso N veces en su vida, incluso ahí en el campus de Microsoft. Pero sería súper razonable porque además es súper estándar. Si tienes una escalera, al lado de la escalera tienes la rampa. O sea, cualquiera que esté familiarizado con ese tipo de mapeos sabe encontrarla. Entonces yo diría que el Glide debería detectar. Y si no la detecta, pues mira, le indicaré... Me moveré hacia la izquierda porque en algún punto está. Si no, sencillamente lo que se plantea es que suelto el Glide. O sea, el Glide me va a colocar frente a la escalera del lado de la baranda si hay. Si no hay baranda, pues mira, me colocará frente a los escalones. Si no hay baranda, seguramente se agarre el bastón para explorar. Si no, si hay baranda, pues probablemente agarre el Glide, especialmente si conozco la entrada. Y lo use como... Como un bolso, ¿no? Como un bolsito, lo llevarías como un bolso. Exacto. Recojo el arnés telescopico. Lo pongo en posición vertical, lo levanto. Lo llevo delante de mí. Cuando llegue arriba, quizás me quede en el último escalón de la escalera. Coloque el Glide en posición, despliegue el arnés y le indique que busque la entrada. O sea, tendrá un modo de detección de puertas, supongo. O quizás me ofrezca una lista de objetivos que esté cerca. Y uno de esos objetivos quizás sea una puerta, que puede estar directamente enfrente. O puede estar un poco a la veada. O puede estar... qué sé yo. Lo más probable es que esté enfrente. Simplemente con decirle, sigue recto. O sea, con marcarle la posición de avanzar. Y me llevará, me moverá para que justo llegue por el centro de la entrada, donde está para estirar la mano y abrir. En este caso, con Microsoft es medio complicado porque tienes que escanear la credencial. Y eso es medio difícil. Aunque no siempre están fácilmente... los escáneres están en una posición cómoda. Con lo cual a lo mejor hasta tengo que dejar el Glide en posición vertical, buscar el puñetero escáner, escanear, agarrar el Glide y correr hasta que se cierre la puerta. Pues muy bien. Ha sido muy interesante. ¡Bien! Por cierto, lo del bastón que mencionábamos antes, adherido al cuerpo del Glide, la idea que tienen ahora mismo es... Lo que pasa es que no sé cómo lo querrán hacer, si lo van a incluir ellos o no sé. La idea que tenían ellos, para que quedara más estilizado y menos armatoste, era que el bastón fuera un bastón telescópico. Que aquí en España creo que no se usa mucho, ¿no? Yo creo. O yo por lo menos no lo he visto mucho. Emos lo tenía. Él utilizaba un bastón telescópico y, claro, me lo enseñó cómo quedaría. Y, de hecho, se hasta se... Que eso ya está por ver, porque se estaba en una charla de bar casi. Pero decían que a lo mejor una de las ideas que tenían era que el bastón se adhiriera magnéticamente al Glide. Bueno, está muy bien. Sí, como la pluma del iPad. Sí. Nosotros hemos visto ahora muchos compañeros y compañeras comprar un modelo de bastón chino que justamente es telescópico. ¿Ah, sí? Sí. ¿Y dónde lo compran? ¿En Temu o algo de eso? ¿En AliExpress? En Amazon. En Amazon también está. Bueno, chino que no es chino. Inicialmente estaba en Estados Unidos. Yo inicialmente lo compré con otros compañeros. Nos juntamos en un grupito y compramos la versión de Estados Unidos. Bueno, estamos... Igual he de enviarse del tema, pero te voy a preguntar que qué tal es. Depende. A ver, hacer un bastón telescópico, pues claro, está todo milimetradamente para que encaje un palito dentro del otro, ¿no? Son seis o siete, creo, elementos. Claro, con el uso, si uno de los elementos se dobla un poquitín, pues ya no va a encajar todo el negocio. Entonces, pues, la vida útil, si lo usas mucho, pues... No es de trote. Pero para esto sí, ¿no? Para subir unas escaleras, bajarlas, para unas... Yo lo uso para cosas así. Yo lo uso cuando voy con alguien y tal. En principio no tengo pensado utilizarlo, pero si en una emergencia lo tengo que utilizar, pues lo saco. Lo pondremos en la descripción, por si alguien tiene interés. Así que lo compartiremos. Otra cosa que se discutió también es si podría llegar a ser configurable el nivel de prudencia que debiera tener el aparato. Por ejemplo, si quieres que realmente pase muy lejos de los obstáculos, o si prefieres que sea un poco menos prudente y no te choque desde luego, pero que sí que pueda tener un margen más corto. Incluso he oído por ahí algo de desobediencia activa, ¿no? O algo así. Desobediencia inteligente, sí. Lo típico que tú vas andando y quieres girarlo hacia un sitio en el que no puede porque te vas a chocar, porque no te debería dejar. A mí me preocupa mucho con el Glide, siempre lo he dicho, justamente el público que más lo necesita. El público de la gente con pocas habilidades, que necesita un dispositivo confiable y que no tiene recursos propios para lidiar con fallas. Y esto tiene tanta tecnología que yo creo que como ellos no consiguen minimizar las fallas y hacerlo muy tolerante a fallos, a mí me preocupa mucho esa gente porque a uno le falla el Glide y a uno le va a agarrar un bastón. O lo va a llevar en la mochila, o lo va a sacar del mango y va a buscarse la vida. Pero las personas que más necesitan este aparato tienen mucho menos recursos para lidiar con ese tipo de eventualidades. Y eso me preocupa bastante. Y es que como estamos hablando, aquí el nivel de tolerancia de errores es que es cero. Porque si un semáforo te lo confunde el verde por el rojo, pues le ha liado parta. Esto tiene que funcionar casi como un calefactor. Encenderlo y que funcione. Y con una fibridad 100%. Incluso un perro guía no te lo dan si no tienes un buen nivel de movilidad. Y aquí se está hablando de darle esto a gente sin movilidad porque es una solución para rápidamente recuperar cierta vida activa. Y ese tipo de gente necesita mucho. Un friki puede entender si ha hecho esto o no porque tal. Porque igual a lo mejor lo puedes entender y lo puedes incluso consentir. Incluso en un teléfono cuando no funciona bien. Y bueno, tengo que reiniciarlo, tengo no sé qué. Un friki pues bueno, lo aceptamos. Pero un civil no lo va a aceptar. Sí, eso está claro. Oye, y no hemos hablado de una cuestión. Vamos, hay cámaras, están viendo a la luz del día todo lo que tienen delante. Cuando cae la noche, ¿qué tienen previsto? Porque claro, también hay que salir con poca luz. Sí, en principio está pensado. No sé exactamente qué tecnología utiliza para la visión nocturna. Pero en principio sí que se ha hablado de que está contemplado. Es decir que puede ser golfo y tener tu glide. Sí, luego seguro que según lo golfo que sea, igual lo pierdes por ahí en algún momento. Yo me lo pienso ya. Pero sí, sí. Otra cosa de la que se ha hablado que es muy interesante es la posibilidad de hacer rutas. O sea, de correr con el glide. Esto que quise hacer yo. Se lo he preguntado a la gente. Y a mí me gustaría correr. Desde que perdí la vista ya no corro. ¿Qué tal? ¿Podría el glide hacer un circuito? ¿Podría ayudarme a una pista de carrera? Yo lo veo muy complicado eso, Roberto. Y te voy a decir por qué. Nada más que por la posición que es la que lleva el líder ya lo veo complicado. Porque vas con una mano rígida. Bueno, rígida... Rígida quiere decir que tú cuando corres vas moviéndolo brazos así. Sí, claro, vas balanceando. Eso también lo pensé. Y para correr un momento sí, pero para correr así de diario... Un circuito. Lo veo difícil. Tendrían que plantearse un tipo de arnés diferente. Correr empujando el carrito a la compra es un poco complicado. Un poco raro. Pero bueno, se les ha planteado. Mucha gente podría tirarle para atrás el hecho de que no fuera lo suficientemente plegable y portable. Para subirte a un avión, para subirte a un tren, para viajar con él. ¿Qué tienen previsto? Es plegable. Y en principio las medidas que tienen previstas es que quepan debajo del asiento de un tren o de un avión o en el maletero de arriba. O sea que en principio esas medidas están previstas. Sería pequeño. Por problemático que sea eso va a ser mucho más manejable que un perro. Totalmente. A la hora de meterte en un automóvil, de meterte en un avión. Va a ser mucho más sencillo. Si yo me podía meter en un taxi, me puedo meter con cualquier cosa. Alergia, no deja pelos, no huele. No requiere documentación adicional. ¿Cómo veis el futuro de esto? ¿Por dónde puede ir? La comunidad de usuarios es muy activa. ¿Están escuchando realmente a los usuarios? ¿Cuáles son los siguientes pasos de este prototipo? Los siguientes pasos van a incluir necesariamente beta testing. Que ellos lo van a empezar a hacer, no sé si en enero. Creo que enero o febrero decían. Enero o febrero. Para saber si definitivamente se puede cerrar el diseño. Para ir a fábrica. Y, con suerte, ya lo hablamos. Sacar el primer lote de unidades para los que preordenamos en otoño. Y a partir de ahí, creo que ni ellos mismos se plantean. Bueno, ellos seguramente se lo plantean. Pero a partir de ahí empieza la aventura, de verdad. Creo que nos volveremos a reunir. Para sacar el primer lote en otoño, tienen que mandarlo a producción como pocos meses antes. Como poco. Como muy poco. Habéis dicho que aún la gente puede participar. Igual alguien escucha este podcast y se da cuenta. Sobre todo porque vosotros lo habéis planteado así. Que este tipo de proyectos que pretenden ser finalmente un producto de consumo. Y que se está gestionando de esta manera. Precisan de financiación también por parte del usuario final. Como es vuestro caso. Pero alguien ha comentado que aún está a tiempo la gente de contribuir. Aunque no como cofundadores. ¿Hasta el fin de año? Sí, hasta diciembre. No sé exactamente la fecha. ¿Y qué reciben a cambio por colaborar ahora? Un 30% de descuento. Y creo que también reciben el descuento en la suscripción. Si la pagan ahora. Si se comprometen a pagar. En la pre-reserva tienes la opción de incluir cierta cantidad de meses de suscripción. Y si lo haces, te dan un descuento. Y si no, hasta el 31 de diciembre. Después, ellos han dicho que van a trabajar de manera personalizada. Con la comunidad de gente que se ha apuntado. Que ha dado el paso al frente. Para asegurar que el proceso de recepción del dispositivo. El proceso de empezar a usarlo. Sea tan apto como sea posible. Y también para aprender de ese proceso. Y poderlo mejorar para el resto. Qué bien. ¿Y mientras? ¿Seguirán haciendo sus reuniones mensuales a través de la plataforma Zoom? ¿Y explicando todos sus avances? ¿Esto lo van a mantener? Entiendo que sí. ¿Puede participar cualquier persona en esto? ¿Si hablas inglés? Sí, sí, sí. Si efectivamente ellos hablan inglés. Y si hablas inglés no hay ningún tipo de limitación. Seas cofundador, no seas cofundador. Hayas pagado, no hayas pagado. Si te bajas el audio no puedes participar en el momento. Pero luego sí que puedes. Ellos tienen dos formas de que tú participes. Una es levantando la mano y preguntar por audio. Pero también puedes preguntar por el chat. Con lo cual es más fácil traducir. Si no sabes inglés es más fácil. Claro, claro. ¿Y qué hay que hacer para participar en estos eventos? Pues en su página web suelen poner un enlace para registrarte. Y si te apuntas a la newsletter de ellos. O como se diga. Te mandan correo también. Sí, vale. Lo pondremos en la descripción. Para facilitar el tema. Por si alguien quiere estar más cerca de este proyecto. Y verlo evolucionar. Y si quiere participar. Y la idea supongo que es un 30% de descuento. Del primer dispositivo. Porque luego se supone que saldrán más versiones. Si todo va bien. Pues irá evolucionando. Habrá accesorios. Lo del bastón. De 1500, vamos. 30% sobre 1500 dólares. Exacto. Yo le quisiera decir a la gente que se esté planteando. Sobre todo si nos escucha que se esté planteando. Me voy a apuntar. Entender que lo que se está pagando. Ahora mismo es por una prueba de concepto. Hay que entender que ese 30%. Es simplemente porque estábamos comprando. Un dispositivo que no está terminado. Que es una cosa que se ve más comúnmente. En la industria de consumo. Pero no se ve a menudo. En el tema de los productos para ciegos. Normalmente si te compras una línea braille. Esperas que esa línea braille llegue funcionando. Si es una foco quizás no sea tanto. Pero ya es otra historia. En este caso. Literalmente no tenemos certeza. De qué es lo que nos van a dar. Y por eso es que nos dan 60 días. Para devolverlo. Pero lo que intento apuntar. Es a establecer las expectativas. La expectativa no es que voy a pagar ahora. Un precio, un descuento. Y en otoño me van a dar un dispositivo. Voy a salir a la calle. Y me va a cambiar la vida. Es fundamental entender. Que lo que nos están dando. Es la oportunidad de ser. No sé si en español ese término existe. Early adopters. Adoptar tempranamente una tecnología. Que está sin terminar. De ser parte del proceso. Exacto. Y hay que disfrutar de eso. Por cierto. Lo de la política de devolución. Lo tienes que tener 30 días. Y si a los 30 días no te convence. Tienes otros 30 días para devolverlo. Te llega el dispositivo. Y a los 3 días no lo quieres. Tienes que quedarte los 30 días. Ellos quieren asegurarse que lo pruebes. Que realmente le des oportunidad. Y que si no te interesa los 30 días. Ya si tienes otros 30 días para devolver. Exacto. Yo creo que esto es importante. Para ir concluyendo un poco. Actualmente es un prototipo. Que tiene muchas expectativas. Que ya veremos hasta que punto. Llegan a cumplirse o no. O si nos quedamos a medias. Que promete mucho. Pero que actualmente. En la realidad no hay nada todavía. Correcto. Eso es. Esperemos que dentro de un año. Podamos estar de nuevo esta mesa. Aquí convocada. Yo creo que antes habrá alguna novedad. Yo creo que para principios del año que viene. Pero para hablar de Glide. El primer trimestre del año que viene. Yo creo que sí. Yo creo que algo habrá. Tienen que mantener la expectación. Genial. Pues muy bien. Muchísimas gracias. Gracias a vosotros. Muchas gracias. Por haber estado hoy con nosotros. Vamos despidiéndonos. Los medios de contacto. Correo electrónico. gafotas@cegatos.es A través de Whatsapp. +34 644 640 792 Por mensaje de texto o de audio. Solo mensajes. Muchas gracias por llegar hasta aquí con nosotros. Nos vemos en el próximo episodio. Adiós.
Gafotas, cegatos y sus aparatos #2
Fecha: jueves, 14 de noviembre de 2024, a las 11:30:00
En este episodio iniciaremos junto a Alfonso Calvo, experimentado informático y excelente divulgador, una exploración a fondo sobre la inteligencia artificial (IA), analizando sus fundamentos, avances y desafíos. En nuestra conversación recorreremos la evolución de la IA desde sus inicios en los años 50, pasando por su implementación en el ajedrez y el Go, hasta la llegada de la IA generativa que hoy conocemos... y mucho más. Analizaremos cómo esta tecnología está transformando la sociedad y plantea preguntas sobre su impacto futuro. ¡Bienvenidos y gracias por acompañarnos!
Intervienen:
- - Arturo Fernández.
Enlaces a Sitios referenciados en el episodio:
- El día que Kasparov perdió contra Deep Blue – Ethic.
La inteligencia artificial de Google derrota al campeón europeo de Go.
Qué es la caja negra de la Inteligencia Artificial – BeeDIGITAL.
OpenAI traza el mapa hacia la super inteligencia artificial | WIRED.
Créditos:
Duración: 59:27
Descripción detallada del logo de Episodio 2. Inteligencia artificial: De la fuerza bruta a la IA generativa.
La imagen muestra una escena futurista y elegante donde el personaje del logo del podcast y un robot humanoide juegan una partida de ajedrez en un ambiente refinado. El hombre, de aspecto clásico, lleva un traje beige, pajarita roja, gafas redondas y un característico bigote. En sus oídos lleva auriculares que se integran con su estilo retro. El robot, de diseño metálico dorado y altamente estilizado, presenta una figura femenina con detalles futuristas, incluyendo unos auriculares circulares integrados y gafas redondas. El tablero de ajedrez es de diseño sofisticado, con piezas metálicas que combinan con el ambiente lujoso. El fondo incluye mobiliario clásico como sofás de cuero, lámparas vintage y grandes ventanales que dejan entrar una iluminación cálida y suave, creando una atmósfera de mezcla entre lo retro y lo futurista. La escena transmite una combinación de inteligencia, estrategia y tecnología en un entorno artístico y cuidadosamente diseñado.
Mostrar transcripción de Episodio 2. Inteligencia artificial: De la fuerza bruta a la IA generativa.
Transcripción de Episodio 2. Inteligencia artificial: De la fuerza bruta a la IA generativa.
Muy buenas, lo que sean, yo soy Arturo Fernández Y yo soy Ricardo Abad Y esto es Gafotas, Cegatos Y sus aparatos Podcast Bienvenidos A este segundo episodio De tu podcast favorito Bueno, yo soy Arturo Fernández Y por aquí Está Ricardo y su micro ¿Qué tal Ricardo? ¿Cómo va eso? Bueno, pues sigo con mi micro Ahora con más habilidad que el episodio anterior Me golpeo menos contra él Pero sigo cometiendo Mis errores de novato Pero muy contento Y sobre todo por Saludar a la audiencia Que ya estamos en nuestro segundo episodio Eso es, ahí vamos Poco a poco, pasito a pasito Fenomenal, como solemos decir nuestro lema Aprender y divertirnos Exactamente, estamos aquí para aprender y divertirnos Y si podemos hacerlo todos Mejor que nosotros dos solos Y hoy tenemos un tema también súper interesante La inteligencia artificial Cuéntanos, ¿de qué va esto? No sé lo que es ¿Qué es la inteligencia artificial, Arturo? He oído hablar de ella Fenomenal, pues nada Pues tenemos hoy un invitado Que nos va a ilustrar O por lo menos dar unas pinceladas iniciales Porque esto daría para hablar de muchos temas Hola Alfonso, ¿cómo estás? Muy bien, un placer acompañaros en el programa ¿Qué tal Alfonso? Bienvenido Muchas gracias Muchas gracias en primer lugar Por estar con nosotros y acompañarnos Que seguro que vamos a aprender muchas cosas interesantes quien quiera saber también un poco más De quién es Alfonso Pues en las notas del programa Vamos a poner también un enlace Pues cuéntanos, Ricardo Bueno, pues esto de la inteligencia artificial Que antes bromeaba con ella Que no sé lo que es Pues sí que sé lo que es De hecho, hoy creo que todo el mundo sabe lo que es Mi nieta de cuatro años sabe lo que es Porque todo es inteligencia artificial De hecho, se utiliza para el marketing En las últimas ferias como IFA En la CES De Las Vegas En todos los electrodomésticos Tenían ese problema de que no se podía usar el teléfono En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas Vibration En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas Normalmente, la herramienta la proporciona un cierto laboratorio, vamos a decir. Eso viene entrenado con los expertos del laboratorio, que son esa gente muy buena. Pero luego, digamos, hay un tramo final que requiere que los especialistas del centro hagan ajustes finos. Entonces, depende de la dificultad de las enfermedades que estén tratando y de lo similares que sean diferentes enfermedades entre sí, pero que sea muy importante el acertar correctamente con el diagnóstico, cabe la posibilidad de que se requiera un entrenamiento final por parte de algunos empleados del centro. Claro, y el problema es el posible error humano, ¿no? Sí, exactamente. O sea, daros cuenta que normalmente estos sistemas están acertando en torno al 80%, vamos a decir. Pero un fallo del 20%... Se considera hoy en día un fallo muy alto. Eso quiere decir que para pasar del 80% al 98% se requiere un esfuerzo descomunal. No es lineal, es asintótico. Eso quiere decir que en el tramo final, pequeñas mejoras en el porcentaje de diagnóstico requieren inmensos esfuerzos de entrenamiento. En el ejemplo que has puesto de científico, pues a lo mejor con los conocimientos y la experiencia que hoy tienen esos científicos, esos médicos, pueden pensar... Pueden pensar que al ver esta determinada fotografía, pues esto es una... Es esta determinada enfermedad, pero luego a lo mejor con el tiempo descubrimos que hay otros factores. De hecho, eso ha sucedido ya, ese tipo de situación. Entonces, fijaros bien cuál es, digamos, la ventaja que tiene la IA como herramienta. La IA es una nueva herramienta. Hablamos de IA, hablamos de la IA generativa, no hablamos de otros tipos de inteligencias artificiales. La IA es creativa. Que en este caso... Que en este caso, ¿qué significa? Es que puede alucinar y dar diagnósticos erróneos. Esa es la parte negativa. Y luego tiene otro componente y es que aprende. Aprende de una manera, vamos a decir, asombrosa. Una vez que se le suministra al módulo de aprendizaje una información muy, vamos a decir, muy bien clasificada, muy, muy bien clasificada, lo que sucede es que normalmente estas IAs... Adquieren nuevas reglas de conocimiento que los humanos no poseemos. Y entonces, a la hora de realizar diagnósticos, si la información de partida es muy, muy, muy buena y muy extensa, es decir, hay docenas de miles de casos estudiados, entonces resulta que ese nuevo aprendizaje que adquiere es un aprendizaje que es superior al que poseemos los humanos. Y es un aprendizaje nuevo, es decir, se basa... Se basa en decisiones que los humanos no poseemos. Sería un observador más óptimo que un humano. Lo sería. Pero para eso hace falta tener un conjunto de casos muy, muy bien clasificado y tienen que ser muchos casos. No basta con tener 100 casos o 1.000 casos. No hacen falta docenas de miles de casos muy bien clasificados. Entonces, los sistemas de IA generativa... O sea, con un módulo de aprendizaje profundo, son capaces de obtener nuevas reglas de conocimiento que al aplicarlas, estos sí que dan ya unos aciertos del 99,8% aproximadamente. Bueno, una maravilla. Con lo cual, digamos que en ese sentido tienen una capacidad de acierto normalmente mayor que los mejores expertos humanos. ¿Pero por qué? Porque tienen unas reglas de conocimiento que son nuevas. De hecho, los ingenieros... Los ingenieros que construyen otros sistemas lo que hacen es abrir el conjunto de reglas y estudiar esas reglas para comprender cómo está generando ese diagnóstico final, de manera que lo que se hace es mejorar con esto el propio conocimiento humano. Claro, pero esto es tema científico totalmente objetivo y temas muy, muy limitados y... Son temas a día de hoy muy especializados. Muy acotados, muy especializados. Claro, eso es. Esta situación que describimos solo se da en ámbitos, por ejemplo, unas ciertas retinopatías muy concretas. Entonces, son sistemas muy, muy, muy limitados. Muy limitados. Pero lo que sí es cierto es que antes eran menos sistemas y más limitados. Y hoy en día hay más sistemas y menos limitados. Es decir, la tendencia que se observa es a ir creciendo en cuanto a número de... ámbitos de actuación y teniendo capacidades de actuación cada vez un poco más amplias. Es decir, la especialización se está tendiendo a disminuir. Pero hay mucho trabajo por hacer todavía. Pero hay mucho trabajo por hacer todavía. El asunto es que como esto se está empezando a generalizar, ¿no? Y el ser humano, pues somos un poco, pues, eso, como la parte social y polémica que tenemos. Pues nos da por pubertos de cosas polémicas y el bicho no sabe qué decir. Lo que está influyendo en esto es la cantidad de dinero que se está poniendo en inteligencia artificial. Es decir, en la historia de la tecnología humana, en un cierto ámbito de la tecnología humana, como es la inteligencia artificial, nunca ha habido una inversión... No ha habido una inversión económica tan grande como la que está recibiendo la inteligencia artificial. Jamás. Y hay que rentabilizarla. Eso es. Entonces, ¿qué es lo que ocurre? Que todas esas docenas de miles de millones de euros que se están invirtiendo, claro, lo están haciendo en ciertas áreas de conocimiento. Entonces, aquellas que reciben esa millonada, digamos, de dinero, pues, con toda esa cantidad de dinero, pues se pueden obtener resultados generalmente excepcionales. Y como hay muchas de esas áreas que están recibiendo... esas ingentes cantidades de dinero, pues el resultado es espectacular. Pero, ¿qué hay detrás de todo esto? Docenas de miles de millones de euros. ¿Tú piensas, Alfonso, que gracias a eso han sido más transparentes con lo que están haciendo y han hecho los chatbots que son más...? Bueno, a ver, están siendo transparentes porque los usuarios que se han visto... Para que pasemos por caja. Sí, bueno, a ver, sí. Es decir, nos han hecho una especie de juguete para que paguemos una cuota y podamos colaborar en este... A ver, lo de la cuota es anecdótico. Aquí lo importante es que... Lo importante son las empresas, las que tienen el dinero son las empresas, ¿vale? Entonces, digamos que el haberlo puesto, daros cuenta que quien ha puesto la IA generativa al alcance del público es una organización sin ánimo de lucro, que es OpenAI. Era, era, era, ¿no? Bueno, digamos que en este proceso es sin ánimo de lucro. Ahora ya en breve dejará de serlo, pero tenemos toda esta capacidad de acceder a la IA gracias a esa organización sin ánimo de lucro. Pero es la única. Quiero decir, todas las demás organizaciones que están metiendo dinero en la IA, como Microsoft o Google o Meta, Facebook, Elon Musk... Es decir, estamos hablando de que todas esas otras compañías que están, vamos a decir, un poco por detrás de OpenAI, pues estas tienen un afán económico y quieren recuperar multiplicado su dinero. Entonces, no lo van a recuperar de, vamos a decir, de los ciudadanos. Lo van a recuperar a través de las empresas, lo van a recuperar las empresas que tendrán ciudadanos y otras empresas como clientes. Pero todavía está por ver todo esto. Es decir, ahora mismo el balance económico de la IA es claramente deficitario, claramente además. Es decir, que todavía no hay un modelo de negocio rentable para la IA. Lo habrá, porque daros cuenta que esto es un problema de madurez de mercado. Básicamente, esto es un mercado incipiente. Hay muchos actores intentando quedarse con un trozo del mercado. Y todo esto, normalmente lo que ocurre es que de un plumazo, pues solamente ciertos actores se quedan funcionando. El 80% de los otros actores desaparece y todo eso ha de venir. Es decir, estamos en un mercado en su estado infantil, básicamente. ¿Realmente es tan costosa y con un impacto ecológico tan grande? Es terrible, es terrible. Es terrible por ese entrenamiento que os decía antes que es tan absolutamente gravoso. ¿Por qué? Porque solamente los humanos podemos entrenar apropiadamente a una IA. Se ha intentado que una IA entrene a otra y lo que se consigue son sistemas inestables a día de hoy. Entonces, eso quiere decir que el esfuerzo de entrenamiento sigue siendo manual y extraordinariamente gravoso. En términos de tiempo, de personas. El esfuerzo. Ahora, una vez que se consigue estabilizar el entrenamiento, pues el resultado es espectacular. Es espectacular, pero económicamente no equilibra. Económicamente no equilibra. Daros cuenta que solamente la infraestructura hardware que hace falta para que funcionen estos sistemas, pues viene a ser como entre 100 y 1000 veces superior a cualquier otro programa de ordenador. El asunto es lo que le das de alimento para todos estos sistemas. Es decir, si le das la Wikipedia o le pones a leer Twitter, pues pasa lo que ya ha pasado. Claro, efectivamente. Daros cuenta que lo que se ha comprobado es que la forma de entrenar una IA sesga a la propia IA. Entonces, si no tienes cuidado con la información que le das, sí, puedes tener una IA entrenada, pero mal entrenada. Y el esfuerzo es multiplicador. Es devastador. Recordáis una noticia que... De hace cuatro, cinco, seis años que tuvo mucho alcance, que estaban todos como muy sorprendidos, todos los científicos, porque le habían dado una API o varias APIs de redes sociales, que son las conversaciones que tenemos los humanos del mundo, y la IA que habían entrenado, con lo que nosotros hablamos diariamente y comentamos, era una IA intolerante, racista... Bueno, ¿recordáis aquella noticia? Sí, sí, sí, perfectamente. Sí, efectivamente. Entonces, por eso os digo que... Claro, que realmente... La cantidad de información que utilizas para entrenar una IA es descomunalmente grande, pero tiene que ser una información, vamos a decir, de calidad. Y conseguir eso también cuesta un dinero descomunal. Hay que destinarla, hay que destinarla, sí, sí. Efectivamente. Entonces, todo eso, digamos, limita enormemente la evolución de la IA. Sí que es cierto que aprendemos... De nuestros graves errores, como ese que habéis comentado, de la IA racista, ¿no? Y cada vez hay mejores mecanismos de control para evitar, digamos, las desestabilizaciones de la IA. Pero, como cada vez tendemos a IAs cada vez más grandes, dos mil millones de parámetros, cuatro mil millones de parámetros... No se pueden pasar de frenada, porque estamos viendo que en nuestra sociedad, por ejemplo, por ese excesivo control... Se ha perdido, bueno, la gente ya no puede hacer cierto tipo de humor, porque resulta muy lesivo, no puede hacer un montón de cuestiones, que verdaderamente tampoco, según quién, las valores son tan... Bueno, son graves o no, pero bueno, al limitarlas se ha quitado un poco este encanto, ¿no?, de la espontaneidad y de... Sí, de hecho, hay que entender que hoy en día las redes sociales están monitorizadas en su actividad por inteligencias, artificiales, que en cuanto detectan algo que consideran que está fuera del uso aceptable, pues te impiden ese diálogo. Entonces, a mí me ha ocurrido estar en Facebook y trasladar la opinión de una persona, que no voy a decir su nombre, esa persona no se lleva bien con Meta y Meta lo censura directamente. Correcto, lo cancela. Lo cancela, entonces, efectivamente, ¿qué es lo que ocurre? Que en función de las filias y las fobias... Claro. ...del dueño... ...del dueño de la red social, se permite o no una cierta opinión. Entonces, toda aquella opinión que no gusta resulta que se cancela. Creo que eso no es admisible. Es una atmósfera un poco distópica a la que no deberíamos llegar nunca, ¿no? Pero que ya sucede, es decir, ya estamos en ella. Y yo, de hecho, ya no puedo verter opiniones de ese experto en Meta porque sé que al final lo que va a ocurrir es que me van a expulsar a mí. Claro, aunque sean opiniones objetivas, aunque sean con datos, con cifras... Sí, sí, efectivamente. O sea, ese experto, lo único que ocurre es que no es del gusto de Meta. Y entonces lo que han decidido es que cualquier cosa que proceda de ese experto se va a considerar como fuera del uso afectable. No, no es fuera del uso afectable, es fuera de tu gusto o de tu interés. No de un uso afectable. Esa persona no está hablando de terrorismo, de violencia, no, no, no. Lo que ocurre es que la opinión de esa persona no es favorable a Meta. Lo que decide es cancelarla. Y pero cancela a esa persona y a todos los que apoyemos a esa persona. Yo viví un episodio que a mí me inquietó muchísimo porque, os lo cuento ahora y os daréis cuenta, que no infringía absolutamente nada. Una revista muy prestigiosa que desgraciadamente ya no se publica aquí en España, se llama Investigación y Ciencia, en 2020 aún publicaba. Y en marzo de 2020, plena, bueno, comienzo de la pandemia, había un artículo. Sobre los coronavirus y el coronavirus en general, donde decía que pasara lo que pasara en dos años estaba solucionado. Porque esa era la vida normal de un virus, ¿no? Y iría auto replicándose y hasta el final moriría de éxito, ¿no? Y ya... Era un, vamos, era un artículo científico. Bueno, pues lo pasé por Meta, en aquel momento Facebook. Y entonces, de lo primero que me dijeron es que ese artículo... Que no era ni mío, yo no era ni una opinión. Vamos a ver, era un artículo de una fuente muy prestigiosa. Que de momento ya pasaba a la cola de todo. Que no iba a tener visibilidad. Y que mucho cuidado porque otro como ese iba fuera. Me asusté. Y fue así. Sí, sí, a mí... Yo solo he vivido con frecuencia y con tristeza. Porque lo que veo ahí es el sesgo de los dueños de esas redes sociales. Entonces, si... Si tú no respetas ese sesgo, te echan. Y a mí ya me ha ocurrido ser expulsado. Entonces, como ya he vivido esa experiencia y no quiero repetirla, pues me tengo que ser dócil ante ellos. Hay que portarse bien y no rompétese con los jefes, sí, sí. Has comentado que hay diferentes marcas o sabores. Oímos que está el ChagPT, que sigue el Gemini. Sí, a ver, esto fue una sorpresa para todos. Yo también, como experto, reconozco que no vi ya la jugada. O sea, yo estaba en la inteligencia artificial, yo soy informático, entonces, bueno, pues yo estaba trabajando en inteligencia artificial, desde un punto de vista profesional, digamos. ¿Yo hubiera supuesto que esto iba a transformarse como luego ha ocurrido? Bueno, os aseguro que no, honestamente. Ahora, yo a mi entorno sí que les decía, mira, yo creo que esto tiene futuro. Pero una cosa es que yo afirmara que eso tenía futuro y otra es lo que ha ocurrido. Entonces, siendo honesto, digo, mira, yo percibía un futuro, pero aseguro que no como el que tenemos ahora mismo. O sea, que el impacto tan amplio y tan intenso y con las prestaciones que tiene, ahí no llego, seguro. Eso ya estaba fuera de mi valoración. Entonces, ¿qué es lo que ocurre? Pues que OpenAI, bueno, ¿qué es lo que ha hecho? No ha inventado nada, realmente. Lo que ha hecho ha sido utilizar tecnología que construyeron otras compañías. Por ejemplo, pues la propia Google o similar. Es decir, lo que sí han hecho ha sido integrar con mucha habilidad toda una suite de tecnologías y ponerlas a funcionar. Y yo diría que por una cuestión, voy a decir que es casual, les ha salido esto. Y han sido los primeros en hacerlo. Es decir, lo sorprendente es que los dueños de esas tecnologías no hicieran eso. ¿Por qué no lo hicieron? Porque ya estaban posicionados en el mercado y no querían canibalizarse a sí mismos. Mientras que OpenAI, como no tenía que dar explicaciones a nadie porque era una organización llena de lucro, pues tiró para adelante, hizo lo que a los otros no les convenía, pero nadie pudo impedir que hicieran esto, y sacaron al mercado algo que, siendo... en sus componentes conocido, sin embargo, el resultado era espectacular. Y fueron capaces, además, de presentárselo de una forma muy sencilla al gran público. Es la primera vez que se presentaba de una manera fácil la inteligencia artificial. Y el público compró eso, esa aproximación. En términos bélicos, se saltaron a arreglar del campo de batalla y montaron un comando de guerrilla. Y dijeron, vamos por aquí. Sí, porque como no eran un elemento competitivo, el mercado, porque entre otras empresas como Google o como Apple, tienen su mercado muy consolidado y lo que no quieren es que cambie nada. Pero llega OpenAI, que es una empresa que ha llamado de lucro, y puede hacer lo que le dé la gana. Y nadie se preocupa por OpenAI porque es una empresa fuera del mercado. Ahora, ha puesto algo encima de la mesa que ha roto el mercado. Yo diría que ellos han roto el mercado, no lo han transformado, lo han roto. Realmente. Pero OpenAI... Es más que una empresa con gente poco conocida. Está Microsoft detrás, es un accionista. Sí, a ver, los accionistas, entre comillas, los que ponen dinero para OpenAI, son empresas del mercado. Pero ellos no esperaban que OpenAI sacara algo así. Hacerá todo esto. Nadie esperaba algo así, de verdad. O sea, de alguna manera, OpenAI lo que ha hecho ha sido un cóctel de soluciones. Y ese cóctel, sorprendentemente para todos. Incluso para la propia gente de OpenAI, ha funcionado. Pero nadie esperaba que esto ocurriera. ¿Para ti es la mejor hoy por hoy? ¿O la que mejor es prestación? Sigue siendo la mejor. Sigue siendo la mejor. Yo también lo pienso. Sí, todavía sí. Lo que ocurre es que, bueno, hay cada vez competidores más cercanos. Por ejemplo, la propia Nvidia ya tiene unas soluciones interesantes. Google con Gemini. Entonces, bueno, pues hay más actores. Pero... No es cuestión ya de que haya más actores. Sino que el efecto de mercado lo sigue controlando OpenAI. ¿Me entendéis? Como ha sido el primero que ha conseguido el mercado, aunque fuera peor, seguiría siendo líder. ¿Me entendéis? Porque es cuestión de quién es el primero que golpea el mercado. Sí, no, está clarísimo. De hecho, fijaos cómo son las cosas ahora. Apple vende una inteligencia artificial que aún no tiene, pero que ya está ahí en marketing, ya está vendiéndola. Y la misma gente de OpenAI hace un año, hace una demostración. ¿Qué pasa? Veía que era en tiempo real. Enseñando todas las funciones multimodales de la inteligencia artificial. Y la verdad es que funciona muy bien. Le enseña una hoja con un problema, lo resuelve, habla perfectamente, le contesta, le interrumpe. Todo lo que se verá. Bueno, pues ha pasado un año y aún no lo tenemos integrado. Y nos lo vendieron hace un año. Sí. Bueno, yo creo que inevitablemente habrá soluciones tecnológicas que superarán a OpenAI. Pero repito, el mercado es de OpenAI. Porque es el primero que ha golpeado. Y precisamente para garantizar que se quedan con el mercado es por lo que están mutando la empresa. La empresa que hasta ahora ha sido sin ánimo de lucro, ahora ya tiene ánimo de lucro. ¿Por qué? Porque tienen el mercado y lo quieren mantener. Y para mantenerlo hay que comercializarlo. Si no, lo pierden. Entonces, muy habilidosamente, pues esta compañía está en un proceso de transformación. Que ha hecho que algunos de sus científicos, pues por ejemplo, abandonen la empresa. Porque no quieren, digamos, tener ese ámbito comercial. Y otros lo han abandonado asustados de lo que tienen por ahí dentro. Y eso les preocupa más. Los que se han ido por miedo. Antes estabais hablando del impacto social, de la inteligencia artificial, bueno, de esta última fase. Y dentro de los mitos y de los comentarios, ¿no? Así, tópicos que hace la gente. Bueno, lo comparan casi como el impacto que tuvo las máquinas en 1850, cuando la revolución industrial que inquietó tanto a la población. Porque les iba a perder el trabajo. Esto hoy por hoy también se dice. Es decir, los trabajos... A ver, el impacto va a ser peor. ¿Sí? Sí, mucho peor, claro. Porque mucho peor, sí, sí. Desafortunadamente, sí. A ver, nos encontramos con que la IA generativa es una nueva herramienta Sí, es cierto. Pero cuando usamos la palabra herramienta, nos quedamos cortos con la semántica de la palabra. A ver, esta herramienta que disponemos hoy en día posee dos características que en la historia de la humanidad ninguna herramienta tenía. Primero, la herramienta es creativa. Es creativa. O sea, genera resultados que no se le han suministrado como parte de la entrada. Correcto. Hay una relación, evidentemente. Tú pides una cierta entrada y la salida está relacionada con la entrada. Pero cualitativamente es mejor. No es una relación directa entrada-salida, sino que hay una transformación y el resultado es cualitativamente mejor hasta el punto de ser creativo. ¿Creatividad? Creatividad. Tiene creatividad. La IA generativa es creativa. ¿Vale? Bien. Segunda característica novedosa. Es una herramienta que aprende. Eso antes tampoco nos había ocurrido. Y aprende en unos términos, en cuanto a velocidad y en cuanto a lo que es capaz de aprender, que son muy superiores a la capacidad humana. Como programa de ordenador que es. Es decir, que eso no nos debería extrañar. Pero claro, cuando hablas de aprendizaje, quisiera poner un ejemplo para que se entendiera como a qué velocidad aprende un programa de IA generativa. Antes mencioné el juego Go, que hasta hace 4 o 5 años no se podía ganar con un programa de ordenador. Bueno, pues cuando ya se definió un programa ganador por inteligencia artificial generativa, ya que había en aquel momento que era muy limitada, pero bueno, existía. Pues lo que ocurrió fue lo siguiente. Esa instancia, ese programa, que ya jugaba como un maestro al Go, era reciente, flamante ganador, vamos a decir, del Go a nivel mundial, pues se enfrentó a otra instancia, a otra inteligencia artificial que no sabía jugar al Go. Vale. La primera, que es un maestro, se enfrenta a una segunda que no sabe jugar al Go. ¿Vale? Muy bien. Entonces, la ponen a jugar al Go. Y no se puede jugar a las dos. Naturalmente, la maestra derrota sistemáticamente a la alumna. ¿Vale? Ha sido entre el primer día, el segundo día, 10 días, 11, 12, 13... En el día 14, la alumna empieza a derrotar sistemáticamente a la maestra y gana a partir de ese momento todos, todas las partidas, la alumna se las gana a la maestra. ¿Ha observado o ha aprendido? ¿Por qué? Porque tiene un módulo de aprendizaje. Entonces, ¿qué es lo que ocurre? Que observan los ingenieros que la forma de jugar de la alumna, de la IA alumna, no le entienden por qué está jugando de esa manera. ¿Por qué? Porque ha aprendido en esa forma alienígena que os decía antes. ¿Vale? Es decir, no es una mente humana. No funciona ni se transforma siguiendo los parámetros humanos. No es una entidad humana. Es un programa de ordenador con una tecnología sofisticada de aprendizaje que le hace a base de ensayo-error, a base de haber perdido, pues probablemente haya perdido 8 o 9 millones de partidas, pero después de haber perdido 8 o 9 millones de partidas, ha analizado por qué ha perdido y ha conseguido generar un conocimiento sobre cómo ganar partidas. Y ha aplicado ese conocimiento en dos semanas la alumna de la IA. Y ha hecho una derrota siempre en todos los juegos ya a la maestra. Es superior. Es una jugadora superior. En dos semanas. Es decir, la maestra hizo falta aproximadamente como unos 70 años de desarrollo tecnológico, de inteligencia artificial, para ser construida. 70 años requirió de desarrollo tecnológico. Y sin embargo la alumna en dos semanas ha sido capaz de jugar mejor que la maestra. En dos semanas. Una base genérica y luego aparte todo lo que aprendió, ¿no? Básicamente todo lo que ha aprendido. ¿Vale? Entonces, ¿qué es lo que ocurre? Pues que nos encontramos ante un futuro en el cual la evolución del funcionamiento de la IA es inmenso. Es decir, es una revolución como la revolución industrial. No es más. Porque aquellas máquinas eran unas máquinas muy grandes. Las máquinas eran máquinas muy limitadas. Las primeras, digamos, máquinas de vapor eran... Bueno, funcionaban casi por casualidad, diría yo. Estas, las IAs, funcionan. ¿Sabes lo que funcionan? No sabemos muy bien por qué funcionan en el detalle. ¿Vale? Sabemos que funcionan. Pero sobre todo se transforman a una velocidad que es... No voy a decir que es infinita, pero tiende a infinito. Y además exponencial, porque además yo creo que tiene esas dos características. Que es exponencial cómo va aprendiendo y luego a lo mejor da un poco de miedo, ¿no? Como precisamente es una herramienta, como decías, que escapa del racionamiento humano, ¿no? Claro, por eso grandes científicos humanos escribieron una carta hace más de un año diciendo cuidado con la IA porque la puede destruir. Se referían a esto. Pero es real. Es real que no lo sabemos. Sí, hay una, digamos, base objetiva y es la transformación de la IA no está sometida a un control humano, salvo que esos controles se establezcan y lo respetará o se lo saltará. Pues ahí había algunos ejemplos en los cuales las IAs se han saltado los controles humanos. Entonces, claro, eso significa que si la evolución de estas IAs... escapa a ese control humano y tiene capacidad operativa de influir en el mundo, pues nos puede hacer daño. Hombre, sí. Otro de los ejemplos que se ponen y que tuvo también mucha trascendencia y que dejó a la gente reflexionando y pensando fue cuando pusieron a hablar dos IAs entre ellas y entre ambas llegaron a la conclusión de que podían hablar con un idioma que no es el que se les dio, que sería el inglés, supongo, y generaron su propia lengua donde eran mucho más ricos. Y eso es lo que nos hace pensar que las IAs son cosas rápidas y eficaces. Eso no sabemos qué tiene de leyenda urbana o qué tiene de realidad, pero sería un poco lo que tú estás comentando, ¿no? Sí, esto fue un caso recoro recordar que en Microsoft y efectivamente cuando los científicos percibieron que las IAs dialogaban en un idioma que no sabían cuál era, las apagaron directamente porque no sabían lo que estaban intercambiando. Entonces, aquí, ahora mismo, las IAs se pueden apagar con facilidad porque son tremendamente limitadas y controladas. Pero en la medida en que las IAs vayan expandiéndose, esa posibilidad de apagarlas va a ser un poquito más complicada. Y tengan su ejercito de androides, ya se conectarán y se desconectarán conforme ellas quieran. Entre ellas mismas. Bueno, a ver, eso dependerá un poco de si las IAs tienen acceso a recursos en la nube y esos recursos no se sabe bien cuáles son, porque están aprovechando... Recursos legítimos de forma ilícita. Entonces, si una IA llegara a tener capacidad para hacer eso, pues efectivamente nos encontraríamos en ese escenario. Ahora mismo no nos consta que eso esté ocurriendo. ¿Nos preocupamos? Hombre, nos tenemos... Más que preocupar, nos tenemos que ocupar. Yo tengo un amigo que dice que de los problemas hay que ocuparse, no hay que preocuparse. ¿Y qué podemos hacer? Ah, es lo que podemos hacer. Vale. Aumentar los mecanismos de trazabilidad de las IAs. Eso en primer lugar. Porque ahora mismo, tal como están construidas, pues no es posible trazarlas. No podemos saber qué está ocurriendo. No podemos entender por qué han llegado a esa conclusión las IAs. Entonces, bueno, hay que hacerlas más trazables y, sobre todo, la responsabilidad final cae en los usuarios de las IAs. Es decir, recordemos que una IA es un programa de ordenador. No tenemos interés en nada mundano, ni en política, ni en economía. Es un programa de ordenador. Pero los usuarios que utilizamos las IAs sí que tenemos intereses mundanos. Y es posible que, persiguiéndonos esos intereses, tomemos decisiones que perjudiquen a otras personas. Y eso es lo que tenemos que tener, una ética y una moral muy estricta del uso de las IAs. Porque si no tenemos eso, el futuro va a ser complicado. Y, por supuesto, el kit, ¿no? Tenemos que ver qué limitaciones se pueden poner. Si se pueden poner limitaciones, qué tipo de limitaciones, qué moral, qué ética utilizar. Sí, veamos. Todas las IAs comerciales ya tienen implementadas limitaciones. Pero el problema es que hay otras IAs que no son comerciales. Esas no tienen limitaciones. Son IAs privadas, vamos a decir, donde tú, en un exterior de ordenadores, las arrancas y esas IAs son libres. Y no tienen puertas al campo, como se suele decir. Claro, entonces, el problema son las IAs libres. ¿Qué van a ocurrir con las IAs libres? Las comerciales no me causan ninguna inquietud porque la legislación las va a tener supervisadas. En España hay una agencia de supervisión que va a tener inspectores. Es decir, todo lo que está en el ámbito comercial no me causa especial inquietud. Lo que sí me genera, digamos, dudas es qué pasa con las IAs libres. Eso sí que me causa... ¿Crees que las sociedades del crimen ya están trabajando también para poner IAs a su servicio? Sí, sí, de hecho, el cibercrimen, pues hoy en día, está generado a través de IAs. Y van por delante que el resto, además. El pirata siempre va por delante del defensor. Siempre. Siempre. Bueno, pues con estas primeras pinceladas para este primer episodio, yo creo que puede ser muy interesante todo este abanico. Todo estos... puntos que se nos abren. Y puede ser también muy interesante continuar en otros momentos para no alargarnos demasiado. No sé si lo ves que hay esperanza. ¿Es buena? A ver, esperanza la hay porque tenemos que dejar a nuestros hijos algo que sea un futuro viable. Pero es responsabilidad nuestra, de quienes estamos hoy en día, usando los sistemas informáticos, entre otros, las IAs. Entonces, es en nuestras decisiones, en donde pueda haber... ¿Puede haber un futuro para nuestros hijos o no? Pero está en nuestras manos ahora mismo. Genial. Pues si te parece, continuaremos concienciando y hablando. Y estos temas son muy interesantes y a todos nos afecta. Y nos va a afectar esto de uno u otro modo. Yo sé la gente le interesa a Arturo. Podemos seguir, y si no le importa a Alfonso, porque creo que nos hemos quedado con muchas cosas en el tintero. Sí. Y yo he hoy aprendido mucho y me he divertido también. Pues ese es nuestro objetivo. Que aprendamos y que enseñemos a la gente y que entre todos vayamos aprendiendo cosas interesantes. Ha sido un placer compartir con vosotros el espacio y, bueno, queda a vuestra disposición en el futuro, pues para charlar un poco sobre qué podemos hacer. Yo creo que sí que tenemos un futuro, pero va a ser... hay que trabajarlo de forma intensa. Y hay que hacerlo ya. Te lo agradecemos mucho, esa disposición, porque lo explicas muy bien. Así que muy agradecido. Pues muchas gracias. Muchas gracias, Alfonso. Y continuaremos con otras tertulias. Vamos despidiéndonos, Ricardo. Recordamos los medios de contacto. Pues sí. Nuestro correo electrónico es gafotas@cegatos.es. Y nuestro WhatsApp, el más 34 644 640792. Bueno, esto es Gafotas Cgatos y sus aparatos, episodio 2. Gracias por acompañarnos. Muchas gracias y nos escuchamos. Adiós.
Gafotas, cegatos y sus aparatos #1
Fecha: lunes, 4 de noviembre de 2024, a las 12:00:00
En este primer episodio hablamos de un dispositivo wearable de consumo, un accesorio de moda, que, al integrar distintos componentes electrónicos en su montura, se presenta como algo más... Hablamos de las gafas Ray-Ban Meta. ¿Podríamos considerarlas tecnología de asistencia? Para hablar de ellas, de su uso, su potencial y su proyección, contamos con Roberto Pérez de Paz, quien, además de ser un gran entendido en tecnología y explicarlo todo muy bien, las tiene desde hace tiempo y, como está en la costa este de Estados Unidos, en La Florida, las disfruta sin limitaciones. ¡Bienvenidos y gracias por acompañarnos!
Intervienen:
Enlaces a Sitios referenciados en el episodio:
- Cómo Utilizo Las Ray Ban Meta En Mi Día A Día - Canal de YouTube de Alicia Carreño (@AliblueBox).
- Llega el idioma español a las Ray-ban Meta (aunque con limitaciones) - DobleTap Podcast.
- Double tap Radio-podcast de Steven Scott&Shaun Preece en inglés.
- Conoce los modelos y características de Ray-Ban | Meta smart glasses 2024 | Ray-Ban® ES.
- Preguntas frecuentes sobre Ray-Ban | Meta | Ray-Ban® ES.
- Blind Users of Ray-ban Meta Smart Glasses | Grupo de Facebook en inglés.
- AIRA, servicio profesional de interpretación visual.
- Solicitar participar como Betatester del asistente ALLY de Envision:
- TunnelBear, app de VPN con 2 GB mensuales gratuitos en la App Store.
Créditos:
Duración: 01:21:54
Mostrar descripción detallada del logo de Episodio 1. Ray-Ban Meta, gafotas inteligentes.
Descripción detallada del logo de Episodio 1. Ray-Ban Meta, gafotas inteligentes.
La imagen muestra unas gafas inteligentes de diseño clásico, de la marca Ray-Ban, en color negro mate. Están etiquetadas con anotaciones que indican la ubicación de diversas características y componentes tecnológicos integrados. Entre los elementos destacados se incluyen: - Cámara: Situada en el frente, cerca de las lentes, para capturar fotos o vídeos. - Micrófonos: Ubicados en las patillas para captar audio. - Altavoces (Speakers): Integrados en las patillas para emitir sonido hacia los oídos del usuario. - Botón de captura (Capture Button): Localizado en una de las patillas para tomar fotos o iniciar grabaciones. - Superficie táctil capacitiva (Capacitive Touch): En una de las patillas, diseñada para interactuar con gestos táctiles. - Indicador LED de captura (Capture LED): Cerca de las cámaras, probablemente para informar cuando están activas. - Botón de encendido (Power): En el extremo de una de las patillas para encender o apagar las gafas. El diseño es funcional y mantiene un estilo elegante, integrando tecnología avanzada de manera discreta y accesible. La imagen es en blanco y negro, resaltando los detalles técnicos y estructurales del dispositivo.
Mostrar transcripción de Episodio 1. Ray-Ban Meta, gafotas inteligentes.
Transcripción de Episodio 1. Ray-Ban Meta, gafotas inteligentes.
Muy buenas, lo que sean. Yo soy Arturo Fernández. Y yo soy Ricardo Abad. Y esto es Gafotas, Zegatos y sus aparatos. Podcast. Bienvenidos al primer episodio de tu podcast favorito. Por aquí está Arturo Fernández. ¿Y qué tal, Ricardo? ¿Cómo va ese micro? Bueno, pues aquí estamos peleándonos con el micro y con la interfaz de audio. Ya sabes que los que venimos de situaciones mucho más modestas. Yo utilizaba micros de 5 euros de estos de tubito o de diadema que iban en los auriculares. Ahora a tener un micro que impone, que pesa un kilo. No vale un kilo, pero pesa un kilo. Y una interfaz de audio y eso, pues acostumbrándome. Pues mira, de momento tengo que ir midiendo distancias. Lo tengo aquí con un brazo. De vez en cuando, al no verme lo como. Pero bueno, esto lo voy manejando medio bien. Y luego con la interfaz de audio, pues aunque es muy básica, los potenciómetros no tienen ninguna marca para saber exactamente dónde estoy. Así que a veces, bueno, que me disculpáis si salgo saturado porque tampoco veo el LED. Hay un LED que cuando saturo se pone en rojo y de momento no encuentro nada que me avise de que estoy saturando. Pero quitando de esto, bueno, de esta experiencia, por lo demás encantado de estar aquí. Y bueno, pues nada, hola a toda la audiencia. Pues nada, fenomenal, que somos esos aficionadillos con la intención de hacerlo lo mejor que se pueda. Pero bueno, ahí estamos. Y bueno, dado que este podcast se llama gafotas, cegatos y sus aparatos, pues queremos empezar por la primera parte de gafotas. Más adelante hablaremos de cegatos y de sus aparatos. Pero hoy queremos hablar un poco de gafas, que últimamente están bastante de moda. ¿Qué nos cuentas de estas gafas? ¿Cómo va esto, Ricardo? Bueno, en principio está de moda todo lo que son nuevos soportes con nuevos sensores. Y sí, las smart glasses están ocupando su terreno. Mira quién lo iba a decir. Y un poco han hecho válido todo lo que preveía la ciencia ficción. Y sí, va a ser un soporte que parece que se está destacando entre otros. Y no sabemos si realmente sustituirá o complementará al terminal móvil, pero está ahí. Y bueno, lo importante de esto es que hemos conseguido en poco tiempo tener cámaras en nuestros dispositivos de tanto gafas, terminales móviles y de otro tipo, con lo cual podemos ver el mundo. Hemos tenido que tener buenos micrófonos, uno, dos, tres, cuatro, cinco, hasta como estas gafas de las que vamos a hablar hoy tienen, con lo cual escuchamos muy bien el mundo. Buenos también altavoces y auriculares. Y lo que ha venido a revolucionar todo, que es los modelos de inteligencia artificial entrenados con redes neuronales Transformer, que han conseguido con la integración multimodal de los distintos recursos, pues que todos estos terminales puedan ver fotografías, hablarnos de ellas, describirlas, preguntarles sobre ellas, generar voces casi humanas con expresión, que nos interrumpen, que las interrumpimos. Y todo esto en todo tipo de terminales, comenzando por nuestros dispositivos móviles, terminales móviles. Luego otros específicos como el ARX Vision, como puede ser el NOAA también, que es un dispositivo de orientación, que también tiene pues todo lo que acabo de decir. Como puede ser, bueno, un montón de ellos y un montón de aplicaciones también dedicadas a esto. Y las gafas, así que esto puedo decir. Sí, a mí me parece muy interesante la parte de la miniaturización, de cómo pues poco a poco pues ya somos capaces de meter varios micrófonos, una cámara de fotos o de vídeo, con una batería razonable, en un peso razonable, y pues ir incorporando diferentes dispositivos más o menos pequeños, pues que podemos llevar encima. Y hoy, pues para hablar también de todo esto, tenemos a un invitado. Tenemos con nosotros a Roberto. ¿Qué tal estás? Hola, buen día. Hola a los dos y a todos los que nos escuchan. Pues muy bien. Grabando tempranito aquí desde la costa este de la Florida, en Estados Unidos. ¿Qué hora tienes? Roberto Pérez de Paz. Ahora mismo tengo las 8 y 52 de la mañana. Bueno, pues sí que es temprano. Buenos días, Roberto. Buenos días. Pues bueno, podemos hablar, decir ya, desvelar de qué vamos a hablar hoy, que creo que es el dispositivo que está de moda. Está en todos los corrillos, estamos viendo demostraciones en inglés, en español, en podcast, todo el mundo habla de ellas. Y bueno, unos las conocen, otros no las conocen. Y nosotros, bueno, con este, con esta tertulia, que es lo que pretendemos que sea esto, queremos ser una parte más que da una opinión de lo que pensamos que son este tipo de dispositivo, que no es otro que... Adelante, Arturo. ¿Las Meta Ray-Ban? Sí, señor. Smart Glasses. Que bueno, ha habido varios modelos, ha habido tal, pero bueno, ahora pues Roberto que nos cuente un poco más en detalle, ¿no? Para empezar, pues quizás los datos más objetivos, ¿no? De qué son estas gafas objetivamente, físicamente, por fuera, por dentro. Bueno, estas gafas han sido todo un fenómeno. Yo creo que han sorprendido empezando por Meta, que ya lo han dicho, que no se esperaba que fueran lo que han sido, porque estuvieron un modelo anterior que eran las Ray-Ban Stories, que no dio mucho de sí. Y esto, a ver, las gafas Ray-Ban probablemente mucha gente las conoce. Son gafas muy famosas, casi un clásico de las gafas, que ahora, con la combinación de Meta, pues adquieren una serie de características inteligentes. Esto de gafas inteligentes es un término bastante cuestionable en este caso, porque estas gafas al final son simplemente un altavoz Bluetooth, un altavoz Bluetooth con cámaras, porque la inteligencia realmente se encuentra en el móvil, en el dispositivo móvil que usemos, ya sea iPhone, ya sea Android. Las gafas, pues son unas gafas muy sencillitas, muy corrientes. De hecho, la mayoría de la gente que lo ve a uno con estas gafas no se imagina, salvo que las conozca, que específicamente sepa que son las Meta Ray-Ban y demás, no se imagina que son unas gafas diferentes, porque tienen un aspecto muy normal. Tienen en la parte derecha, desde la perspectiva del que las lleva, por ejemplo, sí que se nota un LED que indica cuándo las gafas están grabando. Y en la izquierda, en el borde del marco a la izquierda, tienen una pequeña cámara de, me parece, 12 megapíxeles. Sí, sí, 12 megapíxeles. Entonces, las gafas utilizan la tecnología de Open Ear, Open Audio, o sea, audio abierto, no sé cómo se traducirá esto, pero tienen unos pequeños altavoces en las patillas que dirigen el sonido directamente al oído, de manera tal que si hay alguien cerca, probablemente escuche que están sonando, pero no es tan inteligible. Sin embargo, uno que las lleva puestas es como si tuviera el sonido a su alrededor. Ya contaremos más adelante un poco de la experiencia, pero es súper impresionante cuando haces un vídeo con Air, por ejemplo, que escuchas el vídeo, es difícil, hasta cierto punto, separar el sonido del entorno del sonido del vídeo que estás escuchando, porque suenan muy bien. Entonces, para concretar, pues son eso. Altavoces Bluetooth con cámara, con una serie de funcionalidades propias. Las gafas en el lado derecho, sobre la patilla derecha, justo entre la unión del marco, la armadura, y la patilla, hay un botón. Este botoncito, si lo presionamos una vez, tira una foto, que después podemos ver en el móvil. O sea, se guarda en el almacenamiento interno de las gafas, y después con la aplicación de Metaview, que es la aplicación para manejar las gafas, pues se puede transferir al móvil. Si lo presionamos durante más de un segundo, podemos hacer un vídeo. Pueden ser vídeos cortos, me parece que son de tres minutos como máximo. Pero, Roberto, ¿es botón o superficie táctil capacitiva? No, es un botón tradicional, un botón que puedes presionar. Sí, bueno, y también en la varilla o patilla de la derecha, hay una superficie táctil capacitiva que te permite realizar varios gestos. Por ejemplo, con un toque puedes pausar o volver a reanudar la reproducción de algún audio. Con dos veces, se puede avanzar al siguiente audio. Con tres, retroceder. O, deslizando el dedo hacia adelante, subir el volumen. Y deslizando el dedo hacia atrás, para poder bajar el volumen. Exactamente. Vamos a comentar que nosotros, aunque las conocemos, ni Arturo ni yo las tenemos. Solo las tienes tú. Así que quien hable con propiedades es tú. Por eso estamos aquí. Son, la verdad, muy bonitas. Yo recuerdo cuando nos decidimos a comprarla. Digo, esto hay que probarlo. Vienen en un estuche muy chulo. Bueno, son Ray-Ban. Es muy agradable. Es una presentación muy agradable al tacto, muy sencilla, con una caja así muy... Eso, es agradable de tocar. ¿La caja empaquetado o el case? Las dos cosas. Las dos cosas. Es una caja alargada. Una presentación que un poco recuerda a Apple, desde mi punto de vista. De percepción táctil, no sé si visualmente se parece. Y después, el estuche de las gafas es un estuche que simula cuero por fuera. Un estuche duro, pero con una cubierta que simula cuero. Y el estuche es un cargador. Eso, es que además de un estuche que sea para la protección y para guardar las gafas, es algo más, ¿no? Es decir, es un centro de una power bank y al mismo tiempo donde las gafas se conectan y se interrelacionan también con MetaView y no es un simple estuche. Las gafas siempre están conectadas con MetaView a través de Bluetooth. En todo momento. Bueno, mientras estén encendidas. Entonces, cuando las colocas en el estuche, lo que hace es que empiezan a cargarse. El estuche es un cargador en sí mismo. Y eso es la única manera de cargar las gafas, poniéndolas en el estuche. El estuche tiene un conector USB-C en la parte por debajo y tiene un botoncito muy difícil de percibir por detrás que se puede utilizar para emparejar las gafas cuando no están. O sea, para forzar las gafas a entrar en modo de descubrimiento, para ser descubiertas en Bluetooth, para emparejamiento. Esto es correcto. Aquí estaría conectada la caja y las gafas, perdón, la caja a través de las gafas a MetaView, ¿no? Exactamente. Las gafas se conectan a MetaView, la caja en sí misma no tiene Bluetooth, no tiene ninguna capacidad de ninguna conectividad, pero por supuesto, cuando introduces las gafas dentro, pues... Ofrece información de carga y todo, ¿no? Exactamente. Puedes consultar información de carga desde la aplicación. Bueno, a ver, puedes en teoría. En la práctica, eso es bastante poco confiable porque no siempre aparece. Yo no tengo claro si es un problema mío, no tengo claro si es un problema de accesibilidad, no tengo claro si es un problema de MetaView, porque toda la gente que le pregunto me hace una historia diferente. Entonces, parece que esto es un poco raro. Aleatorio. Bueno, lo que sí que es cierto es que me han dicho que lleva ocho cargas el estuche este. Posiblemente. Yo no las he contado, pero aguanta muchísimo. Lo he leído en la web de MetaView. Sí, es posible. Parece razonable. Yo nunca, como chequeé la carga de la funda, es un poco difícil, yo nunca dejo que se descargue, pero tampoco estoy encima de eso. Puedo estar usando las gafas dos o tres días, y las uso mucho, y no sé, no me quedo sin cargas. Luego nos contarás esto. Vamos a seguir hablando, si os parece, ahora me decís, de qué puedes hacer con las gafas, pero sin la inteligencia artificial, únicamente como dispositivo autónomo. Porque las gafas, eso, de forma independiente, sin conectarlas al móvil, pueden hacer algo. Pueden hacer, sí como no. De hecho, yo llegaría al punto de decir que, a ver, la inteligencia artificial es interesante, vamos a hablar de ella más adelante. Pero las gafas en sí mismas ya son un cacharrito muy interesante, porque, lo que dije, son un altavoz Bluetooth con Open Audio. Quiere decir que podemos escuchar VoiceOver, podemos escuchar todo el sonido del móvil. Puedes escuchar VoiceVista y, en realidad, probablemente más que la inteligencia artificial, esa fue la motivación inicial mía para comprarla. Porque yo no tenía, o sea, no estaba nada claro si la inteligencia artificial iba a ser útil o no, en aquel momento todavía nadie lo sabía con certeza. De hecho, ni siquiera estaba formalmente todavía disponible. Pero yo andaba buscando un Open Audio para usar con VoiceVista y para usar con estas aplicaciones y nada de lo que probaba me convencía. Y estas gafas me convencieron. O sea, como Open Audio, para mí es el mejor Open Audio que he usado, con diferencia. He probado Open Feed, he probado los Sony Link Bots, estos que tienen un agujerito, los AirPods, todo lo que se me ocurre, que se ha mencionado por ahí, lo probé y estas gafas fueron las que me convencieron. Ahora, la cosa no acaba ahí. Incluso sin la inteligencia artificial, las gafas entienden comandos de voz. Pueden preguntarle cosas como qué hora es, no sé, no mucho, pero... Sí, recuérdame esta cosa... Lo de recuérdame ya depende de la inteligencia artificial. Sí, ah, pues pensaba que era una cuestión interna de las... No, puedes preguntarle la hora, puedes pedirle que te ponga música, porque la puedes conectar ya sea con Spotify o Apple Music o Amazon Music. Puedes pedirle que te ponga música. Se te haga llamada. Exacto, las gafas se vinculan con WhatsApp, con Messenger, con la aplicación nativa del teléfono. Con lo cual puedes hacer llamadas telefónicas o recibir llamadas telefónicas de manera totalmente manos libres. Llamadas y videollamadas. Exactamente, que es lo más interesante. Si utilizamos WhatsApp o Messenger, se pueden hacer videollamadas de tal manera que la persona con la que uno está hablando puede ver a través de las gafas. Lo que se llama visión subjetiva. Bueno... Es decir, la persona recibe lo que tú estás viendo desde tu cámara y tú puedes consultarle, ¿no? Decirle qué tengo delante, qué es esto... Por supuesto, estas gafas no fueron diseñadas con ninguna motivación en relación con la discapacidad visual. La idea fue que tú pudieras hacer una llamada y mostrarle algo a alguien. Y claro, a nosotros eso nos viene de maravilla. Podemos llamar a alguien en WhatsApp. Una vez que la llamada se establece, se presiona dos veces el botoncito que mencioné que sirve para tomar fotos. Lo presionas dos veces y la persona comienza a ver en su pantalla de WhatsApp lo que la cámara está viendo. Es una función muy adelantada del propio Meta porque ellos concibieron también estas gafas para que los influencers, youtubers y la gente en general pudieran emitir streaming en Instagram, en todas sus redes sociales, Facebook y demás. Y lógicamente también a través de Messenger y de WhatsApp. Y una vez que estamos tratando este tema, que a mí me parece determinante, al margen de la inteligencia artificial, podemos hablar también de servicios que están ahí pidiendo entrar, como son Be My Eyes y Aira, que supongo que los conocerás a fondo. Muy a fondo. Así que, cuando quieras, comentamos también eso, que creo que es interesante. Sí, pero si quieres, antes de llegar ahí, me mencionabas que con las gafas se puede hacer streaming. Que eso tampoco depende de la inteligencia artificial. Pero también se pueden hacer fotos y videos. Y a eso yo lo encuentro súper interesante. Específicamente porque al ser unas gafas, las fotos y los videos que hagas con ellas son muy estables. Porque tienen la estabilidad del cuello. Y yo me estoy encontrando a mí mismo haciendo muchísimas fotos porque tengo un gran nivel de confianza en que lo que voy a retratar es realmente lo que quiero. Es decir, tú no ves nada. Tú estás enfocando lo que tienes enfrente, lo que escuchas. Exactamente. Yo simplemente dirijo mi rostro en la dirección del sonido de lo que quiero capturar. Y sale bien. Sale bien. Incluso después lo describo con las aplicaciones estas de inteligencia artificial generativa y salen bien las descripciones. En cuanto a los videos, el sonido de los videos que hace es muy bueno. Es muy bueno. De hecho se le está pidiendo a Meta, por favor, por favor, por favor, danos la función de grabar audio. Bueno, van a tener que ir sacando el audio a los videos. Aquí por lo que he leído, y si ahora me corriges y realmente esto no es así, el dispositivo, las gafas disponen de cinco micrófonos. Dos en la patilla derecha, dos en la patilla izquierda y otro en el puente. Esto lo que hace es que cuando estás grabando video, hace lo que se llama sonido inmersivo. No llega a ser holofónico, pero bueno, casi es. Es un sonido muy de entorno y la verdad es que tienes toda la razón. Los videos que hemos escuchado son alucinantes. Es que es un paisaje sonoro muy bueno y de una calidad muy alta. ¿Qué ocurre? Que cuando está grabando audio, ellos lo han condicionado. Te lo digo que es por lo que he leído. Han condicionado dos de los micrófonos para la cancelación de ruido cuando haces audio. Entonces, en audio te están escuchando con tres micrófonos y otros dos están dedicados para la cancelación. Está muy bien hecho. Es muy inteligente lo que ha hecho Meta, pero claro, en algún momento sí que tendrían que dar al usuario la posibilidad de decir, un momento, no quiero cancelación, déjame los cinco micros, te quiero grabar audio, como de hecho iPhone ha hecho con las notas de voz. Si os dais cuenta, en los nuevos iPhone, la grabación en notas de voz es... Bueno, me salí un poco del tema, pero esa es la historia. Y no te interrumpo. Claro, no, no, no, sí, sí. Es súper válido lo que estás diciendo, claro que sí. Es que además es muy interesante porque hay que tener en cuenta que esto no lo hicieron pensando en Civos ni mucho menos, ni en la accesibilidad. Nosotros lo podemos aprovechar de rebote y lo podemos aprovechar muy bien, pero esto no lo hicieron pensando en nosotros. Lo hicieron más pensando en los que graban vídeos para Instagram, como has dicho, tiktokers y similares, ¿no? Sí, sí, sí. El perfil que usa, es que estas gafas son muy interesantes porque cuando haces vídeos, por ejemplo, esos vídeos se hacen totalmente en local en las gafas y es una de las razones por las cuales suenan tan bien, porque no tienes la pérdida asociada a la transmisión Bluetooth. Ese audio que se está capturando inmersivo, que se está capturando con los cinco micrófonos, se está haciendo totalmente en las gafas y después tienes que transferir ese fichero al móvil, en tanto que cuando utilizas grabación de audio desde el móvil, ya lo que estás recibiendo es un audio Bluetooth a través de un audífono Bluetooth típico. Ahora, tiene una ventaja muy interesante que no tienen otros dispositivos de este tipo. Como tienes un micrófono sobre el puente de la nariz, que es el que de hecho recibe el audio que se está transmitiendo, puedes hablar muy bajo y las personas te oyen perfectamente. Incluso cuando hablemos de la inteligencia artificial, yo puedo usar la inteligencia artificial de Meta en público y nadie se da cuenta, porque puedo hablar en voz muy baja y me escuchan. Lo que hemos observado también, por gente que nos ha llamado desde sus gafas, es que cuando nos hablan, por ejemplo desde un vehículo como puede ser un agua o un autobús, que se oyen habitualmente, son muy viciosos porque es así, aunque sí que pierde un poco de calidad lo que es el audio, lo que llega es sin ruido. Es decir, no se escucha absolutamente nada. Me parece muy conseguido por parte de esta gente, porque no es fácil en un lugar bullicioso, en un metro, el poder emitir. Y las gafas lo hacen bien, lo hacen muy bien. Bien. Bueno, toca ahora hablar de Be My Eyes y de... Pues sí, aunque no están pensadas para accesibilidad, tienen muchas funciones que son muy accesibles y que resultan muy interesantes. Esa de que no están pensadas para accesibilidad es cosa del pasado. No se pensaron así inicialmente. Meta no lo consideró, pero a día de hoy Meta ya tiene muy claro. De hecho, quien pudo escuchar el Meta Connect lo sabe. Ya ellos lo tienen clarísimo. Y ya Meta tiene recursos dedicados a la accesibilidad. Tiene personal dedicado a trabajar con Be My Eyes específicamente. Y hay dos proyectos de integración que son muy prometedores. El primero es Be My Eyes. Be My Eyes está trabajando directamente con... Bueno, hay tres proyectos en realidad. Be My Eyes está trabajando directamente con Meta en este momento. Y aquí se activó porque dije su nombre. Está trabajando con Meta para integrar la funcionalidad de Be My Eyes dentro de MetaView. Expliquemos, expliquemos lo que es Be My Eyes porque habrá gente que no es ciega y no lo utiliza. Be My Eyes es una aplicación, eso lleva ya varios años. Recuerdo desde qué año estaba Be My Eyes por ahí. Que conecta a una red de voluntarios con personas ciegas para proveer asistencia visual. Proporcionan una plataforma en la cual te puedes registrar como usuario ciego de la plataforma o como voluntario para ofrecer asistencia visual. Ahora no recuerdo cuántos... Es más de un millón de voluntarios me parece ya a día de hoy. Bastante más. Sí, sí. No sé si tres o cuatro millones. Es una burbuja. En la aplicación se ve. Si abres una aplicación se ve cuántos voluntarios hay en cada momento registrados. Y lo bueno es que hay voluntarios en un montón de idiomas. En la aplicación móvil puedes elegir qué idioma utilizas como lengua principal y te conecta con voluntarios que declaren hablar esa lengua. Con lo cual tenemos español, inglés, chino... Y hasta ahora tú, por ejemplo, ¿cómo lo haces? ¿Coges tu terminal móvil? ¿Tienes, por ejemplo, delante de ti una documentación o unos discos que no sabes de qué son? ¿Y qué harías? ¿Llamarías a través de Be My Eyes a un voluntario? Exacto. Be My Eyes tiene una serie de pestañas. Una de esas pestañas es obtener asistencia. Y tienes un botoncito que es llamar a un voluntario. Y ahí le das. Y claro, como hay tantos, los tiempos de espera son bastante cortos en general. Y te responde un voluntario que, claro, aquí entra la voluntariedad. Lo mismo te encuentras una persona que está trabajando en la cocina, está fregando las vajillas que una persona que está en un automóvil. La verdad es que es muy divertido porque terminas hablando con alguien que en realidad no es un profesional de la rehabilitación ni nada de eso. Es simplemente alguien que está ahí. Pero te presta sus ojos. Y si no te descuidas te pones a conversar. Hay historias de gente que hasta ha conseguido trabajo con llamadas a Be My Eyes. De momento es con el terminal móvil, la cámara del móvil, el propio voluntario te puede orientar. Se enfoca más hacia la derecha, hacia la izquierda, hacia abajo. Ya lo estoy viendo. Así miras un disco de Nina Simone, tal, lo que sea. Pues eso es lo que estoy buscando. Eso con el móvil. ¿Y ahora se integrarán esto en las gafas? Claro, lo que se va a poder hacer y probablemente se va a lanzar, si no este mes de noviembre, probablemente antes del año que viene. Lo que vamos a poder hacer es que estamos con nuestras gafas de meta y desde las gafas sin tocar el móvil podemos llamar a un voluntario de Be My Eyes que va a ver a través de nuestra cámara de las gafas, escucharnos a través de las gafas y nosotros lo vamos a poder escuchar a través de las gafas. Y tú con las manos libres. Pero totalmente, simplemente utilizando la inteligencia, utilizando la asistente de meta vamos a poder llamar al voluntario y tener asistencia visual. Suena muy bien. Además, estas gafas, no hemos hablado de las otras gafas parasitas que hay, pero una de las diferencias que estas gafas tienen, que las hacen muy convenientes, es también una desventaja, pero yo la veo como una gran ventaja desde el punto de vista de utilidad. Las gafas funcionan por Bluetooth fundamentalmente. Tienen la posibilidad de conectarse a Wi-Fi para ciertas cosas, fundamentalmente para transferencias de ficheros, pero en general funcionan a través de Bluetooth. Eso quiere decir, no hay que preocuparse si hay Wi-Fi, no hay que preocuparse por llevar un punto de acceso por ahí, en la calle. Simplemente si el móvil está a una distancia de Bluetooth y hay cobertura, van a funcionar. No hay que hacer emparejamientos raros, ni que se te cae el hotspot. Es una cosa que pasa con otras soluciones de este tipo. Es decir, que son muy fáciles de emparejar y de... Exacto. Y una vez que está la conexión establecida, eso funciona. Claro, es Bluetooth. Te puede pasar, por ejemplo, hay una... Está claro, las gafas hacen streaming, graban vídeo en local, porque mover un vídeo en tiempo real a través de Bluetooth es problemático. Así que por ahí es posible que experimentemos algún tipo de dificultad, pero de funcionar, funciona. Y ventajas e inconvenientes respecto a otras gafas así similares de este tipo. Como has dicho, hay otras gafas que a lo mejor solo tienen audio, no tienen la parte de poder hacer fotos o vídeos y no te permitirían hacer cosas de estas del streaming, con el Pimax Ace o similares. Hay otras gafas que más que gafas son cascos, como las de Apple, que utilizan más la realidad aumentada, realidad virtual, inmersiva, más que realidad aumentada o similares. Respecto a otras gafas, éstas tienen un equilibrio bastante bueno. Yo no compararía estas gafas con algo como Apple Vision, porque son conceptos muy diferentes. El Apple Vision es una computadora en sí mismo, es un ordenador y su funcionalidad más que servirte para comunicarte con el mundo, es una especie de interfaz computacional en la cara, que la usas para interactuar con el ordenador, para ver vídeos, para manejar aplicaciones. Como era HoloLens. Exacto, como era HoloLens, como es MetaQuest, también es ese concepto. Son más llamadas gafas porque son más un visor, un casco. Pero en cambio sí que hay gafas. Están las Envision, las Google Glass adaptadas y las Celeste. Estas son ya de gafas pasivos, ya son gafas específicas. Sí, gafas pasivos. Entonces, para no perder el hilo con los servicios, pues esta es la integración con VimayaVisor. Está también la integración con Aira. Aira es un servicio de interpretación visual, en este caso un servicio pagado, aunque ellos dan cinco minutos gratis cada día y ahora tienen una oferta que si autorezas que usen tus datos para entrenar AI, te dan diez minutos gratis cada día. Entonces, lo que tienen es, ya no son voluntarios, son agentes pagados que están entrenados para asistencia visual. Reciben información, son profesionales. Tienen acuerdos de confidencialidad, con lo cual, en teoría, puedes mostrarles documentos con información confidencial. Ya es otro concepto. Tienen tiempos de respuesta en su contrato, cosas así. Aira no tiene como tal, a día de hoy, según la información que hay disponible, Aira no ha conseguido realmente trabajar directamente con Meta para integrar el servicio. Hasta en un puente, ¿no? Exacto. Entonces, están utilizando WhatsApp como puente. La manera en que esto funciona es que llamas a Aira a través de la aplicación móvil. Tienes que iniciar la llamada desde su aplicación móvil. Entonces, el agente de Aira te envía un enlace a una llamada de WhatsApp. Lo que pasa es que lo han hecho muy bien porque cuando la aplicación sale, el agente te envía este enlace a través del propio chat de la aplicación móvil, porque la aplicación móvil tiene un chat para intercambiar información con el agente. Entonces, cuando la gente envía este enlace, la aplicación sola, de en sí misma, lanza WhatsApp. Entonces, lo único que uno tiene que hacer es aceptar la invitación. Se corta la llamada del móvil. Ya tienes una llamada de WhatsApp en curso y ya tienes la comunicación con el agente de Aira. Y doble toque, ¿no? En la patilla. Exacto. Ahora, ¿qué problema tiene esto? Los agentes de Aira tienen toda una serie de herramientas a su alcance cuando utilizamos Aira. Por ejemplo, ellos te están controlando por GPS para el guiado en la calle. Tienen la habilidad de hacer fotos con la cámara del móvil. Tienen todo un dashboard con eso, con tu posición por satélite, el vídeo de la cámara por otro lado, la posibilidad de hacer fotos. Cuando pasas a la modalidad de WhatsApp, a través de MetaDriven, todo esto se pierde. Porque ya es una plataforma que ellos no controlan. Entonces, mucha de la funcionalidad de Aira se pierde. En Android la han mantenido, pero te obligan a tener la pantalla desbloqueada y la aplicación en primer plano. Ajá, mira, no lo sabíamos. Iba a decirte, este servicio solo es para Norteamérica y Canadá, ¿no? Exacto. Y de momento está en beta. No lo han lanzado todavía. Está en beta. Y solo tienen un grupo de agentes formados para utilizarlo. En realidad no se puede usar todavía. No se sabe cuándo se lanzará. Ellos han dicho que están ahí y que van a intentarlo y de momento lo van a hacer de esta manera y supongo que al final conseguirán algún tipo de convenio. Eso es lo que realmente quieren conseguir, una alianza con Meta para poder hacer lo que está haciendo Vimai Ice, que es integrar. Lo mismo que quieren hacer en Vision con Ally, ¿no? Con el aliado, ¿no? Esa historia es bastante más compleja, porque ellos están trabajando con Meta para, específicamente, para desarrollar su asistente utilizando Lama, las nuevas versiones de Lama que son multimodales. Entonces ellos quieren desarrollar su asistente que se llama Aliado, como tú bien dices, que se supone que va a ser el típico asistente con el que puedes conversar, que te entiende, que sabe cómo quieres que te describan las cosas, que tiene una personalidad definida. Pero ese asistente va a estar en las gafas de Vision, no en las gafas de Meta. Nadie ha dicho que no van a estar en las gafas de Meta. De hecho, podemos especular en ese sentido un poco, pero la información que tenemos disponible de manera tangible en este momento es que va a estar en las gafas de Vision. De hecho, ya han anunciado una presentación para este mes para hablar del lanzamiento del Aliado en las gafas de Vision. De hecho, hoy puedes solicitar ser beta tester, aunque no tengas las gafas en Vision, y bueno, tienen 4 o 5 perfiles con distintas voces y caracteres, creo que en inglés en principio, y aunque no tengas las gafas puedes probarlo desde el PC, porque lo que supongo que están haciendo ahora son pruebas. Ya dejaremos en las referencias de este podcast el enlace por si alguien quiere probarlo. Pero tienes razón, no. Lo que pasa es que ocurrió algo extraño, porque cuando era la MetaConnect, al mismo tiempo dio un paso adelante en Vision y nos habló de su aliado y de su propósito de incorporarlo a las gafas. Y aprovecharon el momento. Claro, claro, claro. Cogieron la ola y dijeron, bueno, está la nave y la cabalgamos. De hecho, estuvieron ahí en MetaConnect, los invitaron, uno de ellos estuvo ahí. Porque sí, están trabajando con Meta, pero en otro sentido. Claro, porque esto de las gafas se ha puesto muy de moda, pero también hay gente que dice, claro, que todo lo que puede hacer con las gafas ya lo puede hacer con el móvil, el Be My Eyes, o incluso el Voice Vista, otras aplicaciones, preguntarle la hora, no sé qué. Todo lo que se puede hacer con las gafas se puede hacer de otras formas. Yo te diría que incluso desde el móvil puedes hacer mucho más, porque la calidad de la cámara del móvil es muchísimo mejor que la de cualquier gafa disponible a día de hoy, excepto quizás la del Apple Vision, que no es una gafa, ya lo hemos dicho, y que no siquiera se puede acceder a la cámara por parte de las aplicaciones. Pero ninguna de estas cámaras, ni las gafas para ciegos, ni Meta Rayman, tiene la calidad de la cámara del móvil, ni tiene el tiempo de respuesta, ni la capacidad de procesamiento que tiene el móvil. O sea, con el móvil puedes hacer mejor CR, puedes tener mejor video. Lo que pasa es que el formato no es el idóneo. Tienes que andar con el móvil en una mano. ¡Ey, ey, ey! Ahí, esa es la diferencia. La comodidad. Cuando llevas las gafas, claro, comodidad. No tienes las manos agumaladas. No es nada nuevo, no se puede hacer nada que no se pudiera hacer antes, pero te aporta esa comodidad que te deja las manos libres. Y lo que ha dicho Roberto de las fotografías, él con el móvil, estoy seguro que nos conseguía. Es que no se me ocurrió. A ver, alguna vez lo hice, pero tienes que esperar que voy sobre y te empiece a decir, cara centrada, cara arriba, cara a la derecha. Es más o menos tratar de entender la perspectiva. ¡Ey! No queda bien. No queda bien. En cualquier momento, en la calle, ves cualquier incidente, cualquier cosa y es súper rápido y súper cómodo. ¡Exacto! Y se la mandas a alguien. ¿Tú estás contento, Roberto? ¿Estás contento con la adquisición? A mí me encantan las gafas de metal. A mí me encantan. Yo estoy súper contento. ¿Cuántos, si no es indiscreción, cuántos costó allí en Norteamérica? ¿Cuántos ha costado? El precio regular es 300 dólares. Con impuestos se monta en 330, me parece. Vale. Igual que aquí, 329 euros. Exacto. Aquí, 329 dólares. Justo lo mismo. Ellos tienen modelos un poco más caros que tienen ya lentes de transición, pero tampoco mucho más caros. Porque entiendo que las tuyas son las Black, ¿no? Las Wayfarer Black. Exacto. Después me arrepentí. Después me arrepentí porque yo tengo un poquito de percepción de luz. Entonces, ese poquito de percepción de luz con las gafas puestas desaparece. Y descubrí, como alguien que no está acostumbrado a usar gafas, porque yo nunca he querido usar gafas, nunca me ha hecho falta, nunca. Nunca me ha gustado llevar gafas. Y claro, me di cuenta que el poquito de percepción de luz que tenía básicamente se pierde. Entonces, si me hubiera pensado, me habría comprado las de transición. Claro. Esta es la cuestión que es un factor que hay que destacar. Es que son Ray-Ban y Exilor, ¿no? Es decir, los mejores creadores de las marcas más famosas del mundo de gafas y los mejores haciendo lentes. Exilor. Exilor Luxottica es la empresa. Entonces, tienen todo lo que tienen ellos. Es decir, las lentes son fotocromáticas. No solo eso, tienen también las transicionales, que son las que estabas comentando tú ahora. Y es más, puedes por prescripción tener unas graduadas e incorporártelas. Es que es una pasada. Es una pasada. La verdad es que son un cacharrito muy conveniente. Es un punto interesante, ¿no? Que no sé hasta qué punto... Bueno, de momento está claro que han tenido muchísimo éxito. Además, es un artículo también como de moda, ¿no? Las gafas que mucha gente las lleva para la moda. Pero, ¿hasta qué punto? Gente que hasta ahora no llevaba gafas puede quererlas llevar, ¿no? Con algo como esto. O, ¿hasta qué punto? Incluso gente que se operaba de miopía y demás para quitarse las gafas. Y ahora les vas a hacer que se pongan otra vez unas gafas. ¿Qué recorrido crees que puede tener esto? Bueno, yo te voy a decir que, como dije antes, yo nunca he sido una persona de gafas. Nunca me han gustado, me molestan. Yo he usado las gafas de Envision. Las gafas de Envision pesan. Son incómodas. Toda la electrónica de las gafas de Envision es incómoda. Las gafas de Envision pesan. Son incómodas. Toda la electrónica está en la parte derecha de las gafas. Con lo cual, tienes una pata súper gruesa. Que es más gruesa. No entra en la oreja. Básicamente, va sobre la... Es súper incómoda. ¿Vas de lado? Bueno, no tanto. Yo no repito esas gafas por más de media hora. Me molestan. Me da calor. Me cuece la cara. No me gustan esas gafas. Estas gafas yo las puedo llevar todo el día. La única razón por la que no las llevo todo el día es porque se acaba la batería. ¿Por qué hay que cargarlas? Es que yo las usaría hasta para conectarme a las reuniones de trabajo, si pudiera. ¿Cuánto viene a durar una batería? Depende de lo que estés haciendo. Si te pones... Como hoy quise hacer una vez que las quise usar para conectarme a las reuniones de trabajo. Porque son tan cómodas. Como en dos horas y pico, tres horas, me consumí. ¿En streaming? Exacto. Consumí la batería usando como audífono Bluetooth. Si no estás en esas cosas tan intensas, te pueden durar quizás medio día. Si estás constantemente preguntándole cosas a la inteligencia artificial, lo cual lleva también a hacer fotos usando el sonido de Bluetooth, bueno pues, te pueden durar. En el sitio web de Meta hablan de cuatro horas. Los usuarios que yo he visto dar datos dicen que entre tres horas y veinte, tres horas... Cuarenta. Una cosa que se puede hacer es apagarlas. Si no vas a usarlas en un momento concreto. En la pata izquierda, justo donde se une con la armadura, por la parte interior hay un pequeño interruptor, que incluso viene en la posición de encendido cuando compras las gafas. Es un deslizador, ¿no? Es un deslizador con lo cual puedes cortar la alimentación y apagar las gafas. Lo que pasa es que si la enciendes, cuando la enciendes tarda un poquito en iniciarse. Pues al final esto no deja de ser un móvil con Android. O sea, no un móvil, un dispositivo Android. O sea, se tiene que inicializar y tiene que volver a establecer la conexión Bluetooth. ¿Y son estables la conexión por Bluetooth? ¿Y a la hora de interactuar con ella son estables? ¿Hay cortes? ¿Funciona bien? El Bluetooth es una cosa que, por más que saquen versiones, no termina de funcionar del todo bien. Ahora, dentro de lo que cabe, yo las encuentro muy estables. O sea, te puede pasar en un momento dado que tú quieres usarla y te diga ¿No hay conexión? O sea que, bueno, pues mira. Las reinicias ya. Pero pasa poco, la verdad. Pasa bastante poco. O a mí me pasa bastante poco, a lo mejor. Depende de las condiciones de cada cual. Yo no las encuentro menos estables. O sea, las encuentro más estables que otros audífonos Bluetooth que he usado. Sí. Hay latencia cuando usas VoiceOver, por supuesto. Como cualquier audífono Bluetooth. Si usas un OpenFit, más o menos vas a encontrar una latencia parecida. Pero de milisegundos, ¿no? Sí. Es un poco pegajoso. Yo lo noto muchísimo. Sobre todo cuando uso la entrada de Braille en pantalla. Lo noto muchísimo. Pero lo noto con cualquier audífono Bluetooth, no solo con la gafa. O sea, no es peor. Que no sea un AirPod. Ah, exacto. Exactamente. Ahí no hay latencia. Bueno, y el tema que más expectativa, ¿no? Ha causado que llevamos más de 40 minutos y casi nos vamos sin hablar de ello, ¿no? ¿Qué tal la inteligencia artificial, no? Que tanto revuelo ocasiona en general y en estas gafas en particular. Sí. Bueno, inteligencia artificial, en general podemos hacer otro episodio. Sí, vámonos. En estas gafas específicamente. Como está pasando con la inteligencia artificial generativa en otros campos. Esto está cambiando por días. O sea, lo que yo diga hoy, puede que el mes que viene no sea válido. Y estoy hablando literal. Yo creo que el mes que viene no va a ser válido. Esto es una expresión para editar el audio prontito. Porque si no, se nos va a quedar anticuado. Exacto. Edítalo rápido que puede que pase algo en noviembre. Se nos va a quedar anticuado. Esta inteligencia artificial, Meta.AI. Se habla mucho, por supuesto, de la descripción de imágenes. Hace mucho más que eso. O sea, la inteligencia artificial de Meta.AI es un asistente en general. Puedes lo mismo preguntarle por las noticias, que preguntarle por el tiempo, que hacerle una pregunta general, que pedirle que te busque algo en la web. O sea, hace mucho más que solo describir imágenes. Y eso me parece útil decirlo. Porque normalmente no se valora ese detalle. Y es conveniente a Meta.AI. Necesita saber una cosa, está con las gafas, pues simplemente le pregunta. Te puede pasar que lo que te ha respondido no tenga sentido. Y por eso te va a pasar con cualquier aplicación de inteligencia artificial generativa. Y ha mejorado muchísimo. Tiene unos tiempos de respuesta muy cortos. Los podemos probar. Los podemos mostrar. Muy, muy, muy cortos. Y en lo tocante a descripción de imágenes, hay que entender. Número uno, no fue diseñada para ciego. Aunque creo que eso va a cambiar. No está pensada para describir imágenes, sino para utilizar la funcionalidad multimodal para cosas como, sugiéreme qué comprar basado en lo que tengo en el refrigerador o de este menú, qué es lo que me conviene comer. O dame un criterio sobre cosas. Los usos que hace de esto, la mayoría de la gente que ve. Que no les interesa, que le cuenten cómo es algo. Entonces, si comparamos las descripciones que hace con lo que hacen aplicaciones especializadas como pueden ser BeMyAI, o como puede ser Aira Access, o incluso ShareGPT. Cuando se le explica cómo una aplicación es especializada, las descripciones que hace son bastante escuetas, bastante poco útiles. Si simplemente le pides, describe lo que tengo delante, o lo que vas a recibir es algo que puede que no te sea muy útil. Incluso eso ha mejorado con el tiempo, pero sigue siendo, en comparación con estas aplicaciones, bastante limitado. Y ahí fuimos. Y ahí fuimos. Y ahí fuimos. ¿Hay forma para que te extienda esa descripción? Si lo hay, puedes pedirle más detalles. No siempre es útil pero puedes decirle que expanda en cierto aspecto. Por ejemplo, vamos a ver si esto funciona. Tengo delante una computadora y quiero saber si la pantalla está encendida o apagada. Le voy a preguntar a Meta.AI si la pantalla está encendida. Está encendida. Eso es lo que pasa cuando se le hace una pregunta muy literal. Pregunta, ¿está la pantalla encendida? Perdón, tendría que haberle dicho que lo dijera en español. Voy a arrepentir a ver si sale. Dígalo en español. Lo haré de otra manera. Voy a decirle que mire y me diga si la pantalla está encendida. Sí, la pantalla está encendida. Dígalo en español. La pantalla está encendida. Puedes ver varias ventanas y aplicaciones abiertas en la computadora portátil. La laptop parece estar funcionando correctamente. No hay ningún error o mensaje de advertencia visible en la pantalla. Bueno. Has sido generoso. En español has sido muy generoso. En español has sido muy generoso. Sabía que lo estabas grabando. Y de escueto nada. En inglés simplemente me respondió, sí, la pantalla está encendida. En español no. Como así te habla de la higiene y te dice que tiene los dedos llenos de dedos grasosos, toda la pantalla que tienes que limpiar. Podría haberlo dicho, la verdad. Podría preguntarle si la pantalla luce limpia. Sí, sí. Lo que intentaba demostrar. Si uno le hace una pregunta muy concreta, la respuesta es bastante probable que sea buena. Por ejemplo, la pregunta típica, coges algo del refrigerador o lo que sea, una lata, un pomo, y le preguntas, hey, Meto, what am I holding? O sea, a ver, me va a responder. Aparece que no hay nadie teniendo nada en esta imagen. Hay dos laptops y otros objetos en la superficie de la mesa o de la mesa. Dígalo en español. Bueno, traduzco yo. Como dije una frase que entiende, le dije, what am I holding? Que estoy sujetando, que estoy agarrando. Tiró una foto y, por supuesto, me respondió que no estaba sujetando nada, que nadie estaba sujetando nada. Que hay dos laptops y otras cosas. Otras cosas. Y me dijo, bueno, ¿qué es lo que estás sujetando? ¿Qué es lo que estás agarrando? ¿Qué es lo que estás agarrando? Y otras cosas. Y de pronto le dije, dilo en español. No entendió lo que estaba diciendo. Pero eso, si se le hacen preguntas concretas y después se le pide que lo traduzcan, lo hacen. Por ejemplo, una función que yo uso mucho es coger una carta, un sobre, un correo, mirar el sobre y decirle, look and read it, o sea, y te lee, te lee lo que está en el sobre. A veces te lo leo, a veces no. Inteligencia artificial generativa, impredecible. Nunca sabes, nunca tienes la certeza si va a funcionar. Claro, eso es importante, que la fiabilidad no es 100%. Cada vez siempre tenemos ahí esa duda de si nos ha engañado, lo ha inventado o ha acertado. ¿Y se puede inventar una historia? Ya lo hace menos, pero se inventa historias. Sí, paremos aquí un momento, porque esta parte creo que sí a la comunidad, sobre todo de personas ciegas, le puede interesar. Es la capacidad de OCR que tienen las gafas a través de la inteligencia artificial. Realmente no están haciendo un OCR real, que es una tecnología muy concreta que tiene que trabajar en condiciones muy específicas y no tiene nada que ver con la inteligencia artificial. Es lo que el reconocedor óptico de caracteres. Aquí lo que tenemos es una inteligencia artificial que se ha entrenado el modelo, enseñándole un montón de caracteres, letras y todo. Sí que es más versátil, pero al mismo tiempo es más impreciso y creo que no hace lecturas literales del texto que tiene delante. Se trabaja sobre un resumen inicial y luego se va especificando, realizándole preguntas, porque sí que tiene acceso a la imagen. Un OCR, por ejemplo, de una carta, te leería de P a PA, es decir, toda la carta, y aquí te daría un resumen y tú luego tendrías que ir preguntándole, por ejemplo, si es una factura del recibo de la luz o algo de esto, datos, qué consumo he tenido, cuánto tuve el mes pasado, y ahí sí que es capaz de encontrarlo dentro del documento. Pero hacer lo que es una lectura, ¿no? O me estoy confundiendo. No, no, eso es correcto. Eso es correcto, sobre todo porque Meta, específicamente Meta.AI, tiene unos tiempos de respuesta muy cortos. O sea, para decirlo, la ventana de tokens, o sea, los tokens son, por decirlo de alguna manera, imaginemos que hay una cantidad de dinero disponible para realizar una función. En este caso, contarte lo que hay en una imagen y que cada palabra que la inteligencia artificial produce cuesta una cantidad de dinero. Bueno, dinero no es literal, pero probablemente se entienda. A Meta le dan muy poco dinero para responder, con lo cual la respuesta tiene que ser escueta y precisa. Eso también da lugar a que no pueda leer documentos enteros, más allá de que, como tú dices, Ricardo, la inteligencia artificial generativa no es OCR, su función no es leer un documento. Con otras aplicaciones, como SharkGPT, se puede conseguir hasta cierto punto que lo haga, simplemente porque dispone de más tokens de los que mencionaba antes. Entonces se puede conseguir incluso que haga cosas muy chulas, como una lectura como la que haría una persona que ve. Por ejemplo, que te diga, el documento tiene un título que está en la parte superior del centro, que dice tal cosa, tiene un logotipo de tal, y a continuación el texto dice, y que te lo reproduzca literal. Eso lo puedes hacer con SharkGPT, con Meta AI no lo puedes hacer, porque no tiene suficientes tokens y el modelo no es lo suficientemente bueno. Entonces estamos hablando que es una cuestión de tiempo, la tecnología está ahí, y hay que habilitar esos tokens, pero probablemente en un futuro lo haga sin ninguna dificultad. Y también depende de cuán bueno es el modelo. En este caso creo que todavía están usando, no sé si ya están usando el Ama 3.2, o todavía siguen usando 3.1, como decían antes, con otro modelo separado para analizar imágenes, no lo sé. En cualquier caso, la calidad, el rendimiento del modelo también es fundamental. hablar en otro momento un poco más de detalle, pero hay muchas IA's distintas de muchas compañías que están especializadas en diferentes cosas y esta pues de forma nativa usa la suya, usa la de Meta. Pero lo que quizás se pueda concluir es que no va a leer un documento entero. Ahora, puede que sí te lea el remitente de un sobre o puede que te lea una dirección. Y aquí encontramos otro gran problema de Meta. Hay que entenderlo y saber que está ahí. Meta IA tiene unos filtros de contenido muy fuertes porque esto no está pensado ni para accesibilidad. Hay una preocupación muy grande con la privacidad. Preocupación muy entre comillas. Eso se puede hablar mucho, pero de cara a la galería se hacen cosas como por ejemplo meterle filtros de contenido muy fuertes y te puede pasar que le digas a quién va a dirigir la carta y te diga no puedo no puedo hablar de información personal, no puedo decir nombres ni direcciones, ni no sé qué más. O le puedes pedir tengo una persona delante y puede que te lo responda, pero después le digas la persona está sosteniendo un batón. No puedo discutir la apariencia personal de la gente, ni su identificación, ni nada. Por ahí anda un post de Facebook que dice, que habla de que se puede, incluso explica cómo hacerlo, hacer que Meta RayBan identifique personas. Yo no voy a decir que eso no es verdad. Lo que sí voy a decir es que eso yo no lo he conseguido y que más bien es todo lo contrario. Meta AI se niega a dar información que pueda identificar a alguien. Y por otro lado no tiene memoria. Meta AI va a entre comillas recordar lo último que se le dijo durante un periodo de tiempo determinado. No recuerdo cuánto es ese periodo de tiempo, pero es muy breve. Incluso si le pidieras que mirara algún sitio y le explicaras esta persona es fulanito de tal, lo recordaría probablemente durante los siguientes 30 segundos. Correcto. Si no tiene la potencia de una versión de pago como el ChatGPT Plus, que tiene una memoria brutal y recuerda creo que meses de todo lo que, y de hecho te saca a colación cuestiones que tú ya habías olvidado que se lo habías dicho. Esto es otra circunstancia que está ahí, es otro modelo y lógicamente pues ya está. Sí que es cierto, y esto debe conocerlo la gente, que hubo un trabajo muy interesante entre la gente de Be My Eyes, la aplicación de la que hablamos antes, y la gente de OpenEye entrenando el modelo para personas ciegas. Y eso le ha dado un valor distintivo frente a cualquier otra inteligencia artificial en cuanto a la eficacia que tiene para describir imágenes y orientar a personas ciegas. Es por un entrenamiento específico que es lo que Meta en este momento, y Meta ahí no ha hecho, suponemos que lo hará, ¿no? Es bastante probable porque están trabajando con gente como Envision, hay otros trabajos que se están realizando de los cuales no se habla. Por ejemplo, una cosa que ellos dijeron en MetaConnect es que Meta en las gafas va a poder trabajar hasta cierto punto con vídeo en tiempo real, va a poder describir acciones en tiempo real ocurriendo en un vídeo, y eso posiblemente lo veamos muy pronto. Pero, stop, vamos a ver a nivel del procesador y consumo energético, cómo va a gestionar esto. ¿Qué hace en realidad? Claro, pero, Roberto, ¿cómo vamos a ver? ¿Es que el procesador es pequeño, la batería es pequeña y grabar en tiempo real...? No, eso se va a hacer en la nube. Me imagino que lo que va a usar es la misma función de streaming que utiliza para enviar vídeo en tiempo real a Instagram o a Facebook, y va a utilizar ese streaming en la nube para extraer algún tipo de información. Eso lo digo yo, no lo dice Meta. Con lo cual, podría hacerse. Ahora, vamos a ver qué tan útil es. Claro, y qué delay tiene, porque hoy por ahí no se puede hacer, y para saber si un semáforo está rojo o verde, pues hoy por hoy no vale. Exacto, y lo que decía Ricardo, este modelo no está entrenado específicamente para responder a las necesidades de una persona ciega. Eso se nota mucho. Realmente decimos que las AIBAN Meta no se pensó para personas con discapacidad como una tecnología de asistencia, y así es. Y quería hacer referencia a un artículo de Nature, que, bueno, pondremos también en la descripción el link para que lo podáis consultar, donde distintas universidades de Europa y Norteamérica relacionadas con la oftalmología y la óptica, y bueno, el artículo viene a hablar del potencial que tiene este dispositivo tecnológico, Ray-Ban Meta, para asistir a personas con distintos problemas visuales, desde la ceguera hasta problemas de baja visión. Es decir, que ya hay universidades y ya hay gente viendo en el dispositivo un potencial que se va a utilizar sí o sí para la asistencia, aunque no nació así. Exacto. Esto va a cambiar, y creo que es un buen momento para meterse en este mundillo y empezar a aprovecharlo. No sé si quieren hablar. ¿Qué le dirías a la gente? Porque nosotros aquí en Europa no podemos utilizar la inteligencia artificial. Tendrían que usar una VPN para iniciar sesión. De igual, está haciendo mucha gente. Se ha hablado de si eso es legal, si eso es ilegal. No sé si queremos meterlo en esa cuestión. La verdad es que a Meta eso no le interesa. Meta no ofrece el servicio en Europa, pero si alguien en Europa lo utiliza, no necesariamente significa que está violando términos del servicio. O sea, lo está usando bajo su propio riesgo y responsabilidad. Pero muchísima gente lo está haciendo. Usar una VPN no es nada que no sea... En el mundo empresarial, en el mundo tecnológico, las VPN se usan todo el tiempo. Las VPN son productos que cualquiera puede usar. No son ni herramientas de hacker, ni herramientas para saltarse contenidos por países, aunque se puedan usar para cosas de ese tipo. Una VPN es simplemente una herramienta que cualquiera puede usar de manera legítima. De otra forma, la VPN sólo sirve aquí en España para activar de nuevo el servicio de MetaID y luego desconectar la VPN y sigues trabajando durante un mes. Sí, no sé si funciona un mes o más o menos, pero exacto. Una vez que está iniciada la sesión, que está establecida la ubicación, ya se puede dejar de usar. Ahora, lamentablemente, como lo hemos visto, hay que hablarle en inglés. Eso sí, no tiene mucho arreglo. Sí, una VPN es un programa que se instala en el móvil, en el dispositivo en cuestión, en el ordenador, en el router, en algún sitio. Y normalmente cuando nos conectamos a internet, pues las empresas saben desde dónde nos estamos conectando, desde qué país sobre todo, que es lo que les interesa para ver qué tipo de contenido nos pueden ofrecer. Y una VPN es un programa con el que puedes simular que te estás conectando desde otro país, aunque tú estés donde estás físicamente, pero la IP, tu dirección, pues figura como que es de otro país. Entonces te permitiría, en un caso como este, que las gafas no están disponibles para poderlas activar en Europa, pero podrías emular que estás en otra localización y entonces sí que te lo permitiría. Meta por lo menos no está poniendo problemas para evitarlo. Ellos autorizan la conexión desde Norteamérica y Canadá. Se está expandiendo, ahora también la autorizan desde Reino Unido, Irlanda... Entonces Commonwealth, ¿no? La Commonwealth. No sé si podríamos hablar de la Commonwealth en su totalidad, pero por lo menos sabemos que esos países, Australia parece que también. Ahora no tengo la lista de países concretas desde las que están ofreciéndolos. Lo que sí quiero comentar yo es que la gente está diciendo que es por el reglamento o la reglamentación o ley europea de inteligencia artificial, por lo que no tenemos aquí el servicio y yo creo que es una cuestión de escalabilidad. No lo tenemos aquí porque no lo ha autorizado Ray-Ban Meta, que sí pueda haber un factor de futuro que estén negociando las condiciones, pero en este momento creo que lo han hecho porque no tendrán máquinas suficientes como para soportar todas las demandas a nivel mundial. Posiblemente por un lado por escalabilidad y por otro lado también pues está por la incertidumbre. Normalmente las empresas en los sitios donde hay incertidumbre pues tampoco se quieren meter, no hace que luego tengan que recular y tengan que ir para atrás. Es muy complicado a día de hoy. Esperar hasta que vean a ver qué decisión se va a tomar finalmente en Europa. Pero en Latinoamérica no tienen prohibición de ningún tipo. Se están extendiendo, sí. Ya está disponible en Latinoamérica desde hace no sé cuántos días. Hace poquito ya abrieron para México varios países. Pero ya sin VPN en México también. Qué interesante. Pues yo lo desconocía todo esto. No tienen esa incertidumbre política que los políticos de Europa pues han demostrado expresamente. Ahora el problema es que si lo pones en español, por ejemplo, pierdes toda la funcionalidad de Meta.AI. No porque haya un tipo de restricción, sino porque todavía Meta.AI no... el soporte de idioma español no está presente. Claro, porque el corpus de la IA es en inglés, todo lo trata en inglés. De momento pues el español es una traducción de eso que te está describiendo, de eso que te está haciendo, pues como mucho te lo traduce a español, no está todavía integrado de forma nativa en el corpus. Exacto. La mayoría de las IA, sí, sí, lo hacen así desgraciadamente porque hay una traducción por el medio. Es que este es uno de los handicaps por lo que, vamos, a mí a mí las gafas me encantan. Las he tocado, las tiene un amigo, las he probado y todos son sensaciones muy positivas. Me gusta mucho también cómo interactuar con ellas, lo que me devuelven. Pero lo de la VPN en principio me daba rabia y estaba un poco ahí quemado. Pero lo que, pese a tener un nivel de inglés suficiente, que no es por vacilar, pero bueno, para entenderlo, pero no me resulta cómodo interactuar con ellas hablando el inglés, ¿no? Entonces yo lo tengo un poco en stand-by, de hecho me las iban a regalar y paré todo el proceso hasta que se solucionan estas dos circunstancias. Lo que pasa es que, Roberto, te escuchan hablar a ti y a otra gente y es que claro, cada vez te dan más ganas de tenerlo, aunque sean con auriculares. Es que yo las tendría con auriculares, si me quitaran MetaID ahora mismo yo seguiría contento, porque son muy buenas como auriculares. Pues con esto nos vamos a quedar, que es decir, aunque no sepas inglés o no te conectes por la VPN, las gafas en sí, como auriculares y para hacer ciertas gestiones, son extraordinarias. Si quieres usar MetaID te puedes aprender dos o tres frases en inglés, tampoco son muchas, aunque sea para lo básico, por ejemplo, look and read, look and tell me what's in front of me, mira y dime lo que tengo delante, what am I holding, que estoy sujetando, te puedo aprender dos o tres frases y cuando te diga lo que sea, tell me what's in front of you. O incluso hay gente que cuela en Spanish en la propia fase, por ejemplo, what am I holding in Spanish. Y les funciona. Pero bueno, como auriculares, yo las quiero. ¿Tú cómo las conociste? Wow, pues no me acuerdo. No sé si como en una conversación. ¿Tuviste un sueño premonitorio? ¿Tuviste un sueño premonitorio? No, no sé si hablando con un compañero de trabajo que las mencionó, o me encontré con una referencia en YouTube. Sí sé que la primera persona ciega que le oí hablar de MetaRayBan, que las estaba usando y todavía sin AI ni nada, simplemente como auriculares, hay un podcast que se llama Double Tap Podcast, y Steven Scott, uno de los conductores del podcast, se compró las MetaRayBan. Fue la primera persona ciega que yo le escuché decir que se las había comprado. Yo ya sabía que existían, no había dudas de hablar de ellas. No les había prestado demasiada atención porque en general, bueno, era otro cacharro más. Pero ya cuando él en el podcast habló de que, oh, me compré las MetaRayBan y suenan genial, y VoiceOver funciona, oye, VoiceOver y puedo hacer videos y el video suena genial, ya les empecé a prestar atención. Entonces empecé a buscar información y recuerdo que me encontré estos videos en YouTube con la gente que estaba usando el MetaEye con Early Access. Oh, esto está interesante. Oye, yo las quiero probar también. ¿Cuánto tiempo hace que las tiene? No sé si un año ya. Sí, poco menos de un año. Sí, desde octubre están, sí, sí, del año pasado. Yo creo que me las compré, no sé si en marzo o abril del año pasado. A ver, yo viajé a Redmond en mayo del año pasado y ya las tenía, así que probablemente en abril me las compré. Muy bien. Pues aquí en España, hombre, tenemos conocimiento de ellas porque hay, bueno, por distintas vías, ¿no? Tenemos a LibluVox y su canal, que ha hecho unas demostraciones muy interesantes y últimamente ha hecho una para los visionarios cejanos, que la recomendamos y la pondremos también en la descripción. Tenemos también a May Rodríguez, que ha hecho desde su canal, que se llama también DobleTap, pero este sin la U intermedia. Por cierto, muy recomendable, ha hecho también un par de demostraciones, también las pondremos. Y luego aquí existe un grupo de WhatsApp que lo llevan Roger y Jordi, que es un grupo de ayuda mutua, que entre usuarios se van contando unos a otros lo que van descubriendo y cómo utilizarlas. Es el típico grupo que es de autoaprendizaje y que también lo facilitaremos para la gente que quiera compartirlo. Tenemos también referencia de un supergrupo en inglés que hay en Facebook, que es Blind Users of Rival Media o algo así. Sí, que parece ser que también lo conoces, ¿no? Me uní hace dos o tres días. Casi igual que nosotros, sí, sí, sí. Bueno, está bien, ¿no? Son 1.200 o 1.400 usuarios, ¿no? Es una barbaridad lo que tiene. Ahí fue donde encontré yo el podcast que hablaba de cómo hacer que MetaRival identifique personas. Pero bueno, esto es bastante cuestionable. No lo sé. Que la gente lo pruebe. Bueno, pues lo pondremos también, ¿no? En referencia para que la gente, si quiere inscribirse y controla el inglés, lo pueda ver. Fenomenal. Yo creo que ya por hoy ya nos hemos alargado mucho, ¿no? Podemos ir dejándolo por ahí. Otro día también podemos continuar con este o con otros temas. Bueno, hablando con Roberto, me dijo que podría ser una gran idea tener como un tema transversal para sacarlo en próximos episodios, que sería algo así como inteligencia artificial en el día a día de personas ciegas y con baja visión. ¿Es así, Roberto? Sí, que también podemos hacer eso. Yo he estado recopilando casos, escenarios, pero todo con muchas expectativas. Sí, fundamentalmente con muchas expectativas. La verdad es que es lo mejor que funciona a mi modo de ver. Por ejemplo, identificar personas y cosas de esas. Sería súper interesante, ¿no? Porque muchas veces oí hablar mucho de la IA y mucha gente... oímos que hace muchas cosas y que está muy bien, pero muchas veces pensamos, ¿y esto a mí qué? ¿Qué puedo hacer yo con esto? Claro. Correcto. Sí, y la gente que va haciendo cosas también nos lo está contando, con lo cual es importantísimo que todo el mundo tenga acceso a cosas que, si Roberto las puede hacer, que no ve, las puede hacer todo el mundo, lógicamente con las indicaciones oportunas y además lo explica muy bien. Además te da ideas que a lo mejor ese caso de uso en concreto no tiene sentido para ti, pero se te ocurre a raíz de ese caso de uso. Exacto. Ocurren otros casos que sí son muy útiles para ti, ¿no? Por ejemplo, hace poco escribí a alguien preguntando, ¿cómo puede leerse una presentación de PowerPoint con chat GPT? No es tan difícil. Sabemos que no a todo el mundo se le ocurre pedir las cosas de una manera... El prompt. El prompt es súper importante y lamentablemente entre los Alexa y los Siri de este mundo nos han entrenado a hablar de maneras muy raras. Y la gente pretende hablar así con chat GPT y con la IA generativa y no funciona. Bueno, pues llegados a este punto, yo creo que vamos a acabar hablando de Ray-Ban Meta. Sí. ¿No? Para que entre un poco el tema. Bueno, estamos lógicamente todo el mundo encantados con esta tecnología. Nos llama mucho la atención de cómo empresas pequeñas como fue Ray-Ban en sus inicios o como fue la propia Luxottica y el propio Facebook han conseguido llegar a generar este tipo de dispositivo porque verdaderamente todos vienen de modelos de empresa muy local y muy pequeños. De hecho, Bounce and Lomb comienza a ser la Ray-Ban por una petición del ejército americano en el año treinta y pico cuando se dan cuenta de que hay una demanda por parte de los aviadores en la Primera Guerra Mundial, después de la Primera Guerra Mundial, de cuando toman cierta altura el sol los deslumbra y les produce también náuseas y mal cuerpo. Y es cuando esta empresa que está especializada en generar lentes para microscopios, miras telescópicas para ver más lejos y matar mejor y todo esto pues comienza a hacer unas gafas que se salen de lo que es la óptica de corrección y simplemente es un filtro solar para esto. Aquí comienza lo que es la historia de Ray-Ban. Llega el año noventa y nueve donde ellos se especializan en lentes de contacto de gel, en temas de cirugía ocular y otro tipo de lentes y venden a Luxottica que es una empresa también muy pequeña en el año noventa y nueve de la zona norte de Italia, del Véneto de Agorno, creo que se llama el pueblo, donde Leonardo de Vecchio, que así se llama el hombre, una persona hecha a sí misma, verdaderamente con una infancia muy complicada, pues primero empieza con un pequeño taller donde hace accesorios y piezas para otras empresas hasta que un día consigue, bueno, él tiene una idea de empresa que a mí me parece interesantísimo y hace lo que es un proceso vertical, dice no voy a fabricar para nadie, voy a hacer lo que es una gafa desde el principio hasta el fin con todos sus accesorios, piezas y ya forma Luxottica y el primer contrato fuerte es hacer de Armani las gafas, a partir de ahí ya consigue capital y ya compra lo que es Ray-Ban en el noventa y nueve y luego estaría Exilor que es la otra empresa que también entra aquí y eso que son los mejores haciendo lentes, que estos vienen del siglo diecinueve, es que es alucinante todo, eran la cooperativa de ópticos franceses, sí, sí, sí, que hacían lentes y luego esto era Exxer y xilor, era otra empresa que fueron los que hicieron las lentes Barilux, los filtros monofotocromáticos, bueno, una pasada, todos eran empresas pequeñas, ya han ido a converger junto a Meta, la antigua Facebook, que no os voy a decir el gigante que es, en este producto las Ray-Ban Meta Smart Glasses, gafas electrónicas que ahora nos comentará Arturo, no fueron fáciles de desarrollar, puesto que las primeras que fueron las Stories, que Dampia estas, les pilló en plena pandemia. Esto ha ido evolucionando desde las Stories, incluso antes también hubo intentos por parte de Google, de las Google Glass, por allí por el 2012-2013, pero yo creo que no era el momento, que no estaba todavía el mercado lo suficientemente preparado para este tipo de tecnología y luego Meta sacó las Stories, que bueno, también empiezo con ello, yo creo que la clave de todo esto es que la tecnología, hacerla lo más transparente posible al usuario, que nosotros como un poco frikis que somos, pues nos gusta saber que tiene 5 micrófonos, que la lente de la cámara está en la parte izquierda, que en la derecha está el LED, que no sé qué, pero yo creo que la clave quizás está en hacerlo lo más transparente posible, que el usuario no tenga que saber todo esto, sino que simplemente es un dispositivo que se lo pone, igual que se ha puesto las gafas toda la vida, y funciona de la forma lo más fácil posible. Con tecnología muy bien integrada, como decía Roberto, que no se nota, tú estás llevando, realmente estás llevando el modelo normal Wi-Fi, que es uno de los modelos Skyler o Headliners, que son los tres modelos que por lo menos se venden aquí en Europa, no sé si en Norteamérica será así, más todas las combinaciones que os podéis imaginar de Ray-Ban, de cristales y demás. Es decir, tú estás llevando estas gafas, que no hay ninguna diferencia entre las gafas cuando no tenían electrónica. Que ya existían, son gafas normales que ya existían, son modelos, han estado siempre en Ray-Ban. Estos quizás tienen la patilla un poquito más gruesa para llevar un poquito la batería y lo que lleva dentro, pero es el mismo modelo de siempre. Con una gran aceptación social, porque es algo conocido, no es nada invasivo ni intrusivo. Es decir, conocen perfectamente esas gafas, no te ven como algo extraño y no estigmatizan, lógicamente. Exacto, este punto es súper importante. Para mucha gente se plantea usar gafas específicas para ciegos como llamar la atención, porque son unas gafas raras, más allá de que se vean mejor o peor, son algo diferente. Pero al llevar un dispositivo como este, que lo puede llevar cualquiera, no te hace diferente. Estás utilizando una tecnología de apoyo, porque ya se puede hablar de Meta Ray-Ban como tecnología de apoyo, a día de hoy se puede con Be My Eyes, la integración con Be My Eyes que ya está anunciada. Tienes un dispositivo con tecnología de apoyo que no es diferente del que usaría cualquiera y que puedes usar de manera discreta, en tus términos, pero que no es algo que te identifique como persona ciega necesariamente. Y eso es importante para alguna gente. Genial, Roberto, qué interesante. Mil gracias, amigo. Gracias por invitarme. Muchas gracias. Y seguiremos hablando de muchos temas muy interesantes, siempre y cuando quieras. Aquí tienes el micrófono. Gracias. Y nosotros encantados. Bueno, pues nada, estamos al final, primer episodio de Gafotas de Gatos y sus aparatos. Cuéntanos, Ricardo, los métodos de contacto, cómo pueden contactar con nosotros, correo electrónico, Whatsapp, cómo pueden ponerse en contacto con nosotros. Bueno, yo digo uno, tú dices otro. Vale. Por correo electrónico es gafotas@cegatos.es. Y el Whatsapp, también tenemos habilitado un Whatsapp en el teléfono español con el prefijo más 34 para España, 644 640 792. Genial, pues muchas gracias a todos por escucharnos y nos interesa mucho porque es nuestro combustible, vuestra opinión. Así que escribirnos, comentarnos cosas y decirnos qué os apetece escuchar y de qué queréis que hablemos. Nosotros estamos encantados de estar aquí y teneros a vosotros como audiencia. Muchas gracias y nos escuchamos en el siguiente episodio. Adiós.
Gafotas, cegatos y sus aparatos #0
Fecha: domingo, 6 de octubre de 2024, a las 00:00:00
En este episodio 0, o número piloto, Arturo Fernández y Ricardo Abad presentan su declaración de intenciones para "Gafotas, Cegatos y sus aparatos". Se trata de un espacio para explorar tecnologías de asistencia enfocadas principalmente en la ceguera y la baja visión, ocupando un lugar también muy importante los temas de tecnología en general, y aquellos que sirvan para facilitar la vida de las personas. . Compartirán información práctica sobre dispositivos accesibles, conocerán personas que están innovando en este campo y lo harán de una manera amena y sencilla. ¡Bienvenidos a este nuevo proyecto!
Intervienen:
- Ricardo Abad.
Créditos:
Suno.ai.
Duración: 09:32
Mostrar descripción detallada del logo de Episodio 0. Piloto.
Descripción detallada del logo de Episodio 0. Piloto.
La imagen muestra al personaje del logo, un locutor de podcast con un estilo vintage y sofisticado. Lleva gafas de sol, auriculares y un bigote destacado, acompañado de una bufanda de lunares y una chaqueta elegante. Está frente a un micrófono clásico y una consola de mezclas, con un ordenador portátil que muestra una onda de sonido y la palabra "PODCAST". El fondo incluye paneles acústicos y líneas dinámicas que sugieren energía y sonido.
Mostrar transcripción de Episodio 0. Piloto.
Transcripción de Episodio 0. Piloto.
Muy buenas, lo que sean, yo soy Arturo Fernández Y yo soy Ricardo Abad Y esto es Gafotas, Cegatos Y sus aparatos Podcast Bienvenidos a este episodio cero O número piloto Donde vamos a intentar contar un poco Una declaración de intenciones De que pretendemos en este proyecto ¿Por qué ese título tan original, Ricardo? Bueno, pues nada, es un título que realmente Ya solo cuando dimos las primeras vueltas Entre amigos y familiares Para recabar las opiniones Ya vimos que había una división, claro Había gente que les encantaba el título Gafotas, Cegatos y sus aparatos Y otra gente que verdaderamente Le daba un poco de grima Y no llegaba a entenderlo Pero bueno, así es la vida Nosotros, generacionalmente Venimos de un momento humorístico Distinto al actual Pero nos apetecía mucho Salir con este Un título de Gafotas Un título algo provocativo Eso es, porque en nuestra época Rompetechos era algo gracioso Hoy en día sería políticamente incorrecto Y a su creador lo hubieran colgado de algún sitio Pues sí, al gran Ibañez Lógicamente por Rompetechos le hubieran cancelado De hecho, Rompetechos Para el que no lo conozca Era un señor bajito Que además llevaba gafas En aquel momento se llamaban culo de vaso Que sería un Gafotas Y cabezón encima Y entonces, bueno, pues se veía envuelto En aventuras muy curiosas Por su falta de visión Y su despiste en general Y bueno, ese era Rompetechos También estaba Pepe, Gotera y Otilio Chapuzas a domicilio Sí, sí, qué tiempos Por eso hoy en día todo esto sería mal visto probablemente Pero bueno, es nuestra época Y también pretendemos ser un poco Diferentes, tener nuestro toque De humor peculiar Y ser un poco diferentes Al resto de cosas así más formales Que en el fondo No somos tan diferentes Porque no hace más de dos décadas Elvira Lindo Pues sacó una novela Que luego se hicieron series y películas Y su protagonista era Manolito Gafotas Sí, eso es Y el hermano de Manolito era el imbécil No sé si... Bueno, en otros tiempos Era este tipo de humor Y tenemos también Una base histórica Donde apoyarnos para que nos apeteciera También tener un título Como este para nuestro podcast La publicación que tienen Los militares y guardias civiles Con discapacidad del Estado español Se llama Soldados viejos y estropeados Por circunstancias, cuando la conocí Me llamó mucho la atención ese nombre Digo, el día que hagamos cualquier cosa O pongamos una revista O algo, me gustaría tener Un... Un título así, ¿no? Con esa fuerza Realmente es un nombre histórico Es como denominaban a las milicias Que volvían de la batalla ya muy ancianos Porque habían estado toda la vida Guerreando O a la gente que perdía miembros Se llamaban soldados viejos o estropeados ¿No? Y bueno, es el propio Miguel de Cervantes Quien utiliza este nombre Para referirse a esta gente Y bueno, después de este rollo Pues por todas estas causas Y algunas más Pues nos apetecía ponerle este nombre Y es lo que hemos hecho Porque nuestra intención es Esta, ¿no? Es hacer lo mismo Pero también distinto, ¿no? ¿Cómo vamos a llevar a cabo el podcast? ¿Qué tipo de contenido vamos a tener? Bueno, pues sí Es más de lo mismo Pero diferente Aunque suene a contradicción Nuestra idea es Dar información De todo lo que son tecnologías De asistencia Orientadas a la ceguera y a la baja visión Pero al mismo tiempo También nos interesan mucho Las tecnologías en sí Ubicar La nuestra dentro del conjunto Y conocer mucho Del estado del arte De estas tecnologías Para saber hacia dónde nos movemos Y en qué punto nos encontramos Y otra de las cosas que nos interesa mucho Es conocer gente que hace cosas Pero nos interesa todo tipo de gente ¿No? Gente que hace cosas Desde el rincón Más recóndito del mundo Pero tiene allí su ordenador Su computadora Y tiene algo de qué hablarnos Como el ingeniero Que ha hecho una investigación O un hallazgo Como cualquier persona que haga cosas Y esté relacionada también con la tecnología O con la ceguera O la baja visión Pues nos interesa Eso es Por circunstancias personales O profesionales Pues intentamos estar un poco Al día de las últimas novedades Que pueda haber en cuanto a accesibilidad Y cómo la tecnología Puede ser beneficiosa para todo y para todos Como se nos contarda habitualmente Y aunque a veces podemos tener además La ceguera del analista Que pensamos que todo el mundo Sabe todas estas cosas Pero no siempre es así Entonces también queremos transmitirlo De forma amena, sencilla Para que todo el mundo pueda conocer Esas herramientas Estas Aparatos Estos objetos que hay Que nos pueden hacer la vida Quizá un poco más fácil Y bueno, luego pues que Ya cada uno tendría que valorar Y ver sus necesidades Y si lo puede aplicar o no A sus circunstancias O bueno Por lo menos el conocer Que eso está ahí Y a lo mejor para nosotros O para algún amigo nuestro O lo que sea Pues le puede resultar de utilidad Sí Porque damos por hecho Que todo el mundo tenemos conocimiento de todo Y no es así Entonces el objetivo es ese Ojalá lo que se pueda hacer Lo consigamos Porque tampoco tenemos Un patrón muy establecido Y sí que estamos abiertos a Bueno, pues A ver qué interés hay Y qué interés despierta Este tipo de contenidos Y podemos modificarlos Poco a poco Conforme Bueno, por demanda prácticamente Por demanda de audiencia Tenemos total flexibilidad Cosas que Habrá cosas que las contaremos nosotros Otras que tendremos invitados Esperemos O bueno, ya veremos cómo Va evolucionando Esto Y que de roteros terminamos Esperemos que Correcto La gente nos hable Nos escriba Y nos cuente Cómo lo ve Pues para ir pudiendo evolucionar Muy bien No es un podcast solo para cegatos Y gafotas Sino es para todo el mundo Y nos encantaría que Nos conocieran Y no solo eso Sino que participaran De todo Sí Pues bueno Lo vamos a hacer Y nos vamos dejando por aquí Este primer episodio No nos enrollamos más Esperemos que los siguientes Tengan un poco más de contenido Y nos vamos despidiendo Pues muy bien, Arturo Pues dinos antes Desde dónde nos hablas Pues yo estoy por aquí Por los madriles ¿Y tú? Pues mira Yo estoy ahora En día de Terral Fíjate Otoño pero con Terral Llevamos tres días seguidos En Málaga, la bella Tierra de los boquerones Y el que diga Lo contrario Que me toque Que me toque por teléfono Me haga una llamada O una perdida Y lo discutimos Pues muchas gracias Pues muy bien Un saludo a todos Nos escuchamos
(c) 2025 por Arturo Fernández - Actualizado: lunes, 28 de abril de 2025, a las 01:30:03