Podcast sobre accesibilidad, tecnología y cualquier tema que nos interese. Aprender y divertirnos es nuestro lema.
Autor: Arturo Fernández / Ricardo Abad
Contacto: info@cegatos.es
Arturo Fernández y Ricardo Abad presentan "Gafotas, Cegatos y sus aparatos. Podcast". En este espacio, exploramos las tecnologías de asistencia orientadas a la ceguera y la baja visión, sin olvidar las últimas tendencias tecnológicas que nos interesan a todos. Buscamos poner en contexto el estado actual de la accesibilidad tecnológica y conocer tanto personas fascinantes que están haciendo discretamente cosas interesantes, desde el rincón más recóndito del mundo, como a brillantes e intrépidos innovadores. Queremos compartir información práctica, sencilla y accesible para cualquier persona, no solo para quienes padecen baja visión o ceguera. Nos encantaría que nos conozcas y participes activamente en este diálogo.
Puedes encontrarnos en: podcastindex.org, Apple podcast, ivoox, spotify, youtube, skill de Alexa.
Puedes suscribirte a nuestro boletín para recibir las nuevas publicaciones a través de correo electrónico.
Si usas una aplicación para escuchar tus podcasts, puedes ańadir esta URL: https://cegatos.es/gca/feed.xml
Mostrar descripción detallada del logo de podcast
Descripción detallada del logo de podcast
La imagen muestra un diseño ilustrativo de estilo retro que representa a un hombre con gafas de sol redondas, un bigote prominente y unos auriculares grandes. Su cabello está perfectamente peinado hacia atrás, y lleva un pañuelo al cuello que refuerza la estética clásica. Los auriculares están conectados con un cable visible, enfatizando el concepto de audio o podcasting. En la parte inferior, aparece el texto: **"GAFOTAS, CEGATOS Y SUS APARATOS"**, seguido de la palabra **"PODCAST"** en un estilo de fuente moderno y audaz. El fondo es de un tono beige claro que contrasta con los detalles en azul oscuro del dibujo, logrando un diseño limpio y llamativo.
Gafotas, cegatos y sus aparatos #27
Fecha: lunes, 29 de septiembre de 2025, a las 00:00:00
Con el título "Gafas de asistencia Niira. Arquitectura sonora para percibir el entorno", en este vigesimoséptimo episodio contamos con Antonio Quesada, fundador del proyecto, y con Jaime Franco, divulgador de contenidos sobre discapacidad visual y usuario de las gafas Niira, para profundizar en esta tecnología pionera.
Hablamos sobre:
• El origen y desarrollo de las gafas Niira, fruto de más de diez años de
investigación y pruebas con usuarios ciegos desde el primer prototipo.
• Cómo funcionan a partir de una arquitectura sonora espacial inspirada
en la sinestesia, que convierte formas y geometrías en sonidos interpretables
por el cerebro.
• La experiencia práctica de los usuarios: movilidad urbana,
anticipación de obstáculos, detección de personas y uso real en entornos como
el metro o edificios complejos.
• La importancia del diseño: no solo la comodidad y el estilo, sino también el
hecho de integrar sensores, cámaras y un hardware propio sin sacrificar la
estética.
• El papel clave de la comunidad de personas ciegas en el testeo, aportando
información constante y diversa que ha permitido moldear el dispositivo hasta
su estado actual.
Además, analizamos los grandes retos técnicos: conseguir procesamiento en tiempo real, autonomía de batería, resistencia térmica y una respuesta inmediata que no sature al usuario. También reflexionamos sobre la necesidad de escuchar siempre la voz del usuario frente a soluciones diseñadas desde la teoría pero poco útiles en la práctica.
Con ejemplos, anécdotas y testimonios, este episodio nos invita a descubrir cómo el sonido puede abrir nuevas formas de “ver” y a repensar el futuro de la tiflotecnología como un campo donde la innovación y la accesibilidad van de la mano.
Si te interesa la movilidad accesible, las nuevas ayudas técnicas y la autonomía personal, este episodio es para ti. Ajusta el volumen y acompáñanos en este fascinante viaje sonoro.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Análisis y prueba de los controladores remotos Bluetooth para las gafas NIIRA.
Descarga el posible plan de entrenamiento de Jaime Franco para el mes inicial de pruebas con NIIRA.
Enlace de invitación y suscripción a la Comunidad Eyesynth en WhatsApp. Hay un grupo exclusivo para usuarios y usuarias de NIIRA, pero hay otro llamado “General” que está abierto a toda persona interesada en tener información o solventar dudas acerca de este sistema. Es decir, que la suscripción a este segundo grupo está abierta a todo el mundo.
Créditos:
Duración: 01:53:45
Descripción detallada del logo de Episodio 27. Gafas de asistencia Niira: arquitectura sonora para percibir el entorno.
Ilustración retro en tonos azul oscuro y beige, compuesta por líneas y patrones geométricos que crean un ambiente urbano moderno y vibrante. En el centro destaca un hombre ciego que avanza con paso firme y confiado por la acera. Su aspecto es elegante y cuidado: viste un traje con chaqueta abotonada, pantalón recto, zapatos y una bufanda anudada al cuello que refuerza su porte distinguido. Lleva un bigote grueso y perfectamente peinado, el cabello engominado hacia atrás y una expresión serena y sonriente que transmite seguridad y confianza en sí mismo. En su mano derecha sostiene un bastón blanco extendido hacia adelante, símbolo de autonomía y herramienta esencial de movilidad. Sobre su cabeza lleva un conjunto tecnológico de gran presencia: unas gafas oscuras amplias, casi tipo visor, y unos auriculares de diadema que cubren por completo sus orejas. De estos dispositivos, así como del bastón, emanan líneas curvas y ondas concéntricas que se expanden por todo el entorno. Estas formas representan un paisaje sonoro envolvente: ecos, vibraciones y señales acústicas que configuran una arquitectura sensorial avanzada, donde cada elemento urbano se convierte en parte de un mapa perceptivo. El escenario muestra altos edificios rectangulares repletos de ventanas que flanquean la calle, varias siluetas humanas en movimiento que aportan dinamismo y, al fondo, un árbol estilizado que introduce un matiz natural en el paisaje. El suelo y el ambiente, atravesados por líneas y curvas entrelazadas, refuerzan la idea de un espacio vibrante y en constante interacción. En conjunto, la ilustración ofrece una visión optimista y moderna de la accesibilidad: un hombre ciego que, gracias a la tecnología asistiva y a su bastón, se desplaza con autonomía, seguridad y libertad, percibiendo la ciudad no solo a través del tacto y del oído, sino también mediante un universo expandido de señales sonoras que le conectan plenamente con su entorno.
Transcripción de Episodio 27. Gafas de asistencia Niira: arquitectura sonora para percibir el entorno.
Episodio 27. Gafas de asistencia ni ira. Arquitectura sonora para percibir el entorno. Hola, soy Niira, un dispositivo de asistencia a la movilidad para personas ciegas o con baja visión. Estoy compuesto de unas gafas y de una unidad de procesamiento, ambos elementos unidos entre sí por medio de un cable. Las gafas llevan una serie de sensores que perciben lo que hay frente a vosotros. Esa información se procesa y se devuelve en forma de unos sonidos abstractos, pero perfectamente comprensibles, y os informan de los elementos, obstáculos y espacios que tenéis delante. Todo ello en tiempo real. Además, también incluyo inteligencia artificial, para describir lo que estáis mirando. Incluso puedo responder a preguntas acerca de ello, así como leer textos. ¿A qué suena bien? ¿Os interesa saber más cosas de mí? Pues atentos a este episodio de gafotas, de gatos y sus aparatos. Ricardo, pues hoy tenemos otro episodio muy nuevo. Otro de gafotas. Pues sí. Las gafotas, gafas o anteojos están de moda. Y realmente estamos viendo que están saliendo muchas alternativas. Muchos tipos de gafas, porque no todas son iguales. Estamos en un momento disruptor. Igual que cuando Stephen Jobs sacó al mercado su terminal móvil sin teclado. Con pantalla táctil. Que cambió las reglas del juego. Y asumió el mercado este formato, este diseño. Y fue una revolución. Ahora comienzan a escucharse voces de la gente potente de la tecnología. Que comenta que las gafas probablemente sean el dispositivo. En unos casos dicen que sustituya al terminal móvil. Yo ahí lo dudo. Eso ya lo comentaremos otro día. Y de todas formas que por lo menos va a ser complementario al móvil. Y probablemente pues sí sea así. Porque la verdad es un objeto con el que estamos muy familiarizados. E incorporarlo a nuestra vida no va a ser nada complicado. Que tenga más o menos electrónica determinará si es más cómodo o más caliente. O más templado o más fresco. Pero bueno, en principio es una alternativa. Y de gafas vamos a hablar. Fenomenal. Yo creo que más bien vamos hacia un mundo más multidispositivo. El móvil triunfó porque era algo externo a nosotros que lo cogemos con la mano. Y eso es algo neutro que a cualquiera más o menos le vale y le apaña. Pero yo creo que vamos a tender a ir hacia algún dispositivo que llevaremos puesto encima. Y dependiendo de las circunstancias pues eso podrá ser un reloj, un anillo, unas gafas... Bueno, dependiendo de cada uno, ¿no? No creo que sea unas gafas como algo genérico porque a mucha gente no le gustan las gafas. No les resulta algo cómodo. Mucha gente se está operando para quitarse las gafas y quitarse las lentillas incluso. Pues se operan de la vista. Bueno, es algo más. Claro. Pero eso es cuando las gafas solo sirven para lo que sirven, ¿no? O para quitarte el sol o para corregirte la visión. Pero cuando las gafas incorporan una electrónica fantástica que te permite interactuar con una inteligencia artificial. O ver el mundo, grabar el mundo, moverte por el mundo. Y si no ves llegar a escuchar el mundo, pues la gente va a apostar por las gafas. Y sobre todo por una sencilla razón. Es que es el dispositivo que está mejor ubicado o en la zona más estratégica. Entre los ojos, muy cerca de los oídos y también cerca de la boca. Es decir, lo tiene todo. Sí, eso te iba a decir. Es un sitio donde poder poner los sensores, fenomenal. Porque ahí en la cabeza tenemos la vista, el oído, el gusto, el tacto. Tenemos todos los sentidos en la cabeza. Y además poder ver desde dónde estaría la posición de los ojos. Poder oír desde la misma posición de los oídos. Pues esto proporciona una muy buena posición para toda la sensórica. Entonces puede ser algo muy interesante. Y de la misma manera que lo pensamos nosotros, lo debió pensar un visionario hace ya un montón de años. Que puso en marcha la empresa, la startup, Ellasync. Y comenzó la odisea para llevar al mercado lo que son las gafas Nira. Que son las que hoy vamos a hablar de ellas. Hoy tenemos con nosotros dos invitados. Y el primero, efectivamente, es Antonio Quesada. Muy buenas tardes. Buenas. Buenas tardes. ¿Cómo estáis? Muy bien, Antonio. Bienvenido. Y gracias por estar con nuestros oyentes. Y poder ofrecernos toda la información de primera sobre esta tecnología tan interesante. Gracias a vosotros. El placer es mío en este espacio tan chulo. Y creo que va a ser una buena tarde. Así que, bueno, si quieres comentarnos un poco quién es Antonio Quesada. Porque es la primera vez que hablamos contigo en Gafotas. Esperemos que no sea la última. Por supuesto. Bueno, pues llevamos ya en este proyecto diez añitos. Yo vengo de la industria del desarrollo informático. Específicamente, mi anterior empresa era un proyecto de 3D en tiempo real. Hacíamos tanto dispositivos como software. Pues para temas de visualización mecánica, simulación, entornos tridimensionales en tiempo real. Un poquito antes de la llegada de la realidad virtual. Nosotros ya nos movíamos un poco en ese campo. Y de hecho ese conocimiento luego nos ayudaría posteriormente en el desarrollo de Nira. Y bueno, pues desde hace diez años. Surgió la idea y vimos la oportunidad de poder embarcarnos en este proceso. En este proyecto que es tan bonito como complicado. Entonces, bueno, una cosa va haciendo el contrapeso de la otra. Y en este tiempo pues hemos conseguido unas cuantas cosas chulas. Y encantado de contároslas esta tarde. Muy bien. Pues muchas gracias. Bueno, y tenemos también a Jaime Franco. Jaime Franco. Jaime entre nuestra comunidad es mucho más conocido. Primero porque es un divulgador y redactor de artículos de tecnología especializada para personas ciegas. Y realmente ofrece un soporte de apoyo también a personas que tienen dudas y demás en los distintos grupos y demás donde participa. Pero bueno, Jaime, aparte de que ya he dicho lo que eres. O bueno, parte de lo que eres. Háblanos un poco de ti. Y gracias por estar aquí. Hola, ¿qué tal? Muy bien. Bueno, en primer lugar, saludos Ricardo, Arturo, Antonio. También saludos para la audiencia. La verdad es que estoy muy contento de estar aquí. Soy un fiel oyente de este podcast. Y me ha gustado pues que me invitéis para formar parte de este episodio. Así que muchas gracias. Y bueno, la introducción que me has hecho ya creo que está muy bien. Soy una persona ciega de Barcelona. Soy ciego total prácticamente. Tan solo de un poquito de luz. Pero es una luz muy difusa que no me permite ver bultos ni nada. Esto lo comento porque luego, a la hora de hablar del dispositivo de hoy, pues el punto de vista del usuario es muy importante. Y bueno, como has dicho, participo en varias páginas web en plan divulgación, compartiendo mis conocimientos o novedades en el tema de la Tiflo-tecnología. A mí desde siempre me ha gustado y me ha atraído mucho la tecnología. Y cuando perdí la vista hace 22 años, más o menos, pues esa tecnología, pues claro, mi predilección fue por la tecnología que nos ayuda a las personas ciegas y con baja visión a ser más autosuficientes. Y bueno, pues me gusta participar en foros, tanto en WhatsApp como en listas de correo. Y hay varias páginas web donde intento ayudar y compartir mis conocimientos. Por ejemplo, en la comunidad de Subtepoma, que tenemos página web, también tenemos podcast, el buscador de aplicaciones accesibles BuscaApps, en Info-tecnovisión, que estuve publicando durante muchísimos años, aunque ahora ya solamente colaboro aquí con el compañero Ricardo Abad en el mantenimiento. Y bueno, no me considero ningún experto en nada. No soy informático, no soy ingeniero. Mi profesión es la fisioterapia. Pero sí que me considero pues un usuario... digamos, espabilado. Lo que uso de forma diaria y habitual, pues creo que soy espabilado. Y sobre todo soy muy aventurero, en el sentido de que me gusta probar nuevas aplicaciones, nuevos dispositivos, siempre que puedo. Y sobre todo si están enfocados en la movilidad. Yo creo que esa es lo que más nos importa a nosotros. Poder salir ahí, a esa jungla, la ciudad, el transporte público, los edificios complicados, y podernos mover con soltura. También es importante el reconocimiento de imagen, los OCR, la descripción de imágenes. Ahora está de moda la inteligencia artificial, aunque de tanto en tanto le da por alucinar y no nos podemos fiar mucho. Pero bueno, el tema de movilidad siempre me ha gustado y es por eso que tengo estas gafas que vamos a hablar hoy. Y la verdad es que me van muy bien. Y bueno, más o menos me he enrollado bastante, pero ese soy yo. Muchas gracias a ambos por estar hoy con nosotros aquí, alrededor de esta mesa camilla. Y si os parece, podemos empezar por el principio. Antonio, cuéntanos los orígenes, cómo se te ocurrió esta idea y cómo llevar a la práctica en que se ha materializado. Sí. A ver, la base de todo esto es que buscábamos un interface que fuese cómodo, que fuese intuitivo, que fuese rápido y lo más universal posible. Entonces, bueno, en aquel momento barajamos distintas opciones. La primera y la más obvia era el interface hablado. Pero claro, comprendimos que realmente tener a un pepito grillo hablándote ocho horas al oído te puede dar un pachús. La cosa es que, además, tenía que ser algo que permitiese... interactuar con el entorno. No podemos intentar alimentar un sentido eliminando otro, porque al final entonces es la suma cero. El gran reto era la cuestión del interface. Entonces, bueno, se me ocurrió un método que quizás podría funcionar. Y es que... os comentaré un poco sobre la sinestesia. No sé si estáis familiarizados con este término. Sí, pero cuéntanos, cuéntanos. Sí, es el sentido cruzado, ¿no? Los bebés nacen todos, absolutamente todos, con todos los sentidos interconectados. Entonces, pues eso, un bebé puede oler los colores, saborear los sonidos... Tiene todas las combinaciones, las tiene funcionando. Pero claro, eso consume mucha energía y aparte que no es práctico para moverse en el entorno diario. Entonces vamos desconectando combinaciones. El tema es que un número importante en la población, unos dicen el 15%, otros dicen incluso el 20%, tiene rasgos sinestésicos. Algunas conexiones todavía ahí permanecen de manera ligera. Entonces, bueno, es algo completamente natural. Y en mi caso yo tengo una ligerísima, una ligera sinestesia en torno al sonido. Y la imagen. Yo asocio sonidos a formas geométricas en mi mente. Entonces, para mí pues resulta sencillo recordar secuencias musicales por su forma. Entonces pensé, ¿qué pasa si invertimos el proceso? ¿Qué pasa si cogemos geometría real y la transformamos en sonido? Esto es natural también para el cerebro. Yo he hecho pruebas con el hijo de un amigo mío. Él nació ciego. Un niño, ahora ya está hecho un hombre Tom. Muy espabilado, con un oído muy fino. Y comprobamos que efectivamente la fórmula funcionaba y funcionaba muy bien. Entonces, a ver, la base teórica ya partió ahí. A partir de ese momento empezarían ya pues las cuestiones de problema técnico. Porque ahora... ¿Cómo conseguimos que esto funcione a tiempo real? Que sea rápido. Que sea de respuesta instantánea. Que se pueda llevar encima. Que la batería dure mucho. Que no se caliente. Había un montón de factores tremendos que analizar y que derribar. Por haceros una idea, el primer prototipo de software que hicimos desde que analizaba una sola imagen. Un solo fotograma. Y daba el sonido, pasaban como dos segundos y medio, tres. Con una sola imagen. Actualmente hacemos 60 imágenes por segundo. A tiempo real. Y cada imagen sonido se genera en 20 milisegundos solamente. Desde aquel entonces hasta ahora pues hemos tenido que desarrollar pues un hardware propio. Un sistema operativo súper, súper... Customizado. Y bueno, ha sido una aventura, la verdad, tremenda estos 10 años. Siempre, siempre, siempre asistidos por beta testers ciegos. Porque realmente algo que nos hemos dado cuenta en esta industria es que está llena de gente. Lo digo con todo el respeto, pero lo digo también con cierta tristeza. Está llena de mentes brillantes, muy inteligentes, de ingeniería. Pero que al final no le preguntan al usuario qué es lo que necesita. Entonces la gente se imagina qué es lo que debe necesitar una persona en su día a día. Y al final no pregunta. Entonces se han hecho muchas aproximaciones erróneas y se han hecho solamente por no preguntar. En nuestro caso desde el minuto cero hemos estado en contacto continuo. Y con distintas personalidades y con distintos enfoques, con distintas necesidades. Unos con más necesidad en el hogar, otros con más necesidad en el campo, otros con más necesidad en la ciudad. Y de toda esa información riquísima hemos ido cincelando el proyecto. De hecho, permíteme que te diga que para añadir un atributo más a Jaime, que también es metódico y concienzudo. Entonces para darnos información y para encontrar problemas y bugs, es una auténtica máquina. Entonces para mí es una bendición. Gracias. Una pregunta, bueno, que son dos en sí. Primero, ¿en qué año más o menos comenzasteis todo el proyecto? Y luego, ¿qué ha supuesto el tener las ideas tan claras y que la tecnología os frenara? Porque vamos, el dato que nos has dado de un fotograma y dos segundos a la práctica no hace viable el proyecto. No, no. Pero... A ver. Veníamos de trabajar en 3D y de trabajar en 3D estéreo, que es como las películas de 3D del cine, que pedía unos recursos también bestiales y nos las apañamos para crear sistemas en tiempo real. Entonces veníamos, dicho mal y pronto, un poco subiditos, ¿no? De derribar unas barreras y decimos, os vamos a derribar estas también. Entonces, eso, por ponerlo en contexto, imagina que el segundo, creo que fue el segundo prototipo que lanzamos, que llevaba la unidad de procesado, era un ordenador gamer, un portátil, que sacaba aire caliente como si aquello fuera un secador de pelo y hacía diez fotogramas por segundo o una cosa así. Entonces, es una mezcla de autoconfianza. De autoconfianza y una mezcla de también ser un poco lanzados y metido al barranco y a ver cómo voy resolviendo. Pero bueno, al final hemos ido resolviendo. Como comentábamos al principio, que quizás la mejor zona es la cabeza, ¿no? Pues la idea es visualizar el entorno, lo que tenemos alrededor, y eso pues intentar convertirlo de alguna forma, intentar transmitirlo por audio. Entonces, al final esto, en la práctica, se ha convertido en unas gafas. ¿No? Cuéntanos cómo son. Correcto. Sí. De hecho, comentabas antes una cosa súper interesante. Y es que nosotros desde el principio tuvimos clarísimo que tenía que tener formato de gafa. Porque al final el ser humano ha evolucionado 30, 40, 50 mil años con los dispositivos de adquisición de datos puestos en la cabeza. Entonces, es muy natural girar la cabeza, es muy natural girar para escuchar. Son gestos muy intuitivos y que llevamos muy interiorizados. Entonces, poner la máquina de adquirir datos en la cara, para nosotros tenía todo el sentido. Hay otras propuestas que, siendo perfectamente válidas y siendo buenas, pues ubicar esos sensores en otras partes del cuerpo. No sé si es la mejor decisión. No sé si es la mejor de las decisiones, pero nosotros desde luego nos decantamos por el formato de gafa. También es cierto que eso complica bastante las cosas porque hay que miniaturizar, hay que hacerlo lo más ligero posible. Encima, tiene que ser bonito, tiene que ser estético. Y suponía una serie de retos extra, pero creo que merecía la pena afrontarlos porque es la manera más natural de tomar información. Hemos visto que otras... empresas de tecnología están sacando prototipos o productos en otras ubicaciones. Por ejemplo, en una especie de tiara o diadema, en el pecho... Y quería preguntarles a los dos, pero también a Jaime. Jaime, ¿tú crees que las gafas ocuparían el sitio preferencial para llevar un dispositivo o estás abierto a otro tipo de espacios? Yo creo que sí. Que las gafas es lo ideal. Ya lo ha comentado Antonio. Cuando giramos la cabeza es la mejor forma de saber dónde estamos mirando. Y es la zona ideal. Llevarlo en el pecho ya te obliga a girar todo el tronco. Yo antes también probé una pulsera que la llevaba una muñeca. Y también era práctica porque con un simple movimiento de muñeca giras a un lado o a otro y escaneas y obtienes la información. Pero las gafas yo creo que sí. Que es el sitio más adecuado y correcto. Llevarlo en la cara, sí. ¿Vosotros, Antonio, no os habéis planteado el trasladar todo lo que es la tecnología y probar en otros sitios del organismo? Sí, sí. A ver, siempre siendo una empresa, nosotros realmente lo que somos es una empresa de I más D. Entonces, digamos que estamos abiertos a las ideas más lógicas y a las más locas. Porque muchas veces la más inesperada es la que mejor funciona. Estamos abiertos, estamos abiertos a probar distintos interfaces y distintas ubicaciones. Pero de momento lo que nuestra experiencia, lo que hemos encontrado es que la gente se encuentra más cómoda y asume más rápido el aprendizaje cuando lo ponemos en la cara. ¿Y actualmente cómo son? Describirnos en detalle lo mejor que se pueda cómo es este dispositivo que se va a encontrar el usuario. Vale. Pues la gafa es una... Es una gafa de corte deportivo. Es una gafa, siendo discreta, tiene un puntito futurista. Son completamente negras, son mates. El cristal es un cristal oscuro. Es un protector solar que se puede cambiar. Si necesitas lentes específicas, pues eso en cualquier óptica te lo pueden cambiar porque el formato es estándar. El aro tiene el aspecto de la fibra de carbono, que es un trenzado muy chulo, queda bonito. Es negro también. Y en la patilla de la gafa, según vamos hacia la parte de la oreja, pues bajan unos auriculares cocleares, unos de estos de conducción ósea. Se apoyan, digamos, en la mejilla, en la zona de la patilla, para que nos entendamos. Y gracias a esto, pues podemos transmitir el sonido de la gafa a través del cráneo, sin tapar el oído. Que también consideramos que es una cuestión importante porque, claro, nosotros queremos ofrecer una capa extra de información sin tapar el resto. Porque, claro, el oído proporciona una cantidad de matices tremenda y no queríamos interferir en ellos. Con lo cual, pues eso. Nos decantamos hacia un sistema de audio coclear. Y bueno, en esencia, la gafa es esto. De los audífonos cocleares bajan dos cables que van hacia una unidad de procesado. Que es el ordenador que lo procesa todo. Y que también lleva la batería. Y bueno, el tamaño, aproximadamente, la superficie es como la de un teléfono. Sólo que es más grueso. Tiene más o menos... Es el doble de espesor de un teléfono promedio. Tan sólo añadir que esas gafas tienen algo muy importante que a las personas ciegas nos gusta. O al menos a muchas. Y es que los cristales engloban por los lados a los ojos. Que hay mucha gente que necesita tapar esa fuente de iluminación que le entra o que les molesta el aire. O que no quieren, porque hay muchas enfermedades, patologías de la vista, que los ojos quedan muy dañados estéticamente. Y no les gusta que se les vea los ojos por los laterales de las gafas. Y estas gafas pues eso, engloban el cristal por el lateral y por ese lado no te entra. Hay una pequeña rendijita, pero es imposible que te vean los ojos o que te entre la luz prácticamente. Tan sólo añadir que en la gafa, en lo que es la parte superior de la montura, hay un añadido que están los sensores. Hay tres cámaras y un sensor de infrarrojos, láser lidar. Bueno, lidar no, láser de infrarrojos. En las cejas. Esto sería como en la parte de las cejas. Sí, has tocado el punto importante de la gafa que yo me lo he dejado por alto. Y es el de las cámaras que van justo por encima de las lentes. Como si fuera una pequeña viserita ahí encima. Que como curiosidad mucha gente pregunta ¿y por qué no pones las cámaras donde iría el globo ocular? Y de hecho en el pasado hicimos pruebas con esto. Pero claro, llegamos a un par de conclusiones. Llamativas. La primera es que, claro, si tienes un resto visual lo vamos a tapar con las cámaras. Con lo cual ya solo por eso lo hace inviable. Pero luego también ocurría lo que llamaban en el diseño el efecto terminator. Cuando poníamos las cámaras en el sitio de los ojos quedaba la cara absolutamente inexpresiva. Entonces, en cuanto subimos las cámaras a la viserita esa, la cara volvió a tener expresión. Entonces vimos que evidentemente ese no era el camino de diseño adecuado. Y sí, bueno, las cámaras pues tienen un tamaño perceptible pero reducido. Entonces, bueno, el conjunto hace una gafa que yo personalmente creo que es bonita. De hecho, este año pasado nos dieron un premio al diseño en Berlín. De hecho, es de los premios más relevantes del diseño industrial que son los IFA Awards. Y en nuestra categoría, la categoría de dispositivos de salud, ganamos nosotros. Y bueno, eso significa que por lo menos al jurado le ha gustado la forma. ¿Qué tipo de cámaras tiene? Porque esto sirve tanto de día como de noche. Correcto. Usamos varios sensores y combinamos la información de todos. Por una parte tenemos la cámara color tradicional. Tenemos cámaras en estereoscopía para extraer información 3D. Tenemos sensores de profundidad, de nuevo para extraer datos 3D y aumentar la precisión. Y por último usamos una cortina láser, una cortina de láser infrarrojo, que sirve para funcionar en total ausencia de luz. O sea, en oscuridad total el sistema sigue funcionando igual. Y una palabra que me ha parecido muy importante a la hora de referirte al audio, que son unos auriculares que tapen el canal auditivo. Son óseos, porque esto se complementa. Esto es un complemento. Esto no sustituye ningún otro mecanismo de movilidad. Correcto. No buscamos sustituir ni el bastón ni el perro guía. Son herramientas que funcionan muy bien. Son herramientas que no tienen batería, que también eso es importante. Y sobre todo que la gente le echa tiempo, le ha echado un esfuerzo importante y tiene un dominio y se manejan bien. ¿Por qué eliminar eso? Vamos a añadir más y enriquecer la información que hay alrededor. Entonces, están diseñadas para funcionar en conjunto con más opciones, claro que sí. Y como consideráis esos puntos fuertes y puntos débiles, pros, contras, consideráis que son estéticamente bonitas, qué es lo que le veis positivo y negativo o puntos que pueden ir mejorando con el tiempo. A ver, el tema estético, eso es algo muy importante. A mí al principio cuando me las compré, que bueno, fui a probarlas primero a la óptica de General Óptica y las estuve allí probando y tal, al principio dan la apariencia de ser un poco aparatosas, ¿no? Pero bueno, luego ya cuando me convenció el sistema, los sonidos, lo que me permite hacer en el día a día, la movilidad y todo esto, pues las adquirirás por el mes de prueba que da Yesin para probarla, que eso va muy bien. En el tema estético, yo enseguida iba preguntando pues a mi madre, a mi hija, cómo me quedaban y tal. Todas me decían que me quedaban bien, que me quedaban bien. Claro, nunca sabes si realmente te lo dicen porque bueno, eres su padre o eres su hijo y no te van a decir, oye, ¿a dónde vas? Claro, nunca sabes si realmente te lo dicen porque bueno, eres su padre o eres su hijo y no te van a decir, oye, ¿a dónde vas? Claro, nunca sabes si realmente te lo dicen porque bueno, eres su padre o eres su hijo y no te van a decir, oye, ¿a dónde vas? ¿A dónde vas con eso? Entonces, lo que siempre hago cuando voy en el transporte público, sobre todo que entro en el metro o en el tranvía, con bastante frecuencia se me acerca siempre alguien diciendo, ostras, estas gafas que llevas, ¿no? Perdona que te pregunte para qué son y tal, le explico. Y al final siempre le hago la misma pregunta. Oye, con total sinceridad, ¿cómo crees que me quedan? Parezco aquí Robocop y tal, al entrar habéis tenido ganas de salir corriendo. Y todo el mundo me dice que no, que me quedan bien, que son unas gafas que no pasan desapercibidas, pero que son muy tecnológicas, que me quedan bien, me sientan bien a la cara. Vamos, que no son ni estrafalarias ni feas, ¿no? En el tema estético yo creo que han quedado bastante bien, ¿no? Quizás con el tiempo se podría miniaturizar algunas cosas, ¿no? Por ejemplo, la zona de las cámaras. Para mi gusto los cristales a lo mejor se podrían hacer no tan grandes en cuanto a altura, ¿no? Lateralidades también. Lo que comentaba antes, tapar los laterales. Pero quizás no podrían ser tan altos. A lo mejor en un futuro se podría barajar la posibilidad de ver auriculares de conducción, o sea, poner altavoces de transmisión aérea, ¿no? Que ahora están de moda. Lo que pasa es que igual creo que el volumen no sería tan fuerte, ¿vale? Estos auriculares de conducción que incorporan permiten un volumen muy fuerte, ¿no? Aunque pase allí al lado una Harley-Davidson o en el semáforo acelere un autocar, o dentro del metro, se escuchan bien. Y creo que eso se perdería. Pero en general, muy bien, muy bien. Es un tema estético, ¿no? ¿Y en cuanto al peso? El peso para mí es soportable. Yo nunca, nunca he sido de llevar gafas. Siempre me han molestado. Cuando era jovencito tenía, aparte de la retinosis, tenía otras... tenía astigmatismo, hipermetropía. Tenía que llevar gafas y las odiaba. En cuanto pude, ya tuve edad. Y... Pues me puse lentillas. Pero no, a mí no me molestan. A ver, no son unas gafas como para llevarlas todo el día. A mí personalmente la nariz me la machacaría. Pero por eso, porque no estoy acostumbrado. Yo soy de usar estas gafas para el tema de la movilidad. En cuanto salgo de casa, por la calle, me las pongo. Cuando llego a un sitio, si ya no las necesito. Por ejemplo, que he quedado para ir a un restaurante para comer, me las quito. Pero son momentos que a lo mejor llevas las gafas pues una hora, hora y cuarta, hora y media, ¿no? Aquí en la ciudad es lo que tardas a lo mejor como mucho de un lado a otro. A mí no me molestan especialmente. Y el peso lo encuentro bastante soportable. Me parece que son 115 gramos más o menos. Lo que pasa es que, bueno, ya con el cable sube el peso. Pero bueno, el cable, yo tengo la... he cogido la costumbre de ponerlo... Llevo la petaca dentro de una bandolera. El cable lo paso entre la correa y el pecho. Y el cable es como si no lo llevara. Le doy holgura y el cable no se resiente nada el peso en las gafas. Claro, es que pasa muchas veces que si la gente no tiene costumbre de llevar gafas... Yo soy usuario de gafotas desde que tenía 9 años. Y cada vez que me cambio las gafas, no falla. Siempre digo, me equivoca de gafas porque me están haciendo la puñeta en la nariz estas. Pero es que siempre es los primeros 15 días. Luego ya se te hace la nariz, ya se te hace la cara. Y ya pues como si no las llevara encima. Eso por un lado. Y luego por otro también. El tema estético, claro, es que es muy particular de cada persona. Pero si hay un ejemplo que me gusta mucho contar. Y es que, por ejemplo, en el gimnasio donde yo voy. Hay un señor mayor. Tendrá unos 70 largos, 80 años. Y el hombre lleva una pierna de titanio. De titanio y carbono rojo. Espectacular. Es una pasada porque es un rollo Iron Man total. Y antiguamente ese tipo de prótesis, ese tipo de historias se tapaban siempre mucho. Y sin embargo ahora ya ha cambiado eso. Ya no es un estigma. Es algo que, ostras, que es guay y lo muestro. Y es el futuro. Y de hecho la gente nos hace... Y decimos, tío, ¿de dónde has sacado esta pasada? No, me la han hecho en Alemania. Y el tío todo orgulloso y todo contento. Entonces, digamos que también hay un cambio de etapa. En el que, a ver, quien tenga ya más canas. Se acordará de aquello de llevar los cascos de música por la calle. Que era bastante friki al principio. O los primeros teléfonos. Era una cosa bastante llamativa. Y la gente decía, pero bueno, ¿dónde va este payaso con este...? Y al final pues se acaba normalizando. Y se acaba convirtiendo en algo ya no normalizado. Sino que te gusta exhibirlo. Y que, ¿qué demonios? Pues si está guay. Pues aquí estoy yo. Y espero que con estas tecnologías. Y en particular con las Nira. Pues pase un poco eso. Pero es algo bastante portable, ¿no? Porque habéis dicho la petaca, los cables... Pero sí que es realmente portable, ¿no? No es un arma toste. No, se puede llevar perfectamente, sí, sí. Además ahora el tema... Claro, es que, a ver. La gente dice, la petaca, qué rollo. Llevar petaca, llevar cable. Pero es que si quisiéramos tener en las gafas todo el procesamiento. Toda la batería. Sería... Saldría un arma toste inmenso. Se calentaría, pesaría. A mí personalmente no me importa llevar la petaca. Porque ya digo, la meto en una bandolera. En una riñonera. Además ahora en Ayesin, bueno, nos han facilitado unos mandos a distancia. Que es una maravilla. Yo antes tenía que llevar siempre la petaca a mano. Con la cremallera de la bandolera abierta. Ahora puedo cerrar la cremallera. Y desde... Me gusta sobre todo uno de los dos mandos. Que es un anillo. Lo llevo en la mano contraria al bastón. En el dedo anular. Con los botones mirando hacia la palma. Y con el dedo pulgar voy presionando los botones. Súper práctico. Y eso pues facilita mucho el poder manejar. Y de la petaca es que me olvido. La llevo allí. Y lo único, el cable. Que sí que a ver si en el próximo modelo lo hacen un poquito más flexible. Porque a veces es un poco así como tirantes. Es el típico cable de USB de ordenador. Un poquito así rígido. Que con el tiempo se va mal maneando. Pero es lo único que quizás habría que mejorar. El cable. La petaca a mí no me importa llevarla, la verdad. Hay que buscar el equilibrio entre la tecnología. Todo lo que va esto ahí dentro metido. Y hacerlo pues amigable. Para el usuario, ¿no? Y también quizás un punto... Bueno, no sé si negativo, ¿no? También a tener en cuenta. Es que las patillas no se pueden doblar. Como las gafas normales que estamos acostumbrados. Sí. Exacto. Correcto. Ese es el gran impedimento que yo le vi a estas gafas desde el principio. De hecho fui a probarlas a Castellón al principio. Cuando tenía la pre-reserva y tal. Fue el primer inconveniente que le vi. Porque claro. Yo ya he comentado. No las uso todo el momento. Cuando llego a un sitio la quiero guardar. Entonces, por no poder pegar las patillas. Te implica tener que ingeniártelas. Yo he encontrado una bandolera pues grande. Que me cabe la gafa. Que me cabe la petaca. Tengo que... Ahora he ido variando, ¿no? En la forma de proteger las gafas dentro de la bandolera. Al principio usaba la tapa de un iPhone SE 2020. Es justo la medida donde caben las gafas así hacia abajo. Con las cámaras hacia abajo y los cristales. Y eso la protegía. Lo que son los cristales. Pero bueno. Siempre me daba acusas de que las patillas no quedaban protegidas. Y ahora me he ingeniado una caja de cartón. Que es el mismo tamaño. Y bueno. La he cortado un poquito por delante y por detrás. Protege las patillas. Lo que son los sensores. Los cristales. Pero no ocupa tanto espacio en la bandolera. Disculpadme. Antes de seguir con esto. Yo escucho a Antonio. A Antonio se le ve una persona que tiene un bagaje. Y una experiencia. Se le ve astuto. Debe tener un buen equipo. Y ahora la gente estará escuchando lo del cable. Estará escuchando la petaca. Y que no se pueden dorar las patillas. Pero todo esto tendrá una explicación. ¿No, Antonio? ¿Por qué exactamente esto es así? Porque tú podías haberlo hecho de otra manera. Y no así. Claro, claro. Es una pregunta que es absolutamente lógica que la gente haga constantemente. Y es. ¿Y esto por qué lleva cable? ¿Y esto por qué no lo metes todo en la gafa? ¿Y esto por qué tiene que ser así? A ver. La cuestión de la petaca. Necesitamos una capacidad de computación bestial. Para manejar todos esos datos. Y como os comentaba antes. En un principio necesitábamos un ordenador portátil gamer completo para procesarlo. Así que nos las ingeniamos para hacer una electrónica. Que pudiera funcionar durante 11 horas seguidas. Que eso es súper importante. Tener mucha independencia en la batería. Que además no necesitase refrigeración. Que permaneciese estable siempre. Y que cupiese en el espacio de un teléfono. Eso, meterlo en una gafa sin hacer un casco. Porque lo que no queremos es hacer un casco. Porque creo que no es... Eso sí que es estigmatizante, hombre. Exacto. Es una cosa súper marciana. Eso sí que queda realmente raro. Entonces... Claro. El precio a pagar. Pues es tener que irnos a un cable. El asunto del cable. Imaginaros que por dentro de esos cables. Hay 21 hilos. Y manejamos cantidad de información analógica, digital. El audio. Todos los datos de imagen. Arriba y abajo. Entonces, claro. Lo primero que teníamos en mente. Era hacer un sistema que fuese robusto. Y que aguantase la calle. Y que aguantase el día a día. Y sobre todo. Que fuese estable como una roca. Y entonces, pues pedía una serie de requerimientos. Ahora, pues en un futuro. Sí que estamos. Planificando reducir el número de cables internos. Hacerlo un poquito más flexible. Pero... Del cable vamos a... A seguir necesitándolo. Sencillamente por dos motivos. Uno. Por la cuestión de la batería. Intentar alojar todo. En la gafa. No nos duraría ni 10 minutos la batería. Haciéndolo como lo hacemos ahora. Pues nos dura hasta 11 horas continuas. Y... Y por otra parte la latencia. ¿Qué ocurre con la latencia? Que cuando nosotros grabamos una imagen. Grabamos una columna. Que se aproxima hacia nosotros. Nosotros no podemos. Convertir el sonido. En un segundo o dos segundos después. Porque alguien que camine a buen ritmo. Esa columna se va a golpear. Sí o sí. Nosotros necesitamos que. En milésimas de segundo. Se ha detectado y se ha informado. Y eso ahora mismo. Es a través de cable. Entonces claro, me dirás. Claro, pero por ejemplo. Los auriculares de Apple. Tienen una latencia muy baja. Sí, tienen una latencia muy baja. Pero están absolutamente fuera. De todos los estándares. Ellos tienen su propio estándar de radio. Y cuando pasa un coche de policía. A tu lado con un inhibidor. Te quedas sin señal. Entonces nosotros. No nos podemos permitir. Que en una situación delicada. Te quedes sin el dispositivo. Entonces bueno. El cable es un precio a pagar. Pero creemos que las funcionalidades. Y la seguridad que aportan. Valen más. Y la comodidad de llevar un cable. La palabra clave es el equilibrio. Intentar equilibrar. Entre toda la tecnología actual disponible. Y a un coste razonable. Con un tamaño miniaturizado razonable. Lo más razonable posible. Y lo más estéticamente razonable. Juntar todas estas piezas. Que son muchas. En un dispositivo que sea práctico. Pero eso se tendrá que ir progresando. Y avanzando también la tecnología. Porque lo que hay ahora es esto. Y sobre esto quería comentar. La gente podrá decir. No, no. Pero si la raiva meta. Tiene en Estados Unidos. Una función que se llama. Reconocimiento en tiempo real. Y lo hacen y son más pequeñas. Pero es una equivocación. Primero porque eso no es cierto. Es decir, tú lo que estás haciendo. Es preguntándole. Qué escena es la que ve. En ese momento. Hay un proceso que es bastante rápido. Pero pasan unos segundos. Y luego hay una descripción. O una información. Aquí estaríamos hablando de un sistema. Que es la base, la esencia del sistema. De una descripción de todos los elementos. Del entorno que se focalizan. En tiempo real. Porque el que no sea en tiempo real. Significa un accidente. Es así ¿no Antonio? Totalmente. De hecho. Hemos comprobado. Que una de las. Cuestiones fundamentales. Y que están funcionando muy bien. Es con el tema de los obstáculos aéreos. Un usuario. Avanzado. Y con mucho manejo con el bastón. O con el perro. No está libre de que una rama. Un saliente. Un toldo. Pues tenga un accidente con él. Eso es una fuente diaria. De problemas. Nosotros. Al informar inmediatamente. 60 veces por segundo. Y hasta con 5 metros de antelación. El número de accidentes aéreos. Se ha reducido prácticamente a cero. Entonces. Para nosotros era importantísimo. Esa cuestión de seguridad. Jaime ¿tú has detectado obstáculos aéreos? A diario. Yo precisamente cuando salgo de casa. Hacia el final de la calle. Hay un parque. Que siempre hay unos arbustos. Que cuando los podan bien. Pero cuando no los podan. Son unos arbustos altos. Que es que me dan en la cabeza. Cada vez. Cuando iba con el bastón. Siempre me peinaba allí. O mejor dicho me despeinaba allí. Porque soy alto. Y a veces incluso me daban en los ojos. Ya al final los podaban. A veces mi madre en cuanto veía. Que ya habían crecido mucho. Andaba y los cortaba con la mano. Menos mal que ella lo hacía. Y desde que tengo las gafas. No me doy para nada. Llego por allí. Además es una zona que es difícil decir. No tienes ninguna referencia para decir. Pues mira ya estoy a punto de llegar a las ramas. No es que es muy complicado. Porque es un parque que no tienes ningún tipo de referencia. Para evitar eso. Y es una pasada. De hecho hubo un día que mi madre flipó. Así entre comillas. Porque era un día que. Ella venía de comprar o algo. Yo salía de casa. Desde la distancia me vio llegar. A esa zona donde están esos arbustos. Y como si de repente. Un ángel guardián me hubiera dicho. Jaime esquiva esto. Yo esquivé. Noté ese sonido. Porque es un sonido súper característico. Que es inconfundible con nada. Así como muy alto. Muy agudo. Y ya sé que están las ramas. Además es una acera. No es muy ancha. Además hay pivotes en el extremo de la acera. Entonces soy capaz de alejarme de las ramas. Esquivarlas. Y además controlar los pivotes. Para no acercarme a ellos. Los pivotes hacen un sonido como. Ese sonido son los pivotes. Entonces según el volumen. Te estás acercando mucho al pivote. Entonces es como mágico. Sin ver cómo puedes esquivar las ramas. Y controlar la distancia contra los pivotes. Mi madre desde la distancia. Dijo pensaba que te dabas. Pensaba que te dabas. Y dijo te sirven estas gafas. Claro que me sirven. Si no no saldría con ellas. Claro que más que identificar la forma y todo esto. Lo que te da son referencias. Y a partir de ahí eso es valiosísimo. Porque con la referencia ya tomas mejores decisiones. Bueno luego podemos hablar de esto. Llega un momento. Cuando tienes suficiente práctica. Y has sufrido esa transformación neuroplástica del cerebro. Y te has creado un diccionario. Un diccionario mental audiovisual. Has ido asociando sonidos con elementos físicos. Llega un momento. En que yo cuando salgo a la calle. No escucho las gafas y el sonido. Sino que veo entre comillas. Que no se me malinterprete. Esto no acepta hacer recuperar la vista. Pero como tengo un diccionario mental. De a qué corresponde cada sonido. Yo cuando escucho las ramitas estas. Bueno escucho el sonido. Pero además visualizo unas ramitas. Porque además es la clave. Asociar siempre que escuchamos algo. Hay que tocar con la mano. Identificar, tocar. De esa forma te creas ese diccionario mental. Y poco a poco. Es que medio ves. Ves las cosas. Yo sé que eso es una rama. Sé que eso es un pivote. Y mentalmente estoy visualizando. La rama, el pivote. Cuando llego a la esquina visualizo una moto. Que aparca allí siempre en el chafrón del vecino. Y sé que es un sonido característico. Escucho el sonido. Y mentalmente la moto. Los pivotes, los bancos, todo. ¿Nos puedes poner algún ejemplo? De cómo sería esto. Decían los romanos que no hay nada mejor para entender algo. Que ilustrarlo con un ejemplo. Sí. De hecho se me había ocurrido hacer un pequeño experimento. Porque cuando dices esto. De que con las gafas. Puedes visualizar mentalmente las cosas. Siempre y cuando. Tienes que llevar un rodaje hecho. Primero tenemos que en casa. Por eso se aconseja las primeras semanas en casa. Que es un entorno que controlas. Que sabes dónde está todo. El mobiliario. Dónde están las puertas. En fin, todos los elementos. En casa tenemos que ir en modo rastreo. Que es el más estrecho. A un metro. Ir escuchando y tocando. Es que la clave en este sistema es asociar. Los sonidos que escuchas. Con lo que estás tocando. De esa forma te vas creando un diccionario mental. Que luego. Cuando ya llega un momento. En que lo haces de forma automática. Que es otro fenómeno muy interesante. La automatización de una habilidad. El hacer clic. Llega un momento que nosotros los usuarios. Cuando hemos adquirido un buen diccionario. Y hemos forzado al cerebro a evolucionar. Estas sinapsis neuronales. Esa transformación que se comunica. El área de la corteza del oído. Con la visión. Esa sustitución sensorial. Sería como que tu pensamiento. Ya no está preguntando. Que es, que es, que es. Sabe lo que es. Y es y funciona. Pasas de traducir a percibir. Porque al principio tienes que ir. Haciendo un esfuerzo voluntario de traducir. Este sonido que era. Y este sonido. No sé que es. Voy a tocarlo. Si no lo puedo tocar. Voy con el bastón. Y si no ahora. La maravilla de estas gafas. Tienen descripción de imágenes por inteligencia artificial. Cuando detecto algo que no puedo tocar. Por ejemplo hay unas jardineras aquí cerca. Las jardineras las puedo tocar con el bastón. Incluso con la mano. La identifico. Pero más allá. Hay una cosa que no sé que es. Le pregunto a la inteligencia artificial. Solo por curiosidad. Porque no me voy a chocar con ello. Y me dice que es un árbol. Y yo mira. Ese sonido es de un árbol. Y además me entretengo allí. Lo exploro. El tronco. Las ramas. Todo sirve para enriquecer ese diccionario mental. Entonces. Me resulta curioso. Porque en la especie humana. Los cachorros. Los bebés. Cuando empiezan a adquirir conocimientos del entorno. Y de los objetos que les rodean. Son prácticamente. No ven. Aparte de por las gotas que les ponen la visión. Si no tienen una visión extravica. No son capaces de focalizar. Ven fatal. Ellos utilizan. Es muy curioso. El gusto. Y todo va a la boca. Esa es la cuestión. Están reconociendo con el gusto y con el tacto el objeto. Y luego ya lo centran con la vista. Me lo estabas comentando. Y es un aprendizaje muy similar. El oído. El que con ese tacto. Y esas sensaciones son las que se correlacionan. Exacto. Eso es clave en este sistema. No nos tenemos que limitar a poner las gafas. Ir por ahí con las gafas. Y escuchar las gafas. Aquí hay un sonido. Voy por donde no hay ningún sonido y escribo. Eso no sirve de nada. Por mucho que las llevemos. Y esperemos que algún día surja el milagro. De que de repente nos sirva. Identifiquemos la cosa. No sirve de nada. Tenemos que cada sonido asociarlo a la cosa. A veces son cosas concretas. Que se identifican muy bien. Yo identifico muy bien una papelera, una moto, un banco... Me refiero a cosas en el tema de movilidad. Porque por casa practiqué al principio pero ahora ya como le doy más prioridad a la movilidad pues no las uso. ¿Y cómo es ese sonido? ¿Cómo es ese lenguaje auditivo? ¿Cómo percibes tú las cosas? Pues a base de ir... digamos escuchando las gafas y tocando lo que corresponde pues te haces una idea de lo que es. Hay sonidos que corresponden claramente a una cosa pero hay otros sonidos que corresponden como a formas geométricas. A veces voy por la calle identifico claramente las cosas que tengo en mi escenario mental pero hay otras cosas que no identifico porque nunca las he visto no las he relacionado pero sí que sé que mira tiene esta amplitud o este tamaño o esta altura y más o menos pues luego ya pues o le pido información a la inteligente artificial que me lo describa o tal. El tema de sonidos es lo que es digamos la teoría es sencillo. Son sonidos que varían en frecuencia cosas altas por ejemplo las ramas de un árbol o aquí por ejemplo en casa cuando practicaba una lámpara que tenemos así de cristalitos que esconde era súper característico el sonido todo eso es un sonido muy muy agudo así como muy alto. Es un sonido parecido al del viento podríamos decir. ¿Cómo sería Antonio? ¿Se puede escuchar? Haciendo imitación que también he pasado yo muchas horas de prueba pero bueno la cosa es sencilla es un soplido que sonaría cuanto más agudo más arriba está el objeto eso es más arriba suena más grave porque está más abajo y luego sonaría a izquierda y a derecha en el estéreo y la profundidad vendría dada por la fuerza de ese la intensidad de ese sonido entonces cuanto más fuerte más cerca está. Es un lenguaje. Es un lenguaje y bueno la evolución natural es es percibir ahora hay ahora no hay ese es el primer paso el más sencillito luego cuando vas adquiriendo destreza pues ahora hay pero es de media altura ahora aquí a la derecha tengo algo pero es muy alto luego ya pues algo que es alto y redondo algo que es bajo y puntiagudo algo que es difuso como pueda ser pues un arbusto vas enriqueciendo el lenguaje y cada vez pues eso percibiendo con más con más riqueza y con más detalle. El sistema es capaz de de funcionar desde 0,7 metros no desde 0,5 metros hasta 5 metros de de longitud entonces tenemos un un espectro amplio de de movimiento y luego a nivel de precisión hasta 2 milímetros con lo cual podríamos escuchar el sonido de una mesa y encontrar una moneda encima de esa mesa lo que pasa que claro el salto de sonido es muy sutil y necesitas pues un poquito de trabajo y un poquito de entrenamiento pero pero es una tarea que se hace una vez una vez trabajada se hace sin dificultad con esto lo que se percibe son las formas que lógicamente no se puede percibir ni que es ese objeto en concreto no sé que ya previamente pues estuvies buscando una moneda sabes que está por ahí o lo tocas o pides una descripción y te dice exactamente que es. Con esto se perciben las formas no se perciben los colores ni el que es el objeto no los colores no. De momento no te puedo decir que de momento no A ver, objeto se puede identificar cuando estás digamos en el contexto, por ejemplo yo cuando llego al chaflán escucho además del sonido de la pared escucho un sonido que sobresale que es una cosa no muy alta ancha, bueno tampoco no muy ancha, ese sonido característico sé que es una moto en principio cuando la primera vez que lo escuchas solamente es un sonido no sabes que eso es una moto pero a base de mirarla, no sólo de atrás sino delante, la clave es eso lo que decía, siempre asociar ese sonido incluso desde varios puntos de vista, varias perspectivas llega un momento en que por la zona que estás y el sonido sabes que eso es la moto que siempre está ahí o es el banco y cuando ya lo tienes muy muy dominado incluso en otros sitios sabes que ahí hay una moto por el sonido o es una papelera porque son sonidos que te informa solamente de geometría, de altura, de anchura pero por el contexto, por el sitio que estás siempre sabes llegas a la conclusión y además de una forma muy automática cuando ya tienes bastante práctica De hecho lo estás hablando y estás hablando del entrenamiento de tu propio modelo de lenguaje suena a entrenamiento de IA pero con tu cerebro estás generando tu propio lenguaje y tus propios modelos entonces una vez que ya has cogido experiencia suficiente ya puedes anticipar y ya puedes adivinar qué es lo que tienes delante. ¿Algún entrenamiento así previsto para ir mejorando progresivamente ya que alguien lo haya probado con buenos resultados? De hecho tenemos diseñada una rutina de 30 días en la que trabajó muy activamente Jaime una rutina de 30 días para ir incrementando poquito a poco la dificultad con distintos ejercicios fáciles todos pero bueno que te ayudan a integrar el sistema que te pueden ayudar mucho en esa transición hasta que interiorizas el sonido. Si quieres comentar un poco Jaime porque bueno el arquitecto un poco de esto Sí, bueno yo cuando me compré las gafas ya he dicho antes que soy una persona muy aventurera muy intrépida desde Ayesin me dieron consejos también es importante que tenemos en Ayesin. Nos han habilitado un grupo de WhatsApp donde hay usuarios donde están el propio Antonio Quesada está allí también hay ingeniero está Julián vamos todo el equipo dentro eso es una maravilla a mí el hecho de que la empresa sea española y que tenga esta facilidad de comunicarnos es algo que se agradece mucho entonces yo cuando me compré las gafas no había ningún entrenamiento solamente habían estos consejos desde la compañía desde Ayesin de los usuarios y al principio yo lo respeté la primera semana en casa ...en modo rastreo, poquito a poco, haciéndome el diccionario y tal. Además coincidió que era la época de navidades y habían pues comidas familiares y tampoco no hacíamos buen tiempo y bueno, me obligaron, entre comillas, a hacer bondad y esas primeras semanas hacerlo en casa y perfecto. Pero cuando salí a la calle, dije, bueno, ya como controlaba el tema de la casa, digo, bueno, yo aquí ya, venga, voy a meter cuatro metros, modo panorámico y al ataque. Y no, no, no, aquí yo ya, pasar de rastreo a un metro, dos metros, que estaba haciendo en casa, a panorámico, a cuatro metros, pues vamos, aquí yo era un bombardeo de... Mucha información. Muchos estímulos, me desorientaba, además puse volumen alto para poder escucharlo bien. En la primera esquina me metí en el hueco de un árbol, o sea, fue todo un desastre que me dio... o frustré. Y entonces, pues bueno, luego ya lo comenté con Domingo, que es un usuario muy avanzado, y me recomendó, tú retómalo y hazlo bien hecho y tal. Y lo hice, ¿no? Y eso me dio la idea, pues, de hacer como un entrenamiento, que lo publiqué en el artículo. Y luego, enseguida, también, en Yesin, también estaban trabajando en esto y han publicado, pues eso, también un artículo que... Bueno, un artículo nuevo. En la página web, cuando compramos las gafas, nos dan acceso a un entrenamiento de 30 días, ¿vale? Son seis fases, de forma progresiva, para ir adquiriendo la capacidad de manejarnos y salir adelante en ese proceso de entrenamiento. Si se sigue al pie de la letra, yo creo que, a lo mejor, un alto gran porcentaje de personas, un 90%, pueden asimilar las gafas, porque es un entrenamiento muy completo, muy progresivo, que facilita... La adquisición, ¿no? La adaptación, incluso facilita que ya empecemos a sufrir esos cambios, ¿no? De adaptación cerebral, de neuroplasticidad, para empezar a visualizar lo que estamos viendo. Bueno, no sé, el entrenamiento es largo, ¿verdad? Que son seis etapas. La primera semana en casa, modo rastreo, poquitos metros, haciendo ese diccionario. Luego, ya la segunda semana, también salir un poco a la escalera. La escalera va muy bien, porque la barandita... La barandilla de la escalera te asemeja mucho a las vallas de las obras. Las escaleras también es un sonido muy característico. Puedes distinguir los escalones hacia arriba, los escalones hacia abajo. Y luego ya es cuestión de salir a la calle, ¿no? En las siguientes semanas, salir a la calle. También, al principio, en modo rastreo, progresivamente, siempre por un recorrido que también podamos, pues, controlar, ¿no? Que no sea un recorrido que no controlemos y, sobre todo, que tenga muchos elementos inmobiliario urbano, ¿no? Que hayan bancos, que hayan papeleras, que hayan pivotes, paradas de autobús... En fin, lo máximo posible, pues, para empezar a enriquecer el diccionario este mental audiovisual, pero sin que corramos peligro, pues, de tener algún imprevisto, ¿no? Jaime, y en el metro, que hay un cúmulo de gente ahí... Sí, eso ya se trabaja en la última semana. Eso es todo un mundo y ya tenemos que tener bastante experiencia. En el metro, lo aconsejable, depende un poco, a ver, si vas siguiendo a la marabunta en un transbordo, puedes ir perfectamente a dos metros, incluso con modo panorámico, ¿vale? Porque vas siguiendo y vas controlando la gente que tienes delante, si se acerca, si te acercas mucho o si alguien se para, puedes esquivar. En cambio, si estás en el andén, ya hay... si hay mucha gente, pues, ya mejor un modo rastreo. Es meterse en el tema, pero se puede, se puede sacar. ¿Y el sonido? ¿Llegas a escucharlo con la conducción ósea a tope? Sí, cuando llega el tren, el tranvía o el tren, sí, los puedo escuchar. Lo que pasa es que hay un momento que a mí aún me estresa, que es cuando llega el tren. Yo, mientras estoy en el andén, pues, las tengo puestas. Además, me entretengo, porque va pasando la gente del andén. Y digo, mira, esta persona es alta. Esa persona parece que es más bajita. Dicen que perfectamente la gente. Esto es súper curioso, ¿no? Pero cuando llega el tren, a mí es como muy estresante. Es algo yo que prefiero silenciar las gafas, porque, claro, tienes que estar pendiente de la gente que tienes delante. Tienes que estar pendiente de que frena el metro. Tienes que estar escuchando claramente dónde se abren las puertas, ir a buscar la puerta, esquivar. Además, es que te ponen súper estresado. Entonces, en esos momentos, yo prefiero apagar las gafas y usar el método tradicional, el bastón, acercarme a la carrocería del metro, más o menos, porque no siempre se abren las puertas. Hay puertas que tienes que pulsar tú el botoncito. Entonces, tienes que ir rápido, acercarte al metro, buscar con la mano el abridor de la puerta o localizar la puerta. En esos casos, yo personalmente, de momento, es algo que igual tendría que dedicarme más, pero prefiero apagarlas, bueno, silenciar las gafas. Así que hay un momento en que me va de maravilla, que es aquí tengo el inicio de una línea del metro, la línea 5 del metro, y me van de maravilla las gafas. Ahí sí que las tengo para subirme al metro, porque suele haber poca gente. Y además me va de maravilla para saber que el metro que tengo delante es el mío, porque es un momento, es el intercambio de cuando llega un metro, digamos, de la línea y sale el otro, digamos, de la cochera. Entonces, cuando llega uno, muchas veces viene el otro como muy despacito, sin hacer nada de ruido, y el ruido del otro metro, de la otra villa, te enmascara tanto el sonido, que las gafas me van de maravilla para decir, mira, ahora ya ha llegado el metro, y si no hay gente, puedo localizar la puerta cuando se abre y entra por la puerta fácilmente. Es que esto es muy clarificador. Es muy clarificador, porque ya lo dijo Antonio, que las gafas no son auxiliar de movilidad en sí, son un complemento, y en este caso tú las estás utilizando como tal, un magnífico complemento, porque te estás dando una información para tomar mejores decisiones, pero está claro que el que adquiere unas gafas de este tipo no va a conectarlas y va a ver. Es que esto es un gran error. Exacto. Sí, sí, siempre nos ha gustado ser clarísimos al respecto, porque en esta industria, lo sabéis bien, se ha vendido mucho humo y se ha vendido mucho producto milagro, y nosotros en ese aspecto queremos ser súper serios, ni se curan enfermedades, ni se alivian síntomas, es una herramienta muy potente, pero es una herramienta, entonces, con eso en mente, podemos sacarle un partido espectacular. De hecho, una cosa que también me gusta mencionar es que cada persona... Cada persona tiene su uso personalizado. Cada caso y cada casuística es única. En el caso de Jaime, por ejemplo, las usa en ese aspecto. Tenemos otra usuaria, Sara, en Madrid, que ella las usa precisamente para distinguir si el hueco que está percibiendo delante de ella es el hueco entre dos vagones o si realmente es la puerta abierta, porque ella ya tiene sus trucos para escuchar el suelo, si nota abismo, es que no es el sitio correcto, es que está entre dos vagones. Entonces, es una aventura el adquirirlas y realmente tienes que encontrar tu lugar y tienes que encontrar donde estés realmente en comodidad. Y yo creo que es parte del proceso, es parte importante del proceso. Y esto es muy importante para evitar también frustraciones, ¿no? Que esto es un poco como el gimnasio, que no vas el primer día y sabes cachas, sino que tienes que buscar... Exacto, no es... Tienes que buscar tu situación para que te puedan resultar útiles, para que sí, para que no, y tienes que aprender. Y no agobiarte y hacer las cosas poco a poco. De hecho, hemos puesto el periodo de prueba de un mes en vez del típico de 15 días, que es el legal. Nosotros ponemos un mes en el que si no te amoldas, si no te encaja, pues chicos, se devuelven y se devuelve el dinero y ya está, no pasa nada. Pero es tiempo más que suficiente. Para que vayas probando, vayas poco a poco evolucionando y en ese periodo de tiempo, pues tiene que resultar, al final tiene que resultar una experiencia placentera y tiene que ser positiva. No te puedes estresar, en 15 días me tengo que empapar esto porque es que si no se me va a pasar el plazo y eso es un sufrimiento. Entonces, bueno, hay que ir poco a poco. Yo te escucho ahora y digo, bueno, pues quiero probarlas, ¿qué gestiones tengo que hacer? Pues nada, simplemente... tienes que hacer el pedido. Puedes hacerlo de dos maneras o puedes ponerte en contacto con nosotros a través del formulario de la web. O si lo tienes clarísimo, las puedes comprar directamente en la tienda de la web o en uno de los centros de General Óptica que tenemos en España. ¿Se pueden probar en General Óptica? Se pueden probar en General Óptica. Sí. Yo a la pobre chica que estaba allí enseñándolas la agobié un poco porque quería probarlas en primer lugar. Porque no me gusta muy bien la profundidad. Aparte de la batería de pruebas que nos hacen allí sentaditos enseñándonos a localizar cosas, la mano y tal, lo típico. La hice... bueno, ella ya me llevó, ¿no? Por allí, detectar las puertas, las paredes, hay columnas, subir y bajar por la escalera... Pero bueno, yo la obligué a salir a la calle porque yo es que quería escucharlas en la calle, ¿no? Con el ruido. Además, la General Óptica de Barcelona está en la Plaza Francesc Masià, que es una plaza con muchísimo tráfico. Y le dije, vamos allí al lado del semáforo, cuando arranquen los coches y los autocares, a ver cómo se escuchan. Y sí, sí, se escuchaba perfectamente. Y mientras tanto, pues estuve localizando el semáforo, pasó un grupo de personas y me sorprendió poder contar las personas que pasaban. Un grupo de cuatro o cinco personas. Y dije, ostras, pero qué cantidad de detalles. Y en tiempo real, ¿no? Pero en tiempo real y además en el estéreo. Que una persona pasa de la derecha a la izquierda. Muchas veces voy por la calle. Y el típico que sale una persona de un portal de prisa y corriendo sin mirar. Antes con el bastón. Topetazo. Ahora no. Enseguida que escucho algo que sale así de la pared y que sé que es una persona porque tengo ya ese diccionario mental. Ya paro. Y evito el choque. Eso es muchísimo. Entiendo que ese contacto con General Óptica, por ejemplo, es para ver cómo es el dispositivo, cómo se enciende, cómo se apaga, para lo básico. Luego ya tienes ese mes de prueba en tu casa. Exacto. Y en ese mes lo ideal es eso. Echar mano de ese entrenamiento que dura justo ese mes. Y con eso ya te haces a la idea de si las gafas esas son para ti. Que no hace falta seguir el entrenamiento al pie de la letra. Si la primera semana ya ves que en casa no controlas, pues dos semanas. Pero más o menos, aunque te dé... Solamente te dé para hacer el entrenamiento un poco más de la mitad. Las sensaciones ya sabes si te sirven o no. Porque solamente la primera sensación... Yo, de hecho, cuando me las compré, sólo al salir a la calle con el modo rastreo, ya sabía que me las iba a quedar. Porque en el modo rastreo, aunque solamente analiza un espacio muy estrecho, de unos 20 centímetros más o menos, es perfecto para localizar los pivotes. Si hay alguien en la calle, en la C. Si hay algo en medio... Claro, en ese modo te obliga a mover a izquierda y a derecha. Girar la cara de manera análoga al bastón. Entonces vas rastreando, por eso se llama modo rastreo, porque vas moviendo tu cara a izquierda y a derecha. En el panorámico ya suena todo a la vez. Lo que está a la derecha en el centro y a la izquierda. Entonces, claro, ahí es donde adquieres mucha más información. Y donde, pues, necesitas un poquito más de nivel y un poquito más de entrenamiento para distinguir todos esos detalles a la vez. Pero, de nuevo, el cerebro es una máquina alucinante y que te permite eso y mucho más. De hecho, el fenómeno de la visión, tenemos un área en el cerebro destinada específicamente para ello. Es la corteza visual. Tengamos en cuenta que el proceso de veloz. Tiene en cuenta el color, la iluminación, la textura, la distancia, dos ojos que reconstruyen un 3D en el cerebro, los vectores de movimiento de ese balón me va a golpear en 3, 2, 1... Todo eso lo hacemos 12 horas al día sin esfuerzo aparente. No nos cansamos de mirar. ¿Por qué? Porque lo hace automáticamente el cerebro. Está habilitado para eso. Claro. El uso de las gafas, ese entrenamiento, pues estamos haciendo la labor de traducción, digamos, a fuerza bruta. Hasta que, por fin, se hacen las suficientes conexiones neuronales entre la parte auditiva del cerebro y la corteza visual. Entonces, muchísimos usuarios, usuarios, nos ha pasado que decía, jolín, yo esto al principio que me parecía complicado. Y de repente un día dije, pero si es una chorrada. Y yo siempre lo digo. Ni es súper complicado, ni es una chorrada. Simplemente ya te has amoldado. Y en cuanto cubres esa etapa, de repente resulta todo mucho más natural. Por eso también es muy importante usar ese mes de prueba para este aprendizaje, ¿no? Poco a poco, sin abrumar y sin meternos ahí un empache de gafas y que no les veamos el sentido y que esto no es para mí. Sino que poco a poco, progresivamente, y manteniendo ahí constancia en el tiempo. Que aprovechemos esos 30 días para aprender a utilizarlas, ¿no? Es muy importante. Absolutamente. Y cuando la experiencia es placentera y vas notando tus progresos y vas notando que efectivamente estás aprendiendo cosas nuevas. Se asimilan mil veces mejor. Entonces, yo creo que es la manera. Es calma, paciencia y el trabajo y el esfuerzo pues da frutos sí o sí. ¿Y qué precio tienen? ¿Hay diferentes modelos o es modelo único? Es modelo único. Y tiene el precio de... creo que son 3.300 porque hemos hecho la actualización ahora a un modelo nuevo. ¿Euros? Sí. 3.300. Es un poquito menos de 3.300. Y en este hemos incluido también además un micrófono. Con lo cual ahora podemos conversar con Nira. Y podemos pedir cosas de viva voz. Detalles sobre las descripciones, por ejemplo. ¿Hay diferentes versiones? Sí. ¿Va evolucionando el producto? No. Pasamos de la 1 a la 1.5. Entonces ahora ya solo vendemos la 1.5. Y la petaca también la hemos reducido en espesor. Porque era algo también que era muy demandado. Entonces, bueno, hemos podido rascarle un buen trozo a la unidad de procesado. Resulta más ligera. Y bueno, también tienen ya el Bluetooth funcional para conectarse al teléfono. Poder escuchar, por ejemplo, todo el multimedia del teléfono a través de las gafas. Pues mensajes de voz o escuchar este mismo podcast a través de las gafas. Mejora mucho. No, ya es bueno de por sí. Entonces, bueno, tengo que serte honesto. Y mejorar no mejora porque ya está muy bien. Muy bien. Gracias, Antonio. Un placer. ¿Y cómo se puede interactuar? ¿Hay alguna forma de poder interactuar con las gafas? ¿Es necesario? ¿No es necesario? Y en caso necesario, ¿cómo se hace? Bueno, la interacción a través del micrófono. Por ejemplo, si estamos en una escena y le preguntamos. O pulsamos directamente el botón de descripción de escena. Nos va a decir que estamos en un despacho con una serie de elementos. Si hay unos ordenadores y hay un extintor, por ejemplo. Y tú le puedes decir. ¿Y el extintor dónde está ubicado? Y te dirá. Entonces te dirá. Pues está ubicado a la izquierda, a tu izquierda, al lado de la puerta. ¿O de qué color es esto? O le puedes, bueno, como le puedes preguntar. Le puedes preguntar quién fue el campeón mundial de Fórmula 1 de 1972. Y te dirá. No tiene mucho que ver con la foto que he tirado, pero era Mario Andretti. Entonces la capacidad la tiene. Sí. Por no llevar a confusión a la gente. El sistema auditivo de reconocimiento del entorno. En tiempo real, ¿no? Para ir viendo las cosas. Es un sistema, una función que tiene. Y esto es algo adicional, ¿no? Que actuaría como Be My Eyes o cualquier otro tipo de descriptor de imágenes, escenas. Exacto. Porque, por lo que veo, con posibilidad de hacer chatbot. De preguntar sobre la propia escena dónde está un elemento u otro, ¿no? Exacto. Vale, vale. Pero para el uso normal, digamos, el de los sonidos, el de los pitidillos esos que habíamos dicho, ¿no? También se puede, entiendo, interactuar para decirle si quieres que te detecte los obstáculos más o menos lejos. Con más o menos distancia. O si quieres que tenga una mayor o menor amplitud. Claro. Podemos aumentar o disminuir la distancia de análisis. Porque, claro, a lo mejor poner cinco metros en casa no tiene sentido porque estás percibiendo techo, paredes, suelo, un montón de cosas a la vez. Y es demasiada información. Bueno, pues rebajamos la distancia. También puedes elegir entre el modo panorámico o el modo rastreo. Y también puedes jugar con el volumen. No es lo mismo estar en un ambiente silencioso o un ambiente tranquilo. Que necesitas poco volumen que irte a una calle con obras que le tienes que dar mucha caña. Y esto se puede hacer con la petaca y también con un par de accesorios que habéis sacado más o menos recientemente. Con el mando a distancia, sí. Correcto. Contadnos un poco cómo son el anillo y el mando. Sí, tenemos dos mandos a distancia que, como ya he comentado antes, facilitan mucho el interactuar con el sistema. Porque ya no tenemos que tener la petaca ahí a mano, ¿no? Podemos ya meterla en un sitio, cerrar la cremallera y poder hacer todas las funciones desde los mandos. Hay un anillo que, bueno, que es eso, para ponerlo en el dedo de la mano. No es un anillo que el círculo del aro esté cerrado, sino que queda un poco abierto. Que eso facilita que podamos adaptarlo a nuestro grosor del dedo, ¿no? Además, es el típico... no sé si os acordáis de los sellos antiguos que se usaban en la Edad Media para poner el lacre. Es un anillo que tiene adosado en la parte superior como una especie de superficie que no es redonda, es como un rectángulo. Si no recuerdo mal, hace de altura un centímetro coma cuatro, de profundidad tres coma cuatro y de anchura dos coma cuatro, ¿no? Es rectangular. Sí, no es grande. Además, no sé si son seis gramos o una cosa así, ¿no? Si Antonio me equivoco en las cifras, ¿me corrige? No, no, no, no, has estado acertadísimo. Entonces, en la superficie del anillo hay ocho botones. Tenemos cinco botones de cruceta de navegación típicos. Cursor arriba, cursor abajo, cursor izquierda, derecha y el central. Y luego tenemos abajo tres botones, ¿vale? La petaca, más o menos, la estructura es la misma. Tenemos cinco botones de navegación, lo que pasa es que abajo tenemos tres hileras de... no, dos hileras de tres botones. Entonces, con el anillo podemos hacer todas, todas las funciones, menos apagar y encender el sistema o ponerlo en hibernación, lo cual es lógico, porque como al apagar el sistema ya no hay Bluetooth, no podríamos hacer nada con el anillo. Pero si en algún momento queremos silenciar los sonidos de exploración, porque entramos en un sitio y no queremos escuchar, hay un modo de mutear, de ponerlo en silencio. Entonces, pues, con el anillo, con cursor izquierda, derecha, podemos aumentar la distancia de exploración desde un metro a cinco metros. Cursor arriba y abajo graduamos el volumen. Con el botón central cambiamos entre los dos modos de exploración, rastreo, panorámico. Y los botones de abajo tienen... bueno, todos los botones tienen distinta posibilidad de pulsar. Una pulsación corta, una pulsación mantenida de dos segundos o una doble pulsación rápida. Entonces hay multitud de combinaciones. Desde los tres botones de abajo podemos hacer todas las funciones que se pueden hacer desde la petaca. Es súper práctico. Podemos hacer todo, desde disparar la descripción de imágenes con total discreción. Aquí no tenemos que decir en voz alta, hey, mira y dime lo que tengo delante. No, para nada. Con total discreción. Yo estoy dentro del metro, del tranvía. Simplemente con pulsar el anillo, un par de toques, puedo saber quién tengo al lado. Que me diga cómo va vestido, lo que lleva de ropa, o si hay asientos vacíos. Luego ya si quiero preguntar, ahí ya sí que tendría que usar el botón. Pero es súper práctico, lo de la inteligencia artificial. Y luego tenemos el otro mando, que es un mando más grande. Este, el anillo, son los botones más pequeñitos, claro, en la superficie son ocho botones. El grande está ideado para anclarlo al bastón o al arnés del perro guía. Y son cinco botones, pero son solamente los cinco botones de navegación. Pero también lo mismo. Como permiten hacer varias pulsaciones, pulsación única, pulsación doble o pulsación mantenida, también podemos hacer todas las funciones de la petaca. Para mí el preferido es el anillo, porque es muy práctico. Pero seguro que habrá gente que preferirá el grande. A lo mejor gente que tiene los dedos muy grandes y que en el anillo le cueste tocarlos. O porque prefiera llevar el grande en el arnés del perro guía, llevar la mano libre. Pues ahí tenemos las dos posibilidades. Según qué preferencia. ¿Qué precio tienen estos dispositivos? El anillo son cincuenta y cinco euros, si no recuerdo mal. Y el grande son ochenta euros. Habitualmente solemos hablar de esta tecnología que nos ocupan cada uno de los episodios. Y analizar qué mejoras de futuro pueden tener. Qué materiales se pueden mejorar, qué tipo de elementos y componentes. Nos interesaría tanto conocer desde la perspectiva del desarrollador, en este caso tú Antonio, como del usuario, tú Jaime, un poco cómo veis qué podemos hacer en este dispositivo para que mejore. A ver, todo el mundo tenemos nuestra... Otra carta de los Reyes Magos. Y la lista de mejoras es tan grande como el público, ¿no? Pero sí que hemos ido encontrando pues algunas cuestiones que son comunes. Y que hemos ido resolviendo. Por ejemplo, el tema de la descripción era algo que estaba bastante solicitado. Luego, la reducción del tamaño del peso de la petaca también. Y ahora pues estamos con cuestiones de mejora de flexibilidad y de comodidad del cable. Estamos trabajando también bastante en el asunto de la ergonomía. Equilibrando mejor los... balanceando mejor los pesos y haciendo las gafas más cómodas. Sí que me gusta también incidir en un punto y es que... Claro... Cuando alguien compra las gafas, dice... Bueno, y si vais a sacar un modelo más adelante, entonces... ¿Ahora qué pasa? Porque claro, ya me he gastado el dinero y resulta que vais a sacar una gafa mejor en el futuro. Nosotros tenemos el compromiso público de la gente que compre una gafa, una 1.0, una 1.5... Cuando nosotros saquemos a lo largo del año que viene el modelo nuevo, el modelo 2.0... cambiaremos la gafa de manera gratuita. Entonces así, nadie se quedará con la cara de haber dicho... Ostras, me las he comprado y a la semana siguiente habéis sacado el modelo nuevo. No pasa nada. A todo el mundo que las compre, se las cambiaremos de manera totalmente gratuita por el modelo 2.0. Y ya os digo, trabajando sobre todo la ergonomía y esto a nivel de hardware. Luego a nivel de software también, siempre estamos buscando nuevas funciones, nuevos módulos que nosotros vamos actualizando a través de la Wi-Fi. Vamos haciendo distintas actualizaciones del sistema operativo y vamos añadiendo nuevas funciones que nos pide la gente. De hecho, hay una que creo que puede estar bastante chula, que Jaime ha estado muy implicado también en ese desarrollo. Si quieres comentarlo tú, Jaime. No solo yo, más usuarios lo solicitaban. Ya he comentado antes que el pasar del modo rastreo al panorámico es un salto bastante brusco. Hay algún truquito, por ejemplo, para asimilar el salto de uno a otro. Los primeros días usar el panorámico en vez de a tres metros, como llevamos con el rastreo, a dos metros. Y de esa forma... Claro. Estamos pasando de una exploración en el modo rastreo de 20 centímetros de anchura, que es la misma amplitud, independientemente de si tienes un metro, dos metros, tres metros o hasta cinco metros, al modo panorámico en el cual es como un cono de exploración, un cono de exploración que sale desde las gafas y que se va ampliando. Si no recuerdo mal, creo que a tres metros de exploración. El cono ya abarca cuatro metros de anchura, ¿no? No sé si es así, Antonio. Sí, correcto. Lo que no sé es si a lo mejor a cinco metros, ¿hasta cuánto alcanzas? ¿También cinco de anchura? Seis, seis, siete metros. Imaginamos ese cono de exploración en una acera estrecha, en la que tenemos a un lado pared, al otro lado coches aparcados, una acera de metro y medio, un metro, que suele haber por aquí, por mi barrio. En el modo rastreo iría súper bien. Siempre con la precaución de ir haciendo un poquito un movimiento muy sutil de la cabeza, como si fuera con el bastón, para que no se me escape nada. De esa forma no percibiría para nada la pared ni los coches. Pero en el modo panorámico, a tres metros que suelo ir, cuatro metros de amplitud, es decir, dos metros hacia cada lado desde mi punto medio del cuerpo. Es que voy escuchando pared, voy escuchando coches. Cualquier elemento que haya en medio. Una persona que se ha parado, el carrito de correo que ha dejado yo, el carrito de reparto. No se percibe tan bien, ¿no? Y es un poco como estresante. Entonces, bueno, hemos sugerido un modo panorámico que fuera un poco más estrecho, que permitirá navegar con facilidad por estos sitios más estrechos, ¿no? Un modo panorámico estrecho, también en estéreo, lo mismo, que te indicara lo que está a la izquierda, a la derecha, si alguien se cruza y tal. Pero que pudieras, por ejemplo... Pues graduar un poquito la distancia, la amplitud, ¿no? Que incluso a lo mejor se pudiera, pues desde el menú de las gafas, pues seleccionar, pues qué sé yo, desde un metro y medio a dos metros, ¿no? No creo que haga falta más. Creo que sería muy útil, no sólo para ir con más tranquilidad, menos estresado con los sonidos, la información que te llega. Sino para, en ese proceso de entrenamiento, poder pasar del modo rastreo al panorámico. El panorámico seguiría estando ahí, porque hay sitios en los que es muy útil. Por ejemplo, una plaza grande en la que estás, que necesitas captar desde la distancia, tanto a un lado a otro, pues algún punto de referencia. Algún árbol o una papelera que te sirve, pues para ir bien por la plaza, pues es el modo panorámico, tal y como está ahora es ideal. Pero para ir por hacer las estrechitas, el modo panorámico este, digamos, estrecho... Y bueno, es una sugerencia que hemos hecho a Yesin y están trabajando en ello. Y la verdad es que encantado, porque será algo, vamos... Junto con los mandos, creo que las gafas cambiarán muchísimo, simplemente con este tema. ¿Tienes algún otro tipo de ideas? Sí, por ejemplo, ahora mismo hay algo que he hecho de menos. Bueno, no solo yo también, como mantengo contacto con Domingo, con Sara, que tengo amistad con ellos. Hay una cosa que nos gustaría, pero bueno, Antonio ya lo sabe, pero bueno, lo vuelvo a decir. Nos gustaría poder utilizar de forma simultánea la exploración espacial, es decir, los soniditos, junto con la descripción de imágenes por inteligencia artificial. Ahora mismo parece ser que hay como dos canales de audio totalmente separados. No podemos andar navegando con la exploración espacial y usar la inteligencia artificial simultáneamente. En principio no podría ser ningún problema. Porque si tú vas caminando y de repente te encuentras con un sonido que no reconoces, que no está en tu diccionario mental, te detienes. Es algo que puede ser peligroso. Te detienes, haces una fotografía y nada, en cuatro o cinco segundos obtienes la descripción de lo que es. En ese caso es ideal que tengamos que detenernos. Pero hay ocasiones en las que no hace falta detenerse. Por ejemplo, yo voy caminando por una zona que no es muy conocida. Doblo una esquina. Y me gustaría tener una descripción. Una descripción general de lo que hay en esa calle. Sin detenerme. Porque en cuatro o cinco segundos, que es lo que tarda en describir la inteligencia artificial, como mucho habré caminado. A lo mejor tres metros. No hay ningún peligro. Voy con el bastón. Mientras voy explorando y caminando, solicito la información. Y ella me dice que es una acera. Que a lo mejor hay pivotes a mi izquierda. Que hay coches aparcados. O a lo mejor me da la sorpresa y me dice que más adelante hay una tienda. Posiblemente una frutería con barquillas. Y bueno, yo ya sé que hay eso. Y voy sobre aviso. O el cartel del menú de un restaurante. Hay momentos en los que estaría bien sin tener que parar. No voy a llegar a la esquina. La doblo. Me paro. Me detengo. Y pido la información de la inteligencia artificial. A lo mejor va alguien detrás mío. Despistado. Y se me lleva por delante. Es algo que también iría muy bien. Podría hacer estas dos cosas de forma simultánea. Hemos visto que es una opción muy interesante. De hecho, estamos trabajando en ella. Pero claro, esto requiere también... Muchas veces lo que aflora la superficie es como muy sencillo, muy simple. Pero lo que hay debajo del capó es tremendamente complejo. Y en el caso del audio ocurre que nosotros, por arquitectura y por estructura, le dimos una prioridad absoluta a los procesos de sonido. Entonces, como tienen prioridad, internamente nadie puede molestar al sonido. Es el que manda. Entonces, cuando suena la navegación, todos los procesos quedan a la espera de que la navegación dé su visto bueno. Y entonces hacemos otra cosita. Y cuando cambiamos a inteligencia artificial, lo mismo, es por una cuestión de robustez del sistema. Ahora bien, sí que estamos trabajando en una versión nueva del sistema operativo que permite que se mezclen varios canales sin que haya cuestiones ni problemas de estabilidad ni de preferencia. Entonces, es algo que sacaremos. La lástima o la pena de todo esto es que somos un equipo muy pequeñito y claro, nos gustaría llevar un ritmo más elevado de actualizaciones. Pero sí que somos muy concienzudos a la hora de lo que saquemos adelante, que funcione como una roca. Si no va a funcionar o va a medio funcionar, eso de ir liberando betas ahí a la calle, nosotros no compartimos esa filosofía que está muy de moda ahora en el mundo de los coches, en el de los videojuegos, en el de un montón de productos, que te largo una versión no definitiva para que la pruebes. No, tiene que estar súper bien probada y entonces te la doy. ¿Qué inteligencia artificial utilizas? Usamos una mezcla. Usamos una mezcla, tiramos bastante de cloth, sobre todo también por el asunto de la privacidad y estar también alineados con las cuestiones europeas de privacidad. ¿Cuál es el tiempo de respuesta de la IA? Depende un poco de la conexión que tengas, pero anda en torno a los 3-4 segundos, más o menos. Y también muy importante que no tiene suscripción. Exacto. Ya viene incluido con la gafa. No hay que pagar extras en ese aspecto. El tema de la privacidad, que también a mucha gente le importa, ¿cómo lo lleva en todo esto? Pues cuando nosotros hacemos una petición a la inteligencia artificial pidiendo información sobre sonido o sobre voz, todas las peticiones parten de nuestros servidores. ¿Qué quiere decir esto? Que cuando lo mismo puede hacer una petición una persona en Barcelona que en Wisconsin, va a salir del mismo centro de datos. Entonces, digamos que los buscadores y los analizadores no saben si están en Barcelona o si están en Wisconsin o si preguntan al usuario 1 o al usuario 2 porque siempre parten del mismo sitio. Entonces, eso ya es un proceso de anonimización importante. Yosin está en Castellón. Me gustaría saber por qué le habéis llamado Nira las gafas y si alguien nos acompaña en esta aventura. Pues bueno, el nombre de Nira es el acrónimo inglés de Sistema No Invasivo de Resíntesis de Imagen en Sonido. Lo que pasa es que Nira queda bastante más amigable. Y básicamente describe en ese acrónimo cómo funciona el sistema. Es un sintetizador de sonido que usa como fuente datos espaciales. El sistema además es no invasivo porque es absolutamente neutro. De hecho, el sistema de audio coclear al no usar la musculatura interna del oído no provoca estrés auditivo. Se transmite directamente al nervio coclear. Entonces es un sistema inocuo. Y por eso lo llamamos no invasivo. Porque a veces la gente puede confundir el coclear con el tema de los implantes cocleares. Pero aquí no hay que hacer ningún procedimiento. No hay que implantarse nada. Simplemente apoyar las gafas sobre la cara y a funcionar. ¿Y en esta aventura estáis solos o os acompaña alguien? No, es imposible hacer esto solos. La verdad es que... Somos un equipo pequeño, pero la verdad es que un equipo muy chulo, multidisciplinar. En el que nos hacemos cargo tanto de ingeniería como de financiero, comunicación, soporte, software, hardware. Y también a través de la inversión. Porque para nosotros es importantísimo dar un producto de la más alta calidad posible. Y eso, en términos de fabricación, significa gastar mucho dinero. Y la financiación es necesaria. Hemos tenido ayuda de la Comisión Europea, que nos ayudó en una etapa muy importante para poder preindustrializar el modelo. Luego también, por parte de proveedores, trabajamos con gente de primer nivel. De hecho, por ejemplo, para los sistemas cocleares, trabajamos con una firma danesa, que se llama Ortofon, que son líderes mundiales en este tipo de tecnología. Y hemos ido forjando una relación a través de los años. Y su propio CEO es ahora socio en Aisin. Han invertido en este proyecto, han creído en él. Y actualmente tenemos una colaboración estupendísima. Y nos ayuda muchísimo. Son gente muy experimentada en procesos industriales, en cómo internacionalizar, en cómo escalar. Entonces, esa ayuda para nosotros es fundamental. También por parte de proveedores como Intel, nos hacen un soporte para el tema de las cámaras tremendo. Tenemos acceso a últimas tecnologías, que están probando y la verdad es que es apasionante. Y es una cosa chulísima poder ir probando novedades y poco a poco incorporarlas a Nira. ¿En qué países se pueden comprar? Ahora mismo estamos vendiendo en España y estamos trabajando para vender en Alemania también. Sí que es cierto que ha habido gente que sigue el esquema este tan chulo de cállate y toma mi dinero. Y nosotros le enviamos las gafas. Pero sí que es cierto que cada vez que entremos a un país nuevo nos gustaría hacerlo bien. Y sobre todo hacerlo con un buen soporte. Porque también otro problema que hemos detectado, muy común, es que se te vende el dispositivo y búsquese usted la vida. Entonces, para nosotros era muy importante que siempre haya alguien al otro lado del teléfono o en los grupos de WhatsApp o en las redes sociales. Y que cualquier duda, cualquier problema, cualquier inseguridad, cualquier cuestión que pueda surgir, tengamos una respuesta inmediata. Eso para nosotros es fundamental. Nos pasaba, por ejemplo, cuando tenemos mucha demanda en Latinoamérica, nos pasaba con unos amigos de México que decían es que ustedes no cogen el teléfono nunca. Claro, pero es que cuando llaman a las cinco de la mañana... Entonces, de momento en el despacho a esas horas no hay nadie, aunque todo se andará. Entonces sí que nos gustaría tener un soporte, al menos, no te voy a decir por país, que sería lo ideal, pero por lo menos un soporte continental en el que podamos tener en cada continente una oficina que pueda contestar rápidamente. En Europa podemos enviar una unidad en 24 horas. Es sencillo. Pero sí que es importante plantar bien ese soporte al cliente. Porque para nosotros es importantísimo. Y también está el tema del idioma. Claro que para Latinoamérica o Hispanoamérica es más sencillo, pero en Europa es un jaleo. Claro, tenemos que ir poniendo distintos idiomas. De hecho, por ejemplo, el año pasado Toyota nos invitó, la fundación de movilidad de Toyota, nos invitó a Japón a hacer una demostración allí. Y claro, no solamente es una cuestión del idioma, es una cuestión también de... de contexto cultural, correcto. Porque de hecho nos comentaban, era un reto difícil porque nos comentaban que en japonés sistemas como Siri o como Alexa no funcionan bien. No pronuncian correctamente y hay matices muy suaves de pronunciación que cambian el significado por completo. Entonces ahí también el equipo japonés nos ayudó muchísimo en las traducciones y en la pronunciación de Nira. Porque encima, claro, nos gustan los mensajes de error o las incidencias, nos gusta hacerlas con sentido del humor y que Nira tenga chascarrillos y que sea una experiencia placentera. Y claro, llevárnoslo a japonés, el cuento cambia muchísimo. Entonces, a ver, si hay alguien que sepa hablar japonés, probablemente ahora le voy a dar patadas al diccionario, pero por lo que me explicaban, la palabra, por ejemplo, batería, que es baterí, pues si dicen baterí significa batería, pero si dices baterí con un poquito de subidita al final, significa bate de béisbol. Entonces, claro, es muy fácil decir la batería está al cien por cien o tengo el bate al cien por cien. Es una cosa que puede ser un poquito chocante. Entonces, claro, tenemos que adecuarnos a cada idioma y las bromas locales, pues adaptarlas. Y es un esfuerzo que yo creo que merece la pena porque hace la interacción muchísimo más amigable y hace una relación, digamos, con Nira mucho más relajada. Quería hacer un pequeño símil para ilustrar un poquito cómo es posible que las personas que usamos las gafas llegue a un momento que, bueno, cuando ya hemos adquirido ese diccionario mental audiovisual que he comentado, que llega un momento que cuando vas por la calle no solo escuchas las gafas, sino que también visualizas mentalmente el elemento al que corresponde, siempre y cuando estés en una zona que tienes la seguridad que es eso y tal. Quería hacer un pequeño símil para que se entienda esto cómo es posible, que es muy sencillo. Simplemente hay que fijarse, por ejemplo, en la lectura o en los audiolibros. Cuando estamos leyendo un libro o escuchando un audiolibro y escuchamos, por ejemplo, la descripción de una chica, una chica que es rubia con las cejas también rubias perfiladas, ojos verdes claros, nariz respingona, en fin, todo esto, nosotros no solo estamos leyendo o escuchando, sino que mentalmente estamos visualizando a esa chica. No estamos viendo una fotografía ni estamos viendo un vídeo, sino que mentalmente visualizamos a la chica perfectamente. A lo mejor alguien tendrá más imaginación, otros menos, pero la visualizamos. ¿Cómo es eso posible? Porque esa información nos está entrando a través, por un lado, leyendo simplemente por la vista, pero sin... Bueno, voy a ponerme en el caso de los ciegos. Los ciegos, cuando leemos, o es por braille o es audiolibro, si es por braille, la información nos entra a través del tacto, si es audiolibro, a través del oído. Pero el cerebro nos está permitiendo ver a esa chica mentalmente. ¿Por qué es eso? Porque el cerebro ya tiene como una especie de información, un bagaje de imágenes, si hemos visto. La gente que no ve de nacimiento, pues ya es distinto. Pero la gente que hemos visto tenemos una información mental de cómo es una chica rubia, de los ojos, de qué color y tal y cual. Y cuando leemos todo eso, el cerebro, como no tiene información visual de esa chica, una fotografía, rellena esa ausencia de imagen con la imaginación y nos hace ver mentalmente a esa chica. Pues eso es lo que ocurre con las gafas Nira, los que ya tenemos un diccionario mental audiovisual. Cuando salimos a la calle, cualquier sonido que ya tenemos asociado, no sólo escuchamos el sonido, sino que mentalmente ese diccionario nos permite visualizar esa chica. Ese elemento es, digamos, la magia entre comillas de este sistema que nos permite, llega un momento, con la experiencia, nos permite tener esa imagen mental de lo que estamos viendo. No se llega a ver, que no se me malinterprete, pero sí que se consigue tener esa imagen audiovisual. Igual que cuando lees un libro o escuchas un audiolibro, visualizas esa chica o visualizas una escena o un paisaje, echando mano de tus recuerdos que están ahí almacenados en el cerebro. Y también echamos mano de ese diccionario que hemos ido creando y vemos mentalmente lo que estamos escuchando a través de las gafas. Bueno, y si no has visto de tu imaginación los conceptos que tengas asignados a cada cosa, porque aunque no sea imagen visual, verdaderamente las personas con ceguera congénita tienen una capacidad de colocación y de hacerse una idea del paisaje sonoro, de la arquitectura sonora que les rodea, magnífica. Mucho mejor que la gente con ceguera sobrevenida. Con lo cual, de una u otra manera, van a poder... No será una imagen visual, que a fin de cuentas es imaginación, pero será también su propia imagen conceptual. La conceptualización que hacen es tremenda. Yo, desde la ignorancia en el tema, cuando me he ido introduciendo en esto, y estoy realmente asombrado de cómo se conceptualiza el espacio sin haberlo visto nunca. Y es que realmente la maquinaria de procesado geográfico, geométrico, la tenemos todo el mundo en la cabeza. Entonces, la inmensa mayoría de las cuestiones de ceguera son o del nervio o del ojo directamente. Pero digamos que la parte de procesado espacial del cerebro está intacta, está lista para trabajar. Y el cerebro es maravilloso y al final se las apaña para trabajar. Entonces, conceptualizando es asombroso lo que la gente llega a conseguir. Es increíble. A mí me ocurre algo muy curioso. Por ejemplo, yo cuando entré aquí en Barcelona, la delegación de la ONCE antes estaba en la calle Calabria, ahora está en Sepúlveda. Desde que cambió yo ya no veía nada. Pero a base de, por ejemplo, el vestíbulo, cualquier zona del nuevo edificio, a base de recorrerlo, de escuchar los ecos, las paredes de alguna vez que me lo han descrito, es como si lo tuviera en la mente. A lo mejor no corresponde nada con la realidad, pero yo entro allí y me imagino un sitio amplio, que hay una jardinera, hay un jardín con una palmera a un lado, el mostrador de recepción... O sea, es como si lo hubiera... Nunca lo he visto, pero es como si lo hubiera. Llega un momento que vas sumando información de una cosa a otra y al final es como si siempre lo hubieras visto. Salvando un poco las distancias, para el que lo conozca, un poco con esta similitud que decía Jaime de los libros salados, es como el antiguo BrailleSpeak, que la voz era muy robot, muy fea cuando la escuchabas de primeras, pero luego, cuando te acostumbrabas, ya no oías la voz. Oías el concepto, lo que estaba leyéndose en ese libro. La idea, lo que había detrás, no te quedabas en esa voz horrorosa. Y probablemente te ocurrió de un día para otro, porque antes comentaba Antonio el fenómeno este de que llega un momento que los usuarios... Sí, el click, el hacer switch que se dice, o la automatización de una habilidad, al principio una cosa requiere un esfuerzo voluntario inmenso, pero llega un momento que de repente... Ostras, qué fácil que es, y qué bien visualizo esto, lo otro... Como el Braille, aprender el Braille también es una especie de proceso que al principio te cuesta, tienes que ir sumando los puntos, traduciendo al vocabulario que conocías antes, pero luego ya es una cosa automática que lees, no solo visualizas la palabra, sino que puedes visualizar la escena o el personaje mentalmente. O sea que es todo muy interesante. Pues si os parece, vamos haciendo un resumen de todo lo que hemos ido hablando hoy. Hemos hablado de las gafas, de qué se están imponiendo dentro de lo que es el mercado tecnológico como dispositivo aspirante a complementar o sustituir al terminal móvil. Y quizás el punto más importante es el equilibrio, en este caso, de estas gafas en concreto, pues entre lo que nos pueden aportar, entre lo que nos dan y nos quitan, entre esos pequeños inconvenientes que quizás para algunos puedan tener parte estética o incomodidad, pero lo que nos dan es mucho más y el equilibrio sale a cuenta. Es tecnología de asistencia realmente para apoyar la movilidad, que las demás gafas que hay en el mercado no lo son. Sí que existen otros dispositivos, pero no en formato gafas. Y hemos hablado de todos los componentes y características, de cómo ha sido el proceso, de cómo es su utilización... Hemos visto el pasado, de cómo hemos llegado hasta aquí, el presente, el modelo que hay actualmente y de lo que es capaz de hacer este producto hoy en día, y un poco el futuro de lo que nos gustaría que hiciéramos adelante. Y nada, estamos muy agradecidos de que ambos nos hayáis ilustrado tan bien, tanto a los oyentes como a nosotros. Muchas gracias, Antonio. Muchas gracias, Jaime. Ha sido un enorme placer. Lo he dicho, agradecidos por este espacio y por esta conversación. Hemos estado absolutamente cómodos y dispuestos a volver cuando queráis. Muchas gracias a ambos. En las notas del episodio también pondremos la forma de poder contactar con vosotros y pondremos, como habitualmente, un montón de información útil. Hasta el artículo de Jaime, que es magnífico. Gracias. Nos vamos despidiendo. Los medios de contacto, Ricardo. Muy bien. Nuestro correo electrónico es gafotas arroba cgatos punto es y... Y nuestro WhatsApp para mensajes de audio o de texto en el más 34 644 640 792. Muy bien. Gracias por llegar hasta aquí. Nos encanta que nos escribáis, nos critiquéis, nos hagáis propuestas. Y nada, hasta el próximo episodio. Adiós. Adiós. Párate con podcast, podcast, podcast. Igual que cuando Stephen Jobs presentó su iPhone, que fue ese primer dispositivo terminal táctil... sin pantalla, perdón, Dios mío. Voy a empezar otra vez, ¿eh? A ver, cago en la mar. Os voy a decir una cosa. Lo peor es que ya tengo una muestra, tengo dicho una cosa antes, intento luego replicarla, y antes iba suelto. Y esto es lo peor. Pues controla al suprimir y borra buffer y lanza. Bueno, voy a improvisar, sí. Exactamente. Perdonad. No pasa nada. Si quieres repetir la pregunta, porque creo que se ha colado Bob Marley por debajo de la llamada. Como no era yo, pues digo, bueno, luego lo cortaré. Luego lo quitaré y lo silenciaré. No pasa nada. No sabía de dónde venía. Si la quieres contestar tú, Jaime, que al final le das caña. Ostras, repíteme la pregunta, porque con la música de Bob Marley... Sí, os repito. Repitemos y ya está. Es que andan a parar entre Bob Marley y yo. Ya, como le doy más prioridad a la movilidad, pues no las uso. Pero que se me ha ido a salto al cielo. A nivel salud, no... no implica... Uy, perdón. Te vuelvo a repetir la respuesta. Cortamos aquí. Te repito la respuesta porque se me ha secado un poquito la garganta. Bueno, tranquilo. Creo que puedes beber whisky, ¿eh? Y seguir con el bourbon. Sí, sí, tengo aquí el bourbon, aquí en la oficina, siempre preparado, como las películas, que la gente bebe bourbon, no sé por qué. Las tiene en la oficina. Que luego nos vamos a las tres horas y tampoco... Madre mía, qué atolondramiento mental. Vale, pues repito. Batería... Es el váter, ¿no? El cuarto de aseo, ¿no? Para hacer tus necesidades, ¿no? Eso según en dónde, sí. Correcto. Vale. Arturo, ¿cuánto queda exactamente para ir despidiéndonos bien? Diez minutos. Pillaos de las dos horas. Quedan diez minutos. A mí... Hombre, tampoco hace falta apurarlo hasta el último segundo. A mí me gustaría... Se me ha quedado en el tintero, si puedo, muy brevemente. Arturo, el botón de récord, tío, que veo que no lo has apretado. Está... Que hay que repetir. Bien. A ver, ¿había que dar al botón de grabar? No me digas. Claro. Pensaba que era que ponía aquí play, el triangulito.
Gafotas, cegatos y sus aparatos #26
Fecha: lunes, 8 de septiembre de 2025, a las 00:00:00
Episodio 26: “De la realidad a las otras realidades, hackeando el cerebro para sentirse real”
En este episodio nos acompaña Jonathan Chacón, experto en tecnologías inmersivas, para explorar las distintas realidades —virtual, aumentada y mixta— desde su origen hasta sus aplicaciones más actuales.
Repasamos la historia de estos mundos, desde los primeros estereoscopios del siglo XIX hasta dispositivos como HoloLens, Meta Quest o Apple Vision Pro. Nos adentramos en cómo estas tecnologías han transformado el ocio, la educación, la medicina, la rehabilitación o incluso la empatía, con ejemplos tan llamativos como la separación de siamesas mediante cirugía asistida, o fenómenos masivos como Pokémon GO.
La accesibilidad ocupa un lugar clave: analizamos beneficios y limitaciones para personas con discapacidad visual, auditiva o cognitiva, así como proyectos europeos que buscan abrir estas realidades a todos. También debatimos sobre los grandes retos: sincronizar estímulos multisensoriales, recrear tacto y olfato, afrontar riesgos de adicción o usos militares, y avanzar hacia la comunicación directa entre cerebro y máquina.
Entre los momentos más destacados: el Sensorama como pionero de los arcades multisensoriales, los proyectos de SEGA en los 90, el papel de la VR en terapias emocionales, y la polémica de Microsoft al vincular HoloLens con la industria militar.
Una charla imprescindible para entender el presente y el futuro de estas tecnologías que prometen cambiar nuestra forma de sentir el mundo.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Información específica sobre el estereoscopio de Wheatstone y la versión de Brewster.
Historia del Sensorama, pionero de la inmersión sensorial creado por Morton Heilig en los años 50.
La realidad virtual como herramienta en los procesos de duelo: investigación académica al respecto.
Aplicaciones clínicas de la RV para fobias, adicciones, ansiedad y otros trastornos mentales.
Créditos:
Duración: 01:29:54
Descripción detallada del logo de Episodio 26. De la realidad a las otras realidades, hackeando el cerebro para sentirse real.
La ilustración muestra a un personaje masculino de estilo retro, dibujado en blanco y negro con líneas gruesas que evocan el cómic clásico o el grabado antiguo. El personaje aparece sentado en una silla, con las manos firmemente agarradas a unos mandos que recuerdan a joysticks o a los controles de una cabina. . Lleva puesto un gran visor de realidad virtual (VR) que le cubre los ojos y unos auriculares voluminosos. Su bigote espeso y su pañuelo anudado al cuello refuerzan el estilo vintage. En el entorno que le rodea flotan varios iconos que representan elementos del mundo digital: - Un edificio, símbolo de entornos virtuales urbanos o corporativos. - El texto "VR", confirmando la temática de realidad virtual. - Un sobre, que representa el correo electrónico. - Figuras humanas esquemáticas, que sugieren interacción social o comunidades virtuales. - Una cuadrícula, que recuerda a una hoja de cálculo o sistema de gestión de datos. Todo esto aparece orbitando alrededor del personaje, como si estuviera inmerso en un universo virtual donde confluyen trabajo, comunicación y relaciones sociales. La composición transmite la idea de alguien navegando, explorando o controlando un mundo digital desde una experiencia inmersiva de realidad virtual.
Transcripción de Episodio 26. De la realidad a las otras realidades, hackeando el cerebro para sentirse real.
Episodio 26. De la realidad a las otras realidades. ¿A qué anda el cerebro para sentirse real? Bueno, Ricardo, hoy tenemos un tema y un invitado muy interesantes otra vez. Muy interesantes. Hoy vamos a hablar de la realidad alternativa, realidad virtual, realidad mixta, realidad aumentada y también la implicación de la misma en el entorno de las personas con discapacidad. Tanto los beneficios como todo aquello que está en su contra. Y para eso tenemos a una persona que la conoce muy de cerca, que lleva muchos años trabajando con la misma. Y tanto como usuario como investigador, pues tiene cosas que contarnos. Un tema que parece muy actual pero que también lleva muchos años en desarrollo y en investigación. Y que es un tema igualmente interesante. Tenemos hoy a Jonathan Chacón otra vez. Muy buenas. Buenas, Arturo. Buenas, Ricardo. Bueno, es muy interesante que parezca que tenemos la realidad virtual los últimos diez años. En realidad, esto empezó allá por el 1830, pero yo creo que lo primero que debemos hacer es empezar por definir qué es la realidad virtual y esa realidad aumentada que podemos llamar como una hija de la realidad virtual. La realidad virtual es el conjunto de tecnologías aplicadas para... Que una persona experimente una situación, bien sea visual, auditiva, multisensorial, simulada a través de mecanismos tecnológicos. Y digo tecnológico porque actualmente se hace todo digitalmente, pero no todo empezó así. Con la realidad virtual lo que se busca es, en pocas palabras, hackear el cerebro humano para que una persona se olvide de dónde está realmente y experimente de forma inmersiva una experiencia, bien sea una experiencia de juego, una experiencia educativa, una experiencia laboral... Y la evolución de esta realidad virtual se establece en que son experiencias bastante aislantes, ya que cuando estás inmerso en un mundo virtual la única forma de socializar o comunicarte con otra persona es a través de ese universo virtual, pues para conseguir una experiencia en el mundo real, pero con todos los beneficios de la realidad virtual, aparece la realidad mixta o realidad aumentada, que es superponer o mostrar delante de lo que alguien ve imágenes, texto, contenidos digitales que ayuden a comprender, a mejorar, a entender, a modificar lo que ves a través de unas gafas, de tus propios ojos, o de una cámara. Eso es lo que es la realidad aumentada. El término se acuñó en 1980 y en 1980 teníamos tecnología lo justo y necesario para simular dos sentidos de forma sincronizada. ¿Por qué lo de multisensorial? Porque muchos experimentos, muchas pruebas, muchos proyectos inacabados fracasaron porque no se conseguía esa sensación de inmersión en la experiencia virtual. ¿Por qué? Porque cuando tú solo te centrabas en un sentido, o solo la vista, o solo el oído, el cerebro no conseguía esa sensación de estoy dentro de. Si es cierto que para personas con discapacidad que carecían del sentido no soportado, por ejemplo auriculares, con audio espacial, para personas ciegas sí se conseguía una inmersión interesante, pero en muchos casos no suficiente. O para personas sordas solo visión sí se conseguía esa sensación de inmersión. Pero para una persona con acceso a múltiples canales sensoriales era necesario saturar la experiencia del usuario con varios canales de información a la vez y sobre todo que estén sincronizados. Es uno de los grandes problemas que están actualmente mediante los dispositivos de realidad virtual y realidad aumentada que se están utilizando ahora en siglo XXI, segunda década del siglo XXI, pues a veces hay problemas de sincronización entre el vídeo, el audio y otros sensores o otras sensaciones. Entonces ahí es cuando empieza a fallar. ¿Esto qué implica? Que lo multisensorial es perfecto. Para transmitir la experiencia, que no la información, transmitir la experiencia para alcanzar esa sensación de inmersión. ¿Esto implica que a nivel de accesibilidad podemos encontrar problemas? Sí, pero también encontramos soluciones porque cuando el dispositivo de realidad virtual o realidad aumentada usa más de un canal de información se abren posibilidades de que las personas que no puedan ver puedan oír, y las personas que no puedan ver y no puedan oír ahí tienen ya un problema. La tecnología sigue teniendo límites. Por eso lo de multisensorial. Estamos ahora mismo en el siglo XXI, segunda década. El gran reto de la realidad virtual es la portabilidad. Que sea cómodo y sencillo de llevar. Esto en absoluto fue así en sus principios. Si os parece, empezamos por la historia, los comienzos de la realidad virtual, pero pasamos rapidito. Pues empezamos en 1830 con el estereoscopio. Un cacharrito que parecía un binocular que mostraba dos imágenes, separadas las tomas de las imágenes entre uno y cuatro centímetros para simular la distancia de desaparición de los dos ojos. Y con eso lo que se conseguía es que una persona con dos ojos funcionales tuviese una sensación de profundidad real que no se tiene cuando se ve una imagen en una fotografía, que es un diseño plano. Pues a través de ese pequeño truco de dos imágenes separadas a la distancia de los ojos, pero también tomadas con la cámara a una distancia suficiente para simular esa distancia entre ojos, se conseguía esa sensación de profundidad. Todo eso, junto a la evolución de la tecnología primigenia del cine, pues permitió la aparición de las primeras simulaciones de, entre comillas, muy entre comillas, experiencias simuladas de visión. Y realmente eran impresionantes, porque yo tuve una experiencia personal, cuando era pequeño, no con esta primera máquina, que supongo que te refieres a la de Whitson, el físico inglés, que era un armatoste no portátil, sino con las máquinas... No, no, era la de Charles Waston, y luego se fueron evolucionando muchísimo. Exactamente. Pues yo, un día cayó en mis manos una de estas portátiles, y realmente era impresionante la sensación que hubo. Y eso es lo que uno recibía, porque sí que tenía en cuenta la distancia pupilar, que son 6,5 centímetros, utilizaba unas lentes, unos estéreos, que se llamaban, con una inclinación de 45 grados, y luego lo que se conseguía, es decir, tenías delante una fotografía doble, que se habían tomado por cámaras, con esa distancia pupilar de 6,5 centímetros una de la otra, y yo os voy a contar mi sensación. Bueno, eran fotos lo que yo me encontré, yo me encontré en un baúl, en el desván de mi abuela, una caja llena con unas 100 fotografías dobles, color sepia, de finales del siglo XIX, pues con las cataratas del Niágara, con lo que era la ciudad de Nueva York, el centro, con los tranvías transitando, bueno, y así eran ya, claro, yo os hablo del año 70, año 60 y algo, ¿no? Sería... Bueno, pues la impresión... que daba ver a través de esas lentes, porque no era otra cosa que unas lentes, era magnífica, porque no solo veías profundidad, que se veía perfectamente. Habíamos hablado ya de lo que es hoy la sensación de realidad aumentada, realidad virtual, ¿no? Sino que además cogían un tamaño brutal, como si fuera la pantalla de un cine. Y estamos hablando de nada de electrónica. Todos eran elementos y componentes de la realidad. Todos eran elementos y componentes físicos, ¿no? Con lo cual era un primer elemento muy importante, que luego igual no se le ha dado la importancia que tiene. Ahí hay otro tema de la experimentación y la adquisición de conocimientos en psicología y en medicina. Con estos avances tecnológicos empezamos a comprender que el cerebro no procesa toda la información que le llega, sino que a veces rellena los huecos. Y ahí hay un efecto de esa calidad visual que hay en el estereoscopio o en el prasinoscopio, que es uno de los abuelos del cine actual. Ese cambio de frames, de escenas, de fotografías instantáneas, pasadas a una velocidad suficiente, el cerebro no procesa esos huecos, o el cerebro no procesa que son dos imágenes estáticas, y simula, se auto hackea, por volver al término que estamos utilizando, y crea los volúmenes o crea la sensación de movimiento. El cerebro nos oculta su imposibilidad y nos rellena esa experiencia para atraernos a esa sensación de realidad. Y eso en los estereoscopios se veía claramente porque muchas de las fotografías que se utilizaban en realidad no eran reales. Sino que eran pequeñas maquetas tomadas desde un punto de vista muy controlado para simular esa realidad. Y se hacían montajes de la Torre Eiffel en la superficie de la Luna, o las montañas de los Alpes suizos, y en realidad eran colinas de dioramas. Eran experiencias muy curiosas y la gente de verdad se pensaba de mira, hemos llegado a la Luna y tenemos una Torre Eiffel. Era un nuevo avance tecnológico y también la gente de medicina y de la salud mental vieron este avance de esta realidad virtual primigenia como un canal de terapia y un canal de estudio. Y en 1950, me voy a adelantar un poco, había gente del conductismo que utilizaba cabinas de expresión virtual para simular ciertos sentidos, tanto el sonido, el olor, el calor, la vista, por supuesto, para forzar a una persona a vivir una experiencia de fobia o de ansiedad de forma controlada. Si la persona superaba cierto nivel de estrés, separaba la experiencia, pero el terapeuta conductista podía guiar paso a paso de forma muy controlada y paciente para superar esa fobia. Y volviendo un poquito para atrás, seguimos con el hardware de nada digital. En 1920, tenemos un simulador de vuelo para que los pilotos norteamericanos pudiesen probar y entender cómo funcionaban tanto los controles como la experiencia de vuelo en una especie de carlinga donde el piloto no tenía visión. Solo funcionaban los contadores y los relojes de la cabina y mediante unas poleas y unos mozos aguerridos y guapos movían aquel trasto simulando que el piloto estaba volando para simular los golpes, las inclinaciones... Y eso en un simulador de vuelo de 1920. Y se considera un precursor de la realidad virtual. Y luego también se usó en el cine, ¿no? Por supuesto, en el cine el tema de la realidad virtual no, pero sí de la visión 3D. En 1930 se hacía un sobreimpresionado de la película del celuloide desplazando la escena. Creo que era un... un cuarto de milímetro a la izquierda y amarilleando esa misma escena y se producía una profundidad que utilizando gafas de filtro coloreado izquierda rojo, derecha azul o viceversa no recuerdo ahora la combinación pues la gente podía filtrar ese paralaje, ese desplazamiento y tenían la sensación de volumen viendo las películas. ¿Qué pasa? Que ese cine tenía una calidad de visionado un poco pobre estamos hablando de cine en blanco y negro entonces conseguir eso, esa sensación de volumen era mucho más sencillo que cuando apareció el cine tecnicolor ya que todos los colores estaban en uso, no podías filtrar. La industria ahí gastó mucho dinero porque ese mismo sistema que estás comentando tú fijaros qué complejidad llegó a alcanzar aunque luego el resultado nunca fue determinante es decir, tenían que emitir también desplazando la misma distancia prácticamente que la distancia pupilar dos tomas. Una de esas tomas bueno, un poquito menos creo que era la distancia angular las proyectaban primero tenían que simultanearlas es decir, sincronizarlas con dos proyectores distintos uno le ponían un filtro de color rojo y otro de color ciam y a partir de ahí, es lo que tú has comentado te ponían unas lentes primero de cartón y luego de plástico y ya tu cerebro hacía el resto tú realmente estabas viendo, si te quitabas las gafas era un galimatías lo que se veía en la pantalla no era nada pero sí, con las gafas se conseguía una sensación de aquella manera, pues yo he podido llegar a comprobarla de cierta profundidad nada que ver con lo que se ha conseguido ahora pero imaginaros lo que tenían que hacer para hacer una proyección de ese tipo es decir, que todo estuviera sincronizado que al mismo tiempo se proyectarían de dos focos diferentes bueno, un poco rollo, ¿no? Y en fotos, también lo hicieron en fotografías y en las revistas de la época pues también sacaban fotografías con esta técnica Claro, era el mismo principio y de ese paralaje con filtrado de color y eso dio lugar también a la evolución de otros materiales que por ejemplo en los 80 aparecieron esas estampitas o cromos que tenían un holograma mucho de la tecnología de los hologramas en sólido vienen de esos experimentos de los años 20, años 40 y dependiendo del ángulo con que miras una superficie con muchas irregularidades con muchos puntitos que en un ángulo los han pintado de una manera y en otro ángulo lo han pintado de otra entonces cuando el ojo observa en línea recta esa superficie dependiendo del ángulo de visión se ve o la escena 1 o la escena 2 y así se produce un holograma en sólido de forma muy rudimentaria y muy barata pues eso también trajo tecnología para luego utilizarse a nivel digital en las pantallas LCD o de cristal líquido Porque en los años 70-80 empezamos a tener los primeros visores, pero me estoy adelantando mucho y si os parece, nos vamos al teatro sensorial de Morton Haley, que es el padre del primer cacharro de realidad virtual que tenemos en la historia. Porque antes de eso nos basábamos en un solo sentido, no había multisensorialidad ni en el cine, porque en los años 30 todavía no había cine sonoro, hasta el cantor de jazz en el 30 y mucho creo que fue, no teníamos esa experiencia. O el gran problema a nivel de hardware era sincronizar esa experiencia visual con la... auditiva o la sensorial. Pues ya en el 50 nuestro amigo Morton definió un artículo, un ensayo, llamado The Cinema of the Future, el cine del futuro, donde definía que el cine debería ser una experiencia en donde todos los sentidos fuesen emitidos de forma sincronizada para que el espectador pudiese disfrutar de una experiencia completa. No solo ver una película. También escucharla, también saborearla, también olerla, también sentirla. Y claro, el tío era ambicioso muchísimo, pero avanzó mucho. Y en el año 62 tenemos el Sensorama, que es una cabina donde su objetivo principal era el ocio, era una máquina arcade. Se ofrecía una pantalla, sonido sincronizado, la cabina se giraba, botaba, hacía oscilaciones, había un motor de vibración, los modelos más complejos, ya rozando los 80 y ya con el imperio de Sega, incluían incluso emisión de aromas, olores... Pues con eso se construyó. Conseguían experiencias recreativas que la gente, algunas sufrieron incluso adicción. O sea, no querían vivir en el mundo real. Entonces ahí ya empezamos en el 62 con también el estudio de los psicotrópicos. Lógicamente hemos visto que el Sensorama, este tipo de entretenimiento... Un tipo de adaptación al entretenimiento multisensorial, de forma prácticamente por medios físicos, y supongo que algo de eléctricos también, o electrónicos. Pues se llevó a cabo durante estos años, durante mitad de siglo pasado. Pero la idea, el concepto, ya nos lo había traído la ciencia ficción. Es decir, para los amantes del género conocerán una obra de cabecera. Se llama Un mundo feliz de Aldous Huxley. Y tanto en la novela como luego en la serie que en los años 70 se popularizó. Si os dais cuenta, dentro de esta sociedad distópica, donde hay un control social máximo por parte del sistema, donde les es dado al individuo todo. Las drogas, como es el Soma. El adoctrinamiento mientras duerme, como era la... La ignopedia, creo que se llamaba. El sexo libre con control. Es decir, que no tuvieran ningún tipo de problemas. Y había un dispositivo de entretenimiento multisensorial. Que si habéis leído la novela, lo recordaréis, que era exactamente el sensorama. Y bueno, pues estaba hecho para que la gente pudiera sentir lo mismo que el artista, o los artistas, o los actores de la película que iban a ver. Entonces, depositaban la palma de su mano sobre una superficie. Y en ese momento, todas las sensaciones de lo que... Si era un beso, ¿no? Esa emoción del beso, esa excitación. Y todo eso la sentían. Y si era algo doloroso, pues también... Y bueno. Y bueno. Y conceptualmente, sería algo parecido a esto, claro. Muy sofisticado, porque en la literatura se puede hacer lo que te dé la gana. Luego está la vida real. Y fijaos en qué... A qué altura, ¿no? Del siglo XXI nos encontramos. Y verdaderamente aún no hay nada, nada que sea impresionante, ¿no? Dentro de esto. Hay limitaciones tecnológicas. Y se ha avanzado muchísimo. En el cine, en los 80 ya empezaban a haber cositas de realidad virtual. Pero siempre enfocados en un futuro distópico. En un futuro muy lejano. Y no es hasta 1992 que tenemos una película. El cortador de césped. Donde la realidad virtual es utilizada como terapia. Para que una persona con discapacidad cognitiva supere su enfermedad. Por supuesto, es ficción. Pero digamos que la persona termina siendo más inteligente. Incluso mentalmente más poderosa que el propio doctor que le trata. Y... ¿Qué pasa cuando una persona que no tenía poder al principio. Pues termina con mucho poder. Pues que el poder corrompe. Y ahí dejo el spoiler. Es una película muy recomendable para el género de ciencia ficción. Los efectos especiales son, para la época, alucinantes. Estaban estaciones de cálculo de la gente de Pixar. Ahí ya trabajando. Con experiencia de diseño muy parecida. A lo que luego vino a ser Parque Jurásico. Y otras películas más modernas. Pero el cortador de césped. Fue una película que sentó las bases para el cine moderno. Permitiendo mezclar contenido digital con contenido real. Había actores mezclados con contenidos digitales. Que ya eso se hizo antes de la mano de Disney. De mezclar escenas de personas. Con escenas de dibujos animados. Pero era haciéndolo en postproducción. O sea, el señor de Disney tomaba un trozo de celuloide. Del actor andando por una calle. Y ponía encima un trozo de celuloide. Donde se habían pintado imágenes de un conejito saltando por ahí. Eso era muy manual. Ya en los 80 se empezó a hacer postproducción digital en el cine. Con películas como Tron. O una del joven Sherlock Holmes. Hay gente como Pixar o Steven Spielberg. Apostaron muchísimo por el efecto digital. Para esos efectos especiales. Y toda esa tecnología se fue uniendo para que en 1991. Del 91 al 94. SEGA empezase a sacar dispositivos. Para experimentar realidad virtual. De forma muy limitada. Por la tecnología de la época. Pero en 1991 salió SEGA VR. SEGA Virtual Reality. Que era un casco de realidad virtual bastante pesado. Yo tuve la oportunidad de probarlo. Por desgracia para mí. Yo solo lo he visto de un ojo. Entonces la experiencia de volumen no la pude disfrutar. Pero si pude jugar bastante a varios juegos. Pero nunca tuvo éxito. Y en el 94 SEGA lo abandonó. Por otro dispositivo. Por el Motion Simulator. Que a diferencia del anterior. Que aunque fuese un casco. Tenía audio. Tenía dos pantallas de LCD. O sea cristal líquido. La calidad de imagen. Entre que era una tarjeta de vídeo. De 16 bits. O sea una VGA pobre. De no más de 256 colores en pantalla. También la sincronización. Estamos hablando de pantallas LCD. De 40 hercios. O sea 40 refrescos de imagen por segundo. O sea bastante pobre. Con los 144 de estándar que se exige. Para los videojuegos actualmente. Y SEGA abandonó ese proyecto. No lo veía bastante futuro. También SEGA ya en el 95. Tomó la decisión de irse. Poquito a poco. Del plano comercial individual. O sea del doméstico. Y centrarse en parques de atracciones. Centros recreativos profesionales. Y saca el Motion VR. Motion VR de SEGA. Que ya es una cabina. Pero una cabina. Que utilizaba un casco. De realidad virtual. Con pantallas estereoscópicas. No eran dos pantallitas pequeñas LCD. Sino era una pantalla continua. Con una separación digital. Para que el ojo izquierdo viese una cosa. Y el ojo derecho otra. Se optimizó. En lugar de tener dos camaras pequeñas. Y con el consiguiente. Gasto económico. De tener dos tarjetas de vídeo dedicadas. Dos buffers distintos. Para procesar la imagen. SEGA reinventó la rueda. Y dijo para que tenía dos pantallas. A mí lo que me interesa es tener dos puntos de visión. Pasó el problema. De hardware al software. Una única pantalla continua. La nariz hace tabique de separación. Y con una sola pantalla. Simulabas esa separación ocular. De una misma imagen. Y ahí SEGA sí consiguió. Bastante más éxito. Pero seguimos con las limitaciones tecnológicas. Estamos hablando. Del año. 93 al 95. O sea. Seguimos con poca calidad. En el año 2000. El SEGA Augmented Reality. Que ya era. Más complejo. Ya tenía motor de oscilación. Ya tenía. La cabina se movía. Y lo. Licenció a terceros. Y SEGA terminó. De seguir fabricando hardware. Para la realidad virtual. Pero vive muchísimo. De royalties y patentes. Muchas de las. Tecnologías hardware que se utilizan. Hoy en día para la realidad virtual. Y realidad aumentada. Pertenecen a SEGA. Que SEGA no sólo hacía videoconsolas. Como Master System y Mega Drive. Sino que también. Investigaron muchísimo. En hacer experiencias virtuales. Multisensoriales. Y el problema es que se anticiparon muchísimo. Pero todo lo que investigaron. Nos benefician ahora. Es curioso que el sector que ha tirado de esto. Ha sido siempre el ocio. El turismo que decía antes Ricardo. El ocio. Los videojuegos o juegos. En sentido amplio. Incluso la pornografía. También ha hecho sus pinitos. En la realidad virtual. A principios del siglo XXI. Pues de los fracasos. También se progresa. Y ahí tenemos a Google. Con la Google Glass. Que fue un fracaso estrepitoso. Brutal. Y de ese fracaso. Salió el proyecto. Aura. Que en sí. El proyecto Aura de Google. No sacó ningún dispositivo en específico. Pero sí sentó las bases. Para los que fuesen a sacar. Dispositivos en el futuro. Porque hicieron muchísima investigación. Con usuarios. Incluidos usuarios con discapacidad. Que hay menos mal que Google. Dijo. Veremos a ver si nos dejamos alguien fuera. Y esto fracasa. Entonces sí investigó muchísimo. Cómo debía ser un dispositivo. De inversión virtual. Para simular. Experiencias. Definir. Todo ese. Conjunto. De sensaciones. Para que el cerebro se lo crea. Pero muy orientado. A que ese dispositivo. Fuese portátil. Ya lo de las cabinas. No era el futuro. Project Aura sí. Estaba muy enfocado. En el profesional que tiene que ir. Dentro de un avión. Para hacer un chequeo de la estructura. De la carlinga. O del fuselaje. Saber que si está mirando. Uno de los andamios. De las costillas del avión. Saber qué costilla es. O también experiencias. En museos. Experiencias de ocio. O experiencias. Tan curiosas. Como operar a ciegas. A una persona. Porque no podían abrirle todo el cuerpo. Mediante dispositivo. De realidad virtual. Amplías los sentidos. Del doctor. Del mecánico. O del turista. De experiencia. No real. Sino ampliada. El proyecto Aura. Estaba buscando dar solución. A cómo. Utilizando distintas tecnologías. Simular sensaciones de distintos sentidos. La vista era fácil. Con pantallas. El sonido. Utilizando altavoces. Muy enfocados. A simular ese aspecto. De lo que llamamos hoy. También. Estuvieron trabajando en una especie de mono. Casi completo. Como de neopreno. Como el que se pone en buceadores. Para que mediante. Servomotores de vibración. Simular el tacto en el cuerpo. También el tema. De temperatura. Y aunque tenemos. Narices digitales. Que pueden oler. Todavía estamos muy atrás. Con respecto a. Emisores de olores. Actualmente. En pleno 2025. El emisor de olores. Más complejo. Consigue simular unas 70 fragancias. Que no está mal. No está nada mal. Pero teniendo en cuenta. Que una nariz humana. Puede distinguir miles y miles. De fragancias. Que ya si hablamos de un perro. O de algún. Cánido más. Afinado pues. Hablamos de decenas de miles. Pero bueno. Todo esto. Viene de la mano de Google. Ellos ya liberaron muchísimo. De este material. Bueno liberarlo. Previa patente tecnológica. Registrada por supuesto. Y gracias a eso. Pues tenemos productos. Como la HoloLens. Productos como las Apple Vision Pro. Las MeraQuest. Todos dispositivos portátiles. Que buscan ofrecer. Una realidad virtual. O una realidad aumentada. La diferencia. Más importante. Entre realidad virtual. Y realidad aumentada. Es que la realidad aumentada. Siempre está. Viendo el mundo real. Con más elementos. En cambio. La realidad virtual. Llega un momento. En que la visión. La experiencia del mundo real. Es cero. Bien sea por el sentido de la vista. O por el sentido del oído. O del olfato. La realidad virtual. Mientras más sensación de inmersión tenemos. Más nos alejamos del mundo real. Eso es realidad virtual. En cambio la realidad aumentada. Siempre tenemos algo. Que nos permite permanecer en el mundo real. Ampliando nuestro sentido. E incluso ampliando. Nuestros conocimientos. Estos visores de las grandes compañías. HoloLens de Microsoft. Las MetaQuest. Lógicamente de Meta. O las Apple Vision Pro. Realmente que es realidad aumentada. Lo que trabajan. No. Las MetaQuest son realidad virtual. Las HoloLens es realidad aumentada. Y las Apple Vision Pro. Son mixtas. Tienen la capacidad de. Volverse totalmente inmersivas. Realidad virtual. O mediante un control. De rosca, de giro. Vas. Haciendo transparente ese visor. Para poder ver. El mundo real. Y este punto también me parece importante. Que todos son visores. Que en primer lugar. Donde todo el mundo se ha centrado. En este tipo de tecnología. En el oído. Ya con el sonido binaural. El sonido espacial. El sonido 3D, 4D, 8D. El ánimo de todos. De muchas formas distintas. Y los tres sentidos como has dicho. Están muy lejos. Claro, ten en cuenta que también es un tema. De qué tecnología. Desde cuándo llevamos estudiando esa tecnología. El sonido por ejemplo. Los primeros gramófonos. No nos vamos a meter ahí. Pero el cine que ya hemos visto. Desde 1830. Se empezaron a hacer cosillas. Pero en cambio simular el tacto. Simular el olfato. O simular el gusto. No se ha podido hacer antes. Y esos tres sentidos. En tacto y en áptica. Van un poquito más avanzados. Sí, ahora se está estudiando muchísimo. El conseguir sensaciones precisas. Ya se puede simular un tacto. Por ejemplo. Hay guantes sincronizados. Con visores virtuales. De realidad aumentada. O realidad virtual. Que presionan las yemas de los dedos. Son guantes que tienen. Una especie de pequeños saquitos. Que se inflan. De forma controlada. Para simular sensación de tocar algo. O incluso que muestran resistencia. A la hora de flexionar las falanges de los dedos. Para simular que estás tocando algo. Y todo eso se está consiguiendo. Para que la miniaturización. De circuitos de servomotores. Es ya posible. El tema central es que hay que. Controlar el entorno. Para simular una realidad distinta. A la que tienes delante. En la parte visual eso está más o menos controlado. Con pantallas pequeñas, medianas, grandes. Incluso en el cine. Hay diferentes técnicas. En el sonido pasa por tener auriculares. Es muy difícil hacerlo de otra forma. Que no sea con auriculares. Para poder controlar. Todo ese entorno auditivo. Y con el resto de sentidos es más complicado. Realmente hay un límite. Físico. Y de oportunidad. Vamos a ver. La visión es un sentido que se impacta. Con mucha facilidad. Y a distancia está muy focalizada. Y es muy fácil de estimular. Y de engañar. El oído igual. Pero el órgano más grande. Que tenemos nosotros. Es la piel. Y tú imagínate cómo estimulas. Una piel. Cómo das esa sensación táctil conjunta. Que verdaderamente siempre la estamos teniendo. Con la propia presión ambiental. La humedad. La brisa. Nosotros aunque no estemos tocando con las manos. Estamos táctilmente conectados con el mundo. Claro. Y la precisión que tiene la piel. Que te pica un mosquito. Y llevas la mano directamente donde te ha picado. Exactamente. Y eso es muy difícil. Bueno. A mí me gusta ser positivo. Y se está trabajando muchísimo. Y de la mano de la discapacidad. En muchos casos. De estas investigaciones. Como suele ser habitual. Muchas investigaciones para la accesibilidad. O la discapacidad. Benefician más adelante. A otros nichos tecnológicos. Por ejemplo. Esto de las dos pantallas pequeñitas de LCD. Se avanzó muchísimo. Con la nitidez. Con el tema del estudio. De la óptica. De mejora de la reducción. De los cristales para las gafas. Las gafas de verde. Todavía de la graduación. En los años 60. Se estudiaron químicamente. La producción. El cultivo de cristales orgánicos. Reducidos. Mientras que los cristales minerales. Tenían un tamaño. Muy particular. El cultivo de cristales orgánicos. Permitía dar satisfacción. A la necesidad. De ciertos niveles de dioptría. Para gente un poco negada en la visión. Sin necesidad de tener. Gafas de culo de botella. Eso permitió también. Que esas pantallas de cristal líquido. Fuesen más pequeñas. Más ligeras. Menos gruesas. Y se pusiesen. En un casco sin demasiado problema. Que ya pues. El otro problema es. La circuitería, la batería. El tema de los osciloscopios. Giróscopos. Eso para mantener esa sincronización. De que si muevo la cabeza a la izquierda. Toda la escena gira a la izquierda. Para mantener esa sensación. De que estoy ahí mirando. En el tema de simular. Los sentidos. Aparte de la vista. Y el oído. Se está trabajando muchísimo. En tema de nuevos materiales. O materiales inteligentes. Sobre todo textiles. Que pueden transmitir. Presión y temperatura. Ahí. Todavía. Hay problemas con la granularidad. O sea la precisión. Estamos hablando de pequeños parches. De tres o cinco centímetros cuadrados. Que para simular. Un golpe en la espalda. Si. Un golpe pequeño de un colega. Pero para simular una caricia. O que te pasen un dedo por la mejilla. Todavía no hay precisión para eso. Pero poquito a poco. Y todo eso viene del estudio. De personas que necesitan. Estímulos continuos. Para bien mantener. Una terapia. En temas de discapacidades cognitivas. Por ejemplo. Cuando están. En una persona sorda. Y necesita una alarma. Esa pulsera vibratoria. Viene de ahí. Los osciladores para esas vibraciones. No podían doblarse. Gracias a todas esas investigaciones. Para personas con tetraplegia. O baja sensibilidad. En ciertas zonas corporales. Que tenías que estimular la piel. Para que el cerebro no se atrofiase. Pues se han hecho. Esas pulseras para las personas sordas. O se están haciendo esos trajes. Que emiten vibraciones. O emiten temperaturas. Para esas experiencias. De realidad virtual más complejas. También. El colectivo de la discapacidad. Se está beneficiando muchísimo. De la realidad virtual. Y de la realidad aumentada. En el año 2012. A título personal. Estuvimos trabajando. En ilunio, accesibilidad y tecnología. En el departamento de investigación. Y desarrollo e innovación. Estuvimos haciendo con Google Glass. Que luego pasamos a Buzix. Que es otro visor de realidad aumentada. Estuvimos trabajando en un proyecto. Para Reino Unido. Que consistía en mediante. Tratamiento de la imagen. En tiempo real. Y utilizando síntesis de voz. Reproducción de sonidos. Vibraciones. Hacemos que una persona con discapacidad cognitiva. Bien sea síndrome de Down. Parálisis cerebral parcial. Retraso mental. Un largo etcétera. De discapacidades cognitivas. Que afectan negativamente. A la hora de la incorporación. En el mundo laboral. Hicimos un proyecto. Virtuassist. Que consistía en una especie de pepito grillo. Que ayudaba a una persona. Que carecía. De memoria suficiente. Para almacenar en su cabeza. Todos los procedimientos. Uno a uno y el orden. O para conocer que tenía que hacer. Pues hicimos ese pepito grillo. Que la persona por ejemplo. Se le encomendaba la misión de. Vete a la impresora multifunción. De la esquina. Y hazme 50 copias de esto. Pues la persona se acercaba. A la impresora multifunción. Tocaba la Google Glass o las Bucis. El dispositivo detectaba. Que era la impresora multifunción. Y le preguntaba ¿Qué quieres hacer? Y tocando la patilla. Podía moverse por un menú. Hasta llegar a hacer copias. ¿Cuántas copias quieres? ¿Una? ¿Cinco? ¿Cincuenta? ¿Cien? ¿Cincuenta? Vale pues te voy a guiar. Lo primero es pulsar el botón rojo. Y a través de la pantallita. Que tiene esa Google Glass o esas Bucis. Le enseñábamos. Directamente dónde estaba el botón rojo. Que poníamos un icono. De un dedo hacia abajo. Como diciendo aquí Carmen. Y fue mucho éxito. Pero el hardware era muy caro. El procedimiento. Para almacenar toda esa información. Era muy caro. Y las Google Glass y las Bucis. Se ponían caliente. No, lo siguiente. Y hoy en día. Todo aquello que investigasteis. Y desarrollasteis. Hoy es más fácil. Sí, es más. De esas investigaciones. Hoy en día se están haciendo ya. Terapias en el San Pau. En la clínica Mayo. Y ten en cuenta que. Virtuasys. Al igual que otros proyectos. Los que participé. Como Aegis, Cloud4All. Eran proyectos de fondos europeos. No se podían patentar. Pero si eran proyectos de investigación. Donde hacíamos ciencia básica. Digamos que. Definíamos la base. Científica y tecnológica. Para lo que luego. Han sido cosas como el modo oscuro. El modo dinámico. De apaisado o vertical. Los dispositivos móviles. El tema de. Aportar un feedback áptico. Esa pequeña vibración. Cuando pulsas algo en una superficie. Para simular que estás tocando un botón. Todo eso se ha investigado en Europa. Y son cosas que no se pueden patentar. Porque eran fondos europeos. De carácter abierto. Y ahora. Muchos de los proyectos que hay actualmente. Pues se benefician de. Esos papers de investigación que escribimos. De esos experimentos. De esas horas. No sé si pegarle al usuario. Pegarle a la Google Glass. O al que inventó la Google Glass. Porque fueron muchas horas de desesperación. Pero esto se puede aplicar. En cualquier caso. Si no se puede aplicar. Para que Ricardo pueda. Arreglar su estropeada Thermomix. O cualquier cosa. Exactamente. En la Apple Vision Pro. Ya hay aplicaciones y servicios. Para hacer cocinar. Para arreglar. O configurar. Ciertos dispositivos de alta gama. Ciertas cafeteras que valen miles de euros. O para. Para hacer un chequeo. De tu Porsche. De 200.000 euros. Hay experiencias guiadas. Para Apple Vision Pro. Y también para MetaQuest. Se están haciendo cosas similares. De un poco más. De andar por casa. Pero ahí está el camino. Y las personas con discapacidad. ¿Cómo se benefician de esto? Pues que por ejemplo. Una persona con TDA. O con un problema. De mantenimiento de la atención. O que se ve. Abrumada cuando hay demasiado ruido. O demasiadas personas en su entorno. Pues puede recibir. Clases de forma individual. Y aislada. Mediante experiencias virtuales. ¿Por qué? Porque ese niño, ese alumno, esa alumna. No está en clase físicamente. Está en su casa. En un ambiente controlado. Y utiliza la realidad virtual. Aparece en la clase. En un entorno virtual. Donde hay otros niños. Pero cuando se siente abrumado. Siempre tiene un botón del pánico. Que le permite hacer desaparecer al resto. Y solo deja la profesora o el profesor. ¿Qué beneficios potenciales tenemos. Para las personas con y sin discapacidad? Pues aparte de la educación inmersiva. Que hemos hablado antes. También. El tema de tratar ciertas terapias. De fobias. O terapias. En las que el conductismo. Es la solución. Pero un terapeuta conductista. No puede controlarlo todo. Por ejemplo una persona. Con pánico a los insectos. Una de las etapas. Es salir al campo. Tú sales al campo. Y dependiendo de la época del año. Aquello está lleno con suerte. Solo de moscas. Con mala suerte tenemos. Abispas, abejas, escarabajos. Libélulas. Un largo etcétera. Entonces el terapeuta. La única. Forma de controlar. El mecanismo de escape. Para que la persona, el paciente. Pueda volver a una zona segura. Es llevar. Algún. Alguna cabina portátil. Donde el paciente se meta dentro. Para aislarse. Eso se hace en los 80. Te llevabas al paciente. Con fobia por ejemplo a los insectos. Al campo. En su última etapa de tratamiento. Conductista. Y llevaban como un cubo. De 2x2x2 metros. De metacrilato. Y cuando se sentía abrumado. Se metía ahí dentro. Dentro de también más beneficios. Está la simulación de experiencias. Para prepararte. Para entrenarte. Para tu trabajo. Para ejercicio. Ya hoy en día. Hay mediante. Análisis de la visión por inteligencia artificial. Monitores de fitness. Que te ayudan a corregir. Las malas posturas. O incluso eso fue muy divertido. El pasado abril. Tuve una experiencia. De un. Corrector. Mediante la webcam de un portátil. Que cuando la persona. Tomaba una postura. Incorrecta en la silla. El portátil se lo decía. Estás adoptando una postura. Poco ergonómica. Y tenías que volverte a poner recto. Y cómodo y correctamente. Delante del portátil. Porque te salía un pop up. Un mensaje emergente. Deja lo que estás haciendo. Y siéntate bien. Volver a tener a la abuela. Que cuando nos poníamos delante de la tele. Con la postura de la espalda encorvada. Te daba el collejón. Pues en lugar de un collejón. Un mensaje en pantalla de ponte bien. Pues esto también lo tenemos. Y esto viene. De mucho avance. En realidad virtual. Análisis de la visión. También para. Poder empatizar. Personas sin discapacidad. Con personas con discapacidad. Hay experiencias de realidad virtual. Que simulan discapacidades. Te pones una gafa. Y ves como un daltónico. O ves como una persona. Con glaucoma. Con retinosis. Con distintos síndromes. Que afectan a la visión. Pero incluso. Hay experiencias cognitivas. Que se están estudiando. Para simular. Discapacidad cognitiva. Tú estás intentando entender a una persona. Y su discurso. Aparece distorsionado. Es simular. Asperger. Haciendo que la persona no tenga gestos. La cara no muestra emociones. No mueva los brazos. No mueve las manos. Entonces tú tienes que adivinar. Si el discurso que está dando. Es emotivamente positivo o negativo. Solo prestando atención. A su entonación. De su discurso. Porque los gestos y la cara. No expresan nada. Entonces es lo que. Digamos. Experimente una persona con Asperger. Que no tiene todas las herramientas sociales. Para interpretar. La emotividad de la otra persona. También la posibilidad. De participar. En eventos. Para aquellas personas que no se pueden trasladar. Porque viven en una silla de ruedas. O están. Postradas en una cama. O su entorno no es nada accesible. Y no pueden salir de casa. Pues ya ha habido conciertos. Ha habido. Experiencias de picnic. Visitas a museos virtuales. Incluso. En pandemia. Se estaba preparando. Una experiencia de visitar. La catedral de Notre Dame. De forma virtual. Por muchas personas. Para hacer turismo. Es que cuando nos confinamos. Estábamos aburridos. Solución tecnológica. Estos avances. Tras la edad virtual. Las personas con discapacidad. Nos podemos ir beneficiando. Lateralmente. E incluso terapéuticamente. ¿Qué problemas hay? ¿Qué barreras hay? En estas tecnologías. Pues cuando la experiencia. Uno de los canales sensoriales. Sea la visión. Sea el sonido. Sea el oático. Sea el utilizar la voz. O entender lo que se está diciendo. Es más importante. Que el resto de canales. No hay un equilibrio. Entre los distintos canales. Aparecen las discriminaciones. Las barreras de accesibilidad. Muchas de las experiencias. De realidad virtual. El 90% de la información de interés. Es lo visual. El sonido es cosmético. En muchos casos. No hay feedback práctico. No hay vibración. No hay sensación térmica. Entonces el sonido es cosmético. No es relevante. No es importante. Lo que importa es lo visible. Las personas ciegas. O las personas con problemas de atención. Que no se centran en las cosas visuales. Están siendo discriminadas. Hay una barrera clara ahí. ¿Cómo lo solucionamos? Como se solucionan las barreras de accesibilidad. En los contenidos digitales. Aportando alternativas. Haciendo los dispositivos. Y los sistemas operativos que utilizan estos dispositivos. Compatibles con los productos de apoyo. Tenemos por ejemplo. VoiceOver en la Apple Vision Pro. Que va bastante bien. MetaQuest. Estamos esperando que un día de estos. El señor Zuckerberg. Nos brinde un lector de pantallas. Para MetaQuest. Tenemos ya síntesis de voz. En varios idiomas para MetaQuest. Por cierto. Hay esperanza de que tengamos lector de pantallas. También. Hay filtros de color. Para personas daltónicas. Hay también filtros de animación. De transparencia. Para la gente con problemas parciales. De visión o baja visión. Se están incluyendo. Muchas características de accesibilidad. En estos visores. De realidad virtual y realidad aumentada. Pero no porque. Principalmente. Hay personas con discapacidad. Que lo estén requiriendo. Sino porque los usuarios. Con mayor poder adquisitivo. En el primer mundo. No son gente joven. Son gente mayor. Las necesidades de accesibilidad. Cada vez más el mercado está viendo. Que está por la vía de la accesibilidad. Esto es esperanzador. Sí. Pero no va a ser rápido. Tenemos que seguir las mismas soluciones. Que estamos haciendo. Para los contenidos en páginas web. Y aplicaciones móviles de escritorio. Que es. Concienciar. Divulgar. Apoyar a las soluciones de accesibilidad. Hablar con diseñadores. Desarrolladores. Hablar con el tejido empresarial. Que crea esos contenidos. Esas experiencias. Y presionar a los políticos. Para que el marco legal. Se extienda también a estas experiencias. Que hoy por hoy. No es ni el 1% de las experiencias. De ocio. De trabajo y de educación. Pero ya. Si nos hacemos un poquito de memoria. En el 2000. Solo el 1% de la población mundial. Tenía acceso al World Wide Web. A las páginas web. En el 2005. Saltamos a un 8% de la población. Sí, pero. Este tema tiene una complejidad doble. Aparte de nuestra necesidad. De acceder a esos contenidos. Es una forma de mostrar la realidad. Es que. Tampoco es algo estable. Es una cosa que está en continua evolución. Ni tan siquiera sabemos. Cuáles van a ser los sistemas de realidad virtual. Futuros a corto plazo. De hecho. Existía. Un propósito de generar un metaverso. Que se quedó. De momento. En nada. Han tenido que recular. Entonces. Tú lo has nombrado. Con la W3C. Pues aquí sería lo mismo. Hacer algún tipo de planteamiento. Genérico y radical. Me refiero de raíz. De la base. Para que fuera cual fuera. Al final. La tecnología que heredáramos. En este sentido. Porque sabemos que ese es el camino. Mandaloriano. Pues que estemos nosotros presentes ahí. Tú dices ahora. La Vision Pro está muy bien. Porque puedes manejar VoiceOver. Y ya está. Pero claro. Esto es igual que pasa con la Playstation. Y demás. Y con los juegos. Solo prácticamente en los menús. Porque cuando quieres tener una experiencia más profunda. Con cosas más apasionantes. Estamos fuera. Ahí está el tema. De que Apple, Google y Meta. Si están trabajando en hacer accesibles. Pero no nos podemos olvidar. De esos desarrolladores. Esos terceros actores en la faena. Que tienen que hacer sus juegos. Sus aplicaciones. Sus herramientas. También accesibles. Apple, Google, Microsoft. Gastan un pastizal en hacer librerías. Para hacer aplicaciones. Y servicios accesibles. Pero el desarrollador se las desconoce. O desconoce que tiene que hacerlo. Pues tenemos el problema. De la versión 5. Con un electro de pantalla. Que más o menos funciona bastante bien. Pero cuando intentamos arrancar un juego. El electro de pantalla deja de funcionar. Porque el desarrollador no ha hecho. Un trabajo de compatibilizar. Su juego. Con ese servicio de accesibilidad. Yo aquí tengo mi propia opinión. Van a haber juegos. Que por mucha voluntad de accesibilidad. Que haya. No van a tener ningún sentido. Hay limitaciones tecnológicas. He dicho que por ejemplo. A mi me han pedido muchas veces. Queremos un juego. FIFA 2008. Accesible para personas ciegas. Y yo siempre digo lo mismo. No sabéis lo que estáis pidiendo. Conseguir una experiencia de juego. De 23 hippies. Moviéndose. Aparte del balón. Con una capacidad de que. Un cerebro humano. Procesa toda la posición de todo el mundo. En un instante. Con la visión. Transmitir eso a través de solo sonido. Hoy por hoy no es viable. Pero es que yo creo que tu hablas de limitaciones tecnológicas. Y realmente lo que hay son limitaciones perceptivas. O sensoriales. Es que yo ahí estoy a favor de. No solo el sonido. Sino además mediante lo áptico. Llegar a dar más información. De la que solo se puede procesar. Mediante un solo sentido. Yo creo que sé dónde está la solución. Y la solución una vez más. Es Elon Musk quien la va a dar. En ver. Ya ahí nos metemos en temas de cibernética. Puentear cerebros. Ya lo han hecho. La gente de China lo ha hecho también. En esta semana ha salido una noticia. Que tienen su propio Neuralink. Que sería. Hay varios proyectos. Tanto en Europa como Estados Unidos. También en Asia. De sistema de comunicación. Cerebro máquina. Y ahí está la solución. En la cibernética. De cuando un sentido. La maquinaria biológica. De un cuerpo no funciona. Sustituirla. Y ahí hay muchos temas de investigación. El tema es que ya no estamos. Hablando de hacer accesible. El FIFA 2008 para ciegos. Sino hacer compatible el FIFA 2008. Para personas con ojos. Cibernéticos. Bueno pero es que no son ojos. Hablamos de neuroestimulación. Y a partir de ahí. Percibirlo todo. El tema es mucho más sencillo. Si consiguiéramos. Podernos comunicar a la velocidad. Y en el sitio concreto. Para generar esa realidad. Porque es donde se tiene que crear. En nuestro cerebro. No nos haría falta el cuerpo. En nuestro cerebro se podría proyectar todo. Tú te estás yendo muy lejos. Yo te voy a poner uno de los casos. Que hay ahora. Con la tecnología que tenemos de los visores. De los cascos. Apple gasta mucha energía en la Vision Pro. Para evitar el efecto de titilado. O sea. Tú virtualmente. Pones el modo. Realidad aumentada en la Apple Vision Pro. Ves tu salón. Y tú con tu mano. Haces un chasquido. Para lanzar un menú. Y pones una ventana de YouTube. Con el vídeo. O sea. De un videoclip. En una posición. Con un ángulo determinado. En tu salón. Pues tú ahora te mueves por tu salón. Que tú estás viendo tu salón. Porque estás en modo realidad aumentada. Y la pantalla sigue en esa posición. En el aire. Pues MetaQuest. Y otros visores de realidad aumentada. Tienen un problema. Que a veces cuando te mueves demasiado rápido. Bien. En el movimiento de desplazamiento. Con tus pies. O en el movimiento de giro con tu cuello. Hay un momento en que la altura. De ese elemento virtual. Que has dejado. Pega botecitos. Es un titilado. No tenemos tecnología para hacer eso. Apple lo consigue con un máximo de 4 elementos. Y si no te mueves demasiado rápido. Todavía hay gente. Que todavía no tolera. Todavía hay gente. Que se marea. Que no se lleva bien. Porque al final. Tiene unos hercios. El efecto de mareo. Incluso se han conseguido. Con experiencias virtuales de sonido. Gente que se ha mareado. Por experiencias de sonido espacial. De tener varios ejemplos. Hay varios focos de sonido a la vez, gente que está acostumbrada a escuchar varios focos de sonido, porque son gente con baja visión o personas ciegas, y digitalmente se ha saturado el procesamiento del sonido del cerebro de esas personas y se han simulado efectos de mareo... Y sensaciones psicotrópicas. Porque nadie ve exactamente igual por los dos ojos, ni oyes exactamente igual por los dos oídos, pues todas esas imperfecciones humanas, pues a la hora de simular algo con algo de tecnología, pues se manifiestan. Porque está el sentido mediando que tiene que interpretar y no es una conexión directa con el cerebro. En el caso, por ejemplo, de las personas con discapacidad, el tema aún es mucho más heavy. Porque es transmitirle una realidad a un sentido que no es el natural de cómo debía recibirla. Con lo cual, el FIFA 2025-2026, 3.200, 4.625, o hacen algo o no lo vamos a jugar. Bueno, ahí hay también un tema de lo que se llama la saturación sensorial, que es llegar a... A exaltar la experiencia de inmersión virtual mediante la saturación de la información. O sea, se están haciendo experimentos... Por cierto, todos estos experimentos lo que ayudan es a comprender mejor el cerebro humano. Hay muchos papers de investigación médica que están publicando gente como Meta o gente de Apple de las experiencias que han tenido probando y fabricando sus visores de realidad virtual. O sea, han hecho experimentos muy curiosos de gente que llegaba a... El movimiento de los ojos, de forma natural y habitual, está sincronizado. Si miramos a la izquierda, miramos a la izquierda con los dos globos oculares. Pues se han llegado a conseguir una separación de visión de 15 grados. O sea, de un poco de un ojo mirando para Cuenca y otra para Málaga. Sí, sí, sí. Y hablando de... Estas experiencias... Recuerdo la experiencia de aquella madre que perdió a la hija, ¿no? Y la utilizaron para superar el duelo, ¿no? Eso fue una experiencia muy chula en esta década del 2020 que una madre que perdió a su hija siendo muy pequeña, muy, muy pequeña, hicieron una experiencia simulada donde ella durante un tiempo limitado convivía con su hija muerta para superar esa pérdida con su terapeuta al lado. O sea, parece muy creepy, muy un poco excéntrico, pero es que esa persona ya había tenido varios intentos de suicidio. Sí, aclararlo de que convivía con su hija muerta, que no era nada... No, no. No tiene nada que ver con la necrofilia. No, no. Era simplemente que ella hacía sus tareas y tenía a su hija pululando por al lado, hablando con ella, preguntándole. Ella, por ejemplo, se ponía a planchar o recoger su casa y la niña andaba por su casa. Todo eso a través de un visor, ¿no? De realidad virtual. Sí, sí. Y manteniendo una conversación con la niña mediante un módulo de inteligencia artificial, un LLM. Y llegó a celebrar su séptimo cumpleaños, que la niña nunca llegó, con ahí el ciclo, ¿no? Sí, ahí ya el terapeuta no vio nada positivo en hacer una continuación porque se podía crear ahí una dependencia. Entonces, ahí llega un momento en que el duelo pasa a la aceptación. Me parece un uso magnífico de este tipo de tecnología. También hay usos malos de la realidad aumentada, como sucedió con el proyecto HoloLens de Microsoft, que la gente de DARPA, la parte de tecnología del ejército de Estados Unidos de América, pues hicieron un contrato para utilizar HoloLens para mejorar los sentidos y las habilidades cognitivas de los soldados. Y los propios trabajadores de Microsoft hicieron manifestaciones, huelgas, saboteo de algunas plantas de software y la gente de Microsoft ve que esta tecnología puede ser muy beneficiosa o muy negativa. ¿Y cuánto daño está haciéndolo WOC a la tecnología también? Vaya, vaya. Ahí es un tema más que social muy clásico. Una tecnología, un cuchillo, vale para cortar jamón o para cortarle el pulmón a alguien. Entonces, hay que entender que el bienestar de la sociedad tiene que ser racional. Efectivamente. Y que la gente sepa que ese utensilio puede ser muy beneficioso pero también puede ser perjudicial. Y siempre, siempre hay que tener en cuenta que lo mismo que el principal objetivo de una empresa es ganar dinero, el principal objetivo de una persona que manda es mantenerse en el poder. Y ahí está mi nota de filosofía para andar por casa. Pues cuéntanos algún caso de éxito, algún proyecto, algo real, para más civiles. Pues, para empezar, la operación asistida por realidad aumentada de la separación de dos siamesas brasileñas, una operación larguísima, donde el desgaste mental de los cirujanos era tal, porque eran muchísimas horas, y la limitación en la visión, porque la... la... las dos niñas estaban enfrentadas por la frente. O sea, tú no podías meter ahí algo para ver si estabas cortando o no estabas cortando lo que tenías que cortar. Y utilizando distintas herramientas de realidad virtual, la operación fue un total éxito, separaron a las niñas y se consiguió un éxito que ha abierto nuevas vías de esperanza a situaciones que no iguales, pero sí parecidas, donde el cirujano no puede observar qué está sucediendo y necesita, que te digo yo, por ejemplo, operar al paciente estando dentro de un TAG, de un escáner de resonancia. De hecho, se ha dado pie también a operar el facultativo con un asistente robótico, gracias a esta realidad virtual y a este adiestramiento. En remoto. Sí. Sí, en remoto. Y en asistencia próxima también. Es decir, en la asistencia próxima, es decir, el facultativo está viendo en las pantallas una información aumentada de los órganos por donde está recorriendo y luego tiene también un asistente robótico que, lógicamente, no es un androide, son una serie de brazos, pinzas que le está asistiendo en la operación. Y eso, bueno, no son para todas las operaciones, pero ya hay para muchas. Sí, hay uno de los ejemplos de este año 2025 en que un quiste dentro del cerebro, en el espacio entre el bulbo raquidio y el cerebelo, pues necesitaban una precisión de micras y mediante un bisturí articulado rebondadamente 10 centímetros de movimiento del cirujano en el espacio, equivalían a una micra de distancia. Sí, sí, qué precisión, ¿eh? Sí, sí, muchísima, muchísima. Y ahí también, volviendo al tema de los traumas y discapacidades cognitivas, veteranos de guerra, de guerra de Afganistán, guerra de Irak, están utilizando experiencias de realidad virtual para enfrentarse a esas situaciones de trastornos de estrés postraumático, de reconducir esas situaciones de descontrol de la ansiedad o esos delirios para, digamos, que puedan encontrar un disparador para controlar y superar esas situaciones de estrés. Este tema es importantísimo y aquí también estaría ayudando mucho porque esto es la superación de un trauma por vía no farmacológica. Porque tomarte medicación, bueno, te puede disimular, ¿no? Esa sensación, ese desarreglo, ese trastorno. Pero conseguirlo a través de la realidad virtual también me parece magnífico. Y bueno, no todo va a ser filantrópico. Un proyecto de realidad aumentada ha dado muchísimo dinero a sus creadores como fue el juego Pokémon GO. Una aplicación relativamente sencilla. Movilizó a casi 200 millones de jugadores. En el mundo. Y muchos de ellos gastaban dinerito en comprar moneditas y objetos virtuales en el mundo de Pokémon GO. Y han salido muchos juegos y experiencias que lo imitan o lo intentan adaptar. Y todavía hay mucha gente jugando a Pokémon GO. Y, por ejemplo, Apple con sus Apple Vision Pro que no voy a entrar si es un fracaso o es un primer proyecto beta. Lo que sí han demostrado es que se han volcado en el proyecto a nivel de investigación para esas herramientas para ayudar a los cirujanos para ayudar a los terapeutas para ayudar a gente a superar por ejemplo, situaciones de síndrome de abstinencia. O sea, de cuando tú empiezas con ese síndrome de abstinencia hay una saturación sensorial. Pues ese visor de realidad virtual atenuaba los sentidos. Simulaba que veías menos colores o lo veías todo más apagado. El sonido te llegaba atenuado. Y no se ha conseguido parar el síndrome de abstinencia pero sí retrasar ese efecto total de devastación mental de necesito mi dosis. Pues eso permite lo que tú bien comentabas de superar ciertas situaciones que en la psiquiatría se trataban mediante medicamentos a enfrentar al paciente a esas situaciones de forma muy controlada con la garantía de en cualquier momento salirte de esa experiencia y volver a tu situación de control de confort y poder poquito a poquito superarte a ti mismo sin necesidad de esa muleta química que son los medicamentos que crean muchísimos problemas de dependencia de superación ficticia de muchos problemas. Hay mucha gente que sigue dejando el tabaco para volverse adicto al azúcar o a sistemas de anti estrés basados en la nicotina. Entonces te sales de un sitio para meterte en otro que puede ser peor. Esto es importante destacar estos visores porque la gente puede pensar que han sido un fracaso tanto las Hololens de Microsoft como las Apple Vision Pro y hasta las MetaQuest. Pero creo que están muy confundidos. Realmente en la industria son unos elementos unos componentes valiosísimos que se utilizan mucho. ¿Verdad, Jonathan? Y gente muy avanzada en los procesos de fabricación, producción utilizan estos visores para, a través de programas de realidad aumentada ser más eficaces a la hora de analizar, construir, reparar... Es que hay que tener en cuenta que en el contexto temporal que tenemos ahora en el contexto histórico vemos un dispositivo ahora y pensamos esto es un fracaso. No. Esto es el abuelo de un producto en el futuro que va a tener mucho éxito. En el año 97 estaban las Palm PC que era el tatara tatara tatara abuelo de los teléfonos que tenemos ahora. Pero es que antes, en el año 91 o 91 ya teníamos un dispositivo pesado y lento y demás que tenía una pantalla táctil resistiva que daba acceso a tres aplicaciones. O sea, ¿ese producto fue un fracaso? No. Fue una revolución en su época. Pero la tecnología, claro, no daba acceso a un éxito comercial masivo. ¿Por qué? Porque tener un hardware actualmente que evite el efecto de titilado como hemos dicho antes pues son 4000 euros. Como son las Apple Vision Pro. Un hardware como las MetaQuest que consiguen una experiencia de juego más que aceptable para la mayoría de personas luego para visiones o experiencias de alta calidad visual o de sonido no, porque es un hardware que con ese precio no da más de sí. Entonces, el éxito de un producto está basado en su éxito comercial pues entonces nos tenemos que esperar unos 10 añitos. Lo mismo pasó con la inteligencia artificial. Hablamos de inteligencia artificial del 2021 para acá, 2022 para acá. Tenemos inteligencia artificial desde los años 60, 70. Pero aquello era para muy pocas personas y pedías algo y tardaba semanas o meses en resolverlo. Claro, es que hay muchos nichos de mercado a nivel empresarial, a nivel industrial donde esto tiene muchas aplicaciones y se está utilizando básicamente. Claro, lo que no tiene tanta utilidad es en el ámbito doméstico, ¿no? Pero eso es distinto. Pero por ejemplo, la gente de Airbus ya tiene visores, no son de Apple Vision ni de MetaQuest, son Pico que es otro fabricante que hace visores de realidad virtual donde los mecánicos especializados de Airbus utilizan eso para moverse. Dentro de un bicho que es enorme como puede ser un Airbus 360 estamos hablando de un avión que puede dar cabida a 500 pasajeros para moverse por ahí y no perderse. Y saber en todo momento que el cable que va desde la cabina de avionáutica a la cola donde está el sensor de temperatura ¿por dónde va exactamente? O sea, están dando soluciones donde los sentidos y las capacidades cognitivas de un humano especializado no son suficientes. Y mediante estas herramientas pues se dan soluciones a esas necesidades del mercado laboral actual. Resumiendo, entre todo lo que hemos ido viendo ¿tú le ves más ventajas o más inconvenientes? Siempre. Todas las tecnologías que benefician a las personas siempre tienen ventajas. Inconveniente, pues lo de siempre que alguien no se adapte bien se aísle de la sociedad, que ese dispositivo se utilice para el mal, para la violencia... Todo dispositivo tecnológico va a crear una adicción. ¿Por qué? Porque ayuda a una persona a superar una situación que le crea o estrés o incapacidad. Cuando esa herramienta tecnológica funciona muy bien esa persona siente una sensación de bienestar y eso es muy adictivo. Ahí está el tener que equilibrarnos y ser responsable con la tecnología. Pero yo creo que... tanto la realidad virtual como la realidad aumentada son herramientas muy beneficiosas para todas las personas. Bueno, entonces le auguras un futuro prometedor. Un presente prometedor. Genial. Pues podemos ir haciendo un resumen de las diferentes cosas que hemos ido viendo y vamos terminando por ahí. Pues hemos visto que esto de la realidad virtual que está muy presente ahora empezó allá por el 1830 con un cacharrito con dos fotos puestas delante de los ojos que el cine ha tenido mucha culpa de la evolución que la industria del videojuego y del entretenimiento ha sido el gran inversor para que esta tecnología avance que esta tecnología ha contaminado el cine las novelas las experiencias de ocio está beneficiando a personas con discapacidad ...y también está aislando a personas con discapacidad y sin discapacidad, que nos facilitará el trabajo, las relaciones sociales, la educación y el entretenimiento. Sí, hemos visto también toda la evolución tecnológica, desde los primeros dispositivos de SEGA, con sus patentes y demás, hasta nuestros días, culminando prácticamente en lo que son los visores de las marcas más importantes. Sus ventajas, inconvenientes, que a veces también tiene contraindicaciones por algunas personas que no todo el mundo lo puede tolerar. Y el poder beneficioso de la realidad. Es una herramienta virtual para superar traumas y ayudar en muchas tareas. Pues muy bien, amigo Jonathan. Pues muchas gracias, Jonathan. Muchas gracias una vez más. Un placer, un placer. Y como siempre digo, hay que aceptar la tecnología, pero también hay que ser responsables con la tecnología. Pues nos vamos despidiendo y vamos dando nuestros medios de contacto, Ricardo. Pues nuestro correo. Nuestro correo electrónico es gafotas arroba segatos punto es y... Nuestro WhatsApp para mensajes de audio o de texto en el más 34 644 640792. Os agradecemos muchísimo que hayáis llegado con nosotros hasta aquí y os esperamos en el próximo episodio. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Pues Ricardo, hoy tenemos un tema y un invitado muy interesantes, ¿es otra vez? Muy interesantes. Y la verdad que, bueno, ando un poco contrariado realmente, porque la temática me apasiona y creo que es necesaria en estos momentos. Y, por otra parte, ha ocurrido un hecho que me ha descolocado. Es decir, estaría contrariado por una parte y casi ofendido por otra. ¿Qué te ha pasado? Pues mira, que preparando este tema, este episodio, tanto contigo como con el invitado, he tenido un alar de inspiración creativa. De estos que a mí me dan muy poco, digo, pero bueno, como el tema es tan sumamente apasionante, digo, voy a generar un ensayo, una introducción que va a quedar fantástica. Y cuando lo he compartido con vosotros, por una parte he recibido una berenjena, que luego me tendrán que explicar qué significa, y ambos habéis dudado si consumo psicotrópicos o cosas parecidas. He de deciros que, desgraciadamente, no, porque las setas son para el otoño y en este momento no los he consumido, pero bueno, que sepáis, que no sé si hacer mi introducción, pero era brillantísima. Y por culpa vuestra se lo va a perder la audiencia, así que eso es lo que tengo que decir. Puedes darle y luego, dependiendo de cómo quede, pues lo dejamos aquí y lo pasamos a temas falsas. ¿Me estás diciendo eso en serio? ¿Pero cómo que temas falsas? Vamos a ver, tendrías que llevarlo a la academia, al Nobel o a cualquier sitio, nada de temas falsas. Oye, que es una introducción, vamos, maravillosa. Pero bueno, pues bueno, eso es lo que es la realidad aumentada. Disculpa, hola Jonathan, no te he dicho nada. ¿He escuchado hackeando tu cerebro? Sí. Pues espera un momento, no me jorobéis que encima de que no habéis aceptado mi ensayo, cuyo nombre brillante era sinestesia inducida hackeando tu mente, es decir, lo estás utilizando ahora porque esto sí que ya me parece lo peor de lo peor. Yo solo diré en mi defensa que adoro el botón del mute de mis hypers. Bueno, tú podrás adorar lo que quieras, pero ya en mi propia cara me han tirado mi propio título después de no aceptarlo. Y esto es así, ¿lo has utilizado? Es que no sé, no sé, no quepo en mí. Bueno, bromas aparte que nada, ya me explicarás lo que es lo de la berenjena. No. Ahora, en otro momento. Pero muy bien. Has utilizado la palabra multisensorial, que también, no sé, me da un poco de miedo, ¿no? ¿Esto es bueno o es malo desde el punto de vista de la accesibilidad? Antes de meternos en el punto de vista de la accesibilidad, vamos a meternos en la historia de la realidad virtual. Estamos aquí en el guión, ¿eh? ¿Qué coste? Siguiente punto en el guión. Sí, sí, pero quiero dejar claro. Que el término se acuñó en 1980. En el 62, con también el estudio de los psicotrópicos y la gente que hace prongs para hacer entradillas de poca, pero ahí no nos vamos a meter. Pues sí, sí, sí, nos vamos a meter en esa entradilla que me ha dado pie y me viene fenomenal. Hasta el año 2010. No, el año 2000. ¿Estás con el asistente del ponente? No. Pues entonces te va a dar un ictus dentro de un minuto o dos. Estoy tirando de memoria. ¿Qué coño de memoria? Estás muy emparrado. Estás como los diez primeros minutos del cortador de césped. Totalmente. Así se te puede escuchar. No, no, es que estoy tirando de memoria. Digo, ¿era 2010 o 2000? ¿El Sega augmented reality? Es curioso que el sector que ha tirado texto ha sido siempre el ocio. El turismo, que decía antes... Ricardo, el ocio, los videojuegos o juegos en sentido amplio. Incluso la pornografía también ha hecho su pinito en la realidad virtual a principios del siglo XXI. Sí, ocio. Podemos decir que es ocio. No voy a comentar nada a este último comentario. Lo que he podido leer en un chat esta mañana. Nada, nada. Seguimos, seguimos. No voy a comentar nada. Le permite hacer desaparecer al resto y se lo deja la profesora o el profesor. Disculpa, Jonathan. Arturo ha nombrado la Thermomix esperando, ¿sabes?, que yo dijera que tengo ganas de volver a ver el cortador de césped porque quiero comenzar un idilio con mi Thermomix ya que el giro de su cuchilla me parece muy sexy. Ya lo he dicho, Arturo. Ya lo he dicho. Se ha quedado ahí meditando. Yo creo que va a ser el capítulo con más tomas falsas de la historia. Es que lo ha soltado ahí. Digo, está esperándome. Digo, me está esperando. Digo, ahora pues no lo voy a dejar pasar. Arturo, ¿satisfecho? Hoy voy a hacer mi introducción, mi ensayo virtuoso al final para que no haga rarezas, ¿vale? Vale, vale. Bueno, disculpa. Sí, seguimos. Seguimos. Y llevaban como un cubo de 2x2x2 metros de metacrilato y cuando se sentía abrumado se metía ahí dentro. Sí, un cubo que se llamaba colmena, ¿no? Eso no lo sé, pero... ¿No vas a editar tú el programa de hoy, eh? Yo no digo nada. No, yo voy a introducir todo lo que pueda por joder a Arturo. Que a Arturo le gusta tanto la artesanía, ¿sabes? ¿Artesanía, artesanía? Así que nada, bueno. Vale, pues seguimos. Era por hacer la gracia. No te preocupes, no te preocupes. Ahí Arturo que tenga que cortar. Eh, eh...
Gafotas, cegatos y sus aparatos #25
Fecha: miércoles, 6 de agosto de 2025, a las 00:00:00
En este nuevo episodio, analizamos en profundidad el impacto real del Acta Europea de Accesibilidad en nuestras vidas. Contamos con la participación de Daniel Montalvo Charameli, especialista en accesibilidad digital y empleado del W3C (World Wide Web Consortium), para desentrañar esta nueva directiva europea que entra en vigor... pero con muchas sombras y excepciones.
Temas destacados:
;Momentos clave:
;Frase para enmarcar:
"Esta no es una ley nueva. Es una directiva europea aprobada en 2019, transpuesta en 2023 y en vigor desde junio del 2025. Otra cosa es que haya voluntad de cumplirla... o vigilancia suficiente para hacerlo."
________________________________________
¿Te preguntas si los servicios digitales que usas son realmente accesibles o si las empresas pueden seguir sacando productos que excluyen a millones de personas? Este episodio te interesa.
Escúchalo ya en tu plataforma favorita o en nuestro espacio web, donde encontrarás todos los episodios, imágenes accesibles y transcripciones:
??
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Duración: 01:30:36
Descripción detallada del logo de Episodio 25. Acta europea de accesibilidad: avance real o promesa vacía
La imagen muestra una ilustración en estilo retro o vintage, con una paleta de colores limitada (principalmente azul y beige), y utiliza técnicas de sombreado con puntos y líneas, típica de los cómics o anuncios antiguos. Descripción de los elementos principales: 1. Personaje masculino en primer plano: o Lleva unos audífonos grandes, gafas oscuras redondas y un gran bigote. o Tiene el cabello peinado hacia atrás y viste una bufanda, chaqueta o abrigo. o Sostiene una tarjeta (posiblemente de crédito o débito) frente a un lector de pagos, lo que indica que está realizando una transacción. o En la pantalla del lector hay un ícono de unos labios, con ondas que indican sonido o voz. o Junto a él hay un vaso de café, típico de cafetería. 2. Fondo: o Se observa una máquina expendedora, también con el ícono de los labios en su parte superior, sugiriendo que funciona por comandos de voz. o Una mujer está interactuando con la máquina, mientras un perro guía (perro de asistencia) está sentado a su lado, lo que sugiere que la máquina tiene accesibilidad para personas con discapacidad visual. 3. Íconos de labios con ondas: o Estos aparecen tanto en la terminal de pago como en la máquina expendedora, simbolizando el uso de comandos de voz o interacción auditiva.
Mostrar transcripción de Episodio 25. Acta europea de accesibilidad: avance real o promesa vacía
Transcripción de Episodio 25. Acta europea de accesibilidad: avance real o promesa vacía
Episodio 25. Acta europea de accesibilidad, avance real o promesa vacía. Bueno Ricardo, pues hoy tenemos un tema muy nuestro, ¿no? Hombre, que uno de los temas más importantes que podemos tener, que es el tema de accesibilidad a bienes, servicios y productos. Eso es, porque además la legislación al respecto últimamente está a tope con todo esto y sobre todo porque además viene desde Europa, que parecen palabras mayores, ¿no? Aunque la legislación en estos temas siempre ha estado ahí, siempre ha estado intentando empujar, pero bueno, por un transporte no había mucha suerte y ahora parece que viene desde Europa. Sí, porque un poco quien llevaba liderazgo era la sección 508 de la legislación americana, que siempre hablábamos con mucha envidia de ella, ¿no? Que era para los productos que sacaba concurso las entidades públicas y administración americana, de donde tenía que primar ante todo la accesibilidad de cualquier servicio o biene o producto sobre otra, y ante dos productos del mismo tipo el que fuera más accesible sería el que tendría que adquirir la administración y siempre dijimos, bueno, ese es el camino y parece ser que ahora en Europa quieren ir un poco más lejos, parece ser, no lo tenemos muy claro, y no solo ceñirlo a las entidades públicas o entes o organismos o administración pública, sino abrirlo también a lo que es la empresa y la iniciativa privada y bueno, para eso vamos a necesitar un experto que nos diga todos los entresijos, las limitaciones, los pros, los contras, lo que se espera, lo que no se espera. Eso es, hasta la parte que estábamos ahí un poco a rebufo, ¿no?, de lo que pasaba en Estados Unidos con la sección 508, que les obligaban a ser un poco accesibles y eso pues a nosotros de rebote nos venía muy bien y ahora parece que por fin Europa pues quiere ponerse un poco ahí a la altura, ¿no?, que era ahora. Y por eso pues hoy tenemos con nosotros a Daniel Montalvo Charamelli, muy buenas, Daniel. ¿Qué tal, cómo estamos? Encantado de estar por aquí. Hola, Dani. Muy buenas, muy buenas. Pues bueno, pues mira, ya sabes. Bueno, primero, Dani, ¿dónde estás trabajando ahora? Yo a ti te conozco desde hace un montón de tiempo, pero dinos más o menos por qué te has movido por distintos sitios. ¿Dónde estás ahora? Yo estoy ahora en el W3C, que es el Consorcio Mundial de la Web, que en inglés por eso son las tres W, el World Wide Web Consortium, desde el año 19. Yo antes estaba trabajando en una empresa del Grupo Social 11. Antes de eso estuve también haciendo temas en una empresa también española que se llama Ibermática y demás, pero ya estoy en el W3C desde el 2019. Empecé con temas sobre todo de formación, con guías y con recursos que ellos desarrollaban en temas formativos y ahora ya más llevando grupos de trabajo y subgrupos y demás, más desde el año 21, 22. Así que en esos estamos. ¿Qué es lo que hacéis exactamente dentro del W3C? Yo estoy concretamente en el Web Accessibility Initiative, que es la iniciativa para la accesibilidad de la web, que tiene varios grupos de trabajo. Ahora concretamente son tres. Hay grupos, el grupo que lleva las pautas en las webcasts que todos conocemos, el grupo que lleva guía y área y otro grupo que se llama Accessibility Platforms Architecture, que son básicamente más temas de arquitectura, temas más, si queréis, un poco más, entre comillas, backend, que tampoco es correcto, pero para que entendamos un poco que tiene más que ver con sistemas y diseño muchísimo más a bajo nivel de lo que suele tratar la WCAG o incluso guía y área. Yo estoy encargado del grupo de guía y área y de dos grupos que están subgrupos, en este caso están dentro del grupo de trabajo que lleva las pautas, que son las reglas de testeo de la conformidad de accesibilidad, que son básicamente como procedimientos para testear accesibilidad de manera que se obtengan resultados más armonizados, que a veces ocurre en accesibilidad que uno prueba un mismo código y los resultados que obtiene no siempre son compatibles, entonces ese grupo trabaja intentando armonizar eso. Y otro de los cuales trabaja más en el tema de aplicar las WCAG a productos y documentos no web. Básicamente ahora entraremos más en detalle, pero cuando uno tiene que definir si las WCAG aplican o no a un producto que no es web, a un documento, etcétera, pues ese grupo de trabajo establece también esas pautas. Pues para poner un poco en contexto todo esto, hoy vamos a hablar de accesibilidad más desde el punto de vista digital y un poco para irnos poniendo en contexto, vamos a hacernos las preguntas más importantes que se hace todo ser humano desde que la humanidad es humanidad, de dónde venimos, a dónde vamos y qué vamos a comer hoy, ¿no? Primero vamos a ponernos en contexto esto, esto de dónde viene, un poco los antecedentes, un poco históricamente. Bueno, en principio, efectivamente, hoy vamos a hablar más de accesibilidad digital sobre todo porque esa es la zona que yo más controlo. También hay provisiones de la directiva en el ámbito de la accesibilidad del entorno construido, pero se deja mucho más amplio el campo a los estados miembros y ahora cuando entremos en la transposición, con lo cual la armonización, si tiene éxito, va a tener mucho más sentido en el ámbito digital de productos y servicios digitales que no tanto en el entorno construido. ¿De dónde venimos? Pues venimos en principio de que cada país, cada estado miembro, ha estado desarrollando legislación por su cuenta. Nosotros en España hemos tenido varias legislaciones anteriores a este Acta Europea de accesibilidad, pero cuando sobre todo hablamos de servicios y productos digitales, que cada país tenga su legislación no ayuda a que las grandes empresas al final que van a desarrollar un fin, un ejemplo, un cajero automático o un TPV que van a vender aquí en Francia, en Italia y en Grecia y en otros sitios, pues que cada uno tengamos una normativa específica no ayuda que eso siquiera se tome en consideración. Al final no se solía tener eso en cuenta. La Comisión Europea ve este problema y obviamente las organizaciones de personas con discapacidad también han apoyado y han empujado mucho para esto y se trata de llegar a un acuerdo para obtener, digamos, una legislación que si bien es verdad que no va a ser igual en todos los estados miembros, porque ahora veremos que no es tampoco como el reglamento de, por ejemplo, la protección de datos, que ese sí es un reglamento y se aplica directamente, el acta se tiene que transponer, pero sí al menos va a dar un mínimo indispensable que sí se tiene que cumplir. Entonces eso sí va a permitir que cuando un determinado fabricante o distribuidor quiera meter un producto nuevo en Europa, pues sí tenga claro cuál es el mínimo que se tiene que cumplir de cara a que eso sea accesible. Entonces lo que tenemos es una directiva, no un reglamento, ¿sabes por qué? Bueno, en principio para que esto funcione y para que haya un mínimo aviso de que pueda tener algún efecto, se tiene que desarrollar con el acuerdo de las partes. Al final nosotros como personas con discapacidad nos podríamos sentar a lo mejor a desarrollar el que nosotros pensamos que va a ser el mejor reglamento del mundo, pero si luego la empresa, la gran empresa, la gran industria no lo apoya, no lo tiene en cuenta, pues al final no vamos a tener éxito. Entonces al final este proceso de negociación hubo muchas cosas que se quedaron fuera y yo entiendo que esto también fue una cosa, al final vamos a dar tiempo y plazo a que cada país pueda armonizarlo y no vamos a lograr el reglamento. Desafortunadamente no se logró. Y hasta ahora teníamos ya legislaciones y tenemos mucha normativa y en España en concreto, ¿qué tal andaba? ¿Se cumplía, no se cumplía? ¿Era necesario hacer algo más? Pues yo creo que esto es como según le preguntes a, en fin, a cada uno te va a decir si se cumple o no se cumple. A ver, realmente había cosas que cumplían pero había cosas también que no. Yo creo que es la forma más objetiva de decirlo. ¿Que había servicios accesibles y webs accesibles? Sí, claro, pero también la sabía que no eran accesibles. Sobre todo el problema que hemos tenido aquí en España y supongo que en otros sitios también, es que cuando se ha reclamado el cumplimiento de la ley hemos tenido poco éxito, por decirlo de alguna manera suave, a la hora de que a nivel de denuncias o a nivel de sanciones y tal se haya podido reforzar ese cumplimiento. Entonces realmente también esto yo espero que contribuya, aunque no va a ser mucho menos de hoy para mañana, a que habiendo primero un mercado mucho más amplio y segundo unos requisitos mucho más armonizados, se pueda conseguir que cuando haya un requerimiento para que algo cumpla y que se ponga un buen conocimiento de las autoridades, eso se pueda hacer, vamos. ¿Pero la directiva, Dani, regula también el ámbito de las sanciones posibles o potenciales? La directiva no regula como tal porque esto le pertenece al país que transponga. Cada país tiene que transponer y tiene que regular y dar. La directiva da unas pautas, efectivamente, sobre todo en el sentido de no es tanto sanciones económicas como tal, sino que si el producto no es accesible o el servicio no es accesible, no se puede vender en la Unión Europea. Antes comentábamos la sección 508 y la sección 508 tuvo mucha fuerza porque evidentemente no ser capaz de comercializar con la Administración Pública de los Estados Unidos ya en sí mismo te deja fuera de un montón de contratos. Aquí no es tanto que no puedas venderle a la Administración Pública, sino que no puedes vender el producto en general o el servicio en Europa. Por lo tanto, es un poco, como decía, el mínimo y luego ya cada país tendrá sus disposiciones a nivel de qué sanciones quiere o no quiere imponer. España ha tenido siempre su legislación y había sanciones, otras cosas que esas sanciones se impusieran. Aquí efectivamente hay dos partes también interesantes. Esto se puede dividir de muchas formas distintas. Unas desde el sector público y del sector privado. En el sector privado cabe esperar y sería bueno que hubiera sanciones económicas o de no poder vender sus productos, bienes o servicios o cosas así. Pero en el sector público quizá esto está más complicado porque si una Administración Pública no le da por ser accesible, pues a ver quién lo obliga. El sector público, además, en Europa está cubierto por otra directiva, que en este caso sí, digamos, el nombre más conocido sigue siendo Directiva de Accesibilidad Web, que es en inglés el WAD, que ésta se aprobó en el 2016 y ya entró en vigor. No recuerdo exactamente cuándo fue, pero creo que fue como para el 2019 o así entró en vigor. Y esa sí cubre al sector público, pero es únicamente web, como su propio nombre indica. Esta es mucho más amplia en cuanto a los productos y servicios que cubre, pero está dirigida más al sector privado. Pues cuéntanos qué es el Acta Europea de Accesibilidad. Pues este acta se aprobó el 17 de abril del 2019. La aprobó la Comisión y el Parlamento. Este órgano tripartito que es la Comisión, el Parlamento y otro que no sé exactamente cuál es, pero básicamente la aprobación de esa acta le daba a los estados miembros un periodo de tres años, hasta el junio del 22, para que traspusieran la directiva a las respectivas leyes de su jurisprudencia, en este caso. Luego ese plazo se amplió. España, por ejemplo, la traspuso en el año 23 y su periodo, digamos, de vigencia empieza, o empezó, a partir del 28 de junio de este año. La directiva se establece, sobre todo, en dos partes, dos patas. La pata de productos y la pata de servicios. Y se requiere que cumplan con una serie de requerimientos de accesibilidad. Tampoco vamos a entrar en el detalle específico de cada uno de esos, pero, por ejemplo, a nivel digital de webs, el requerimiento al que apunta la propia directiva, y además el propio mandato también que después genera la petición a las organizaciones de creación de estándares para que hagan sus estándares, es la WCAG, las Pautas de Accesibilidad al Contenido Web, en este caso las 2.2, que se actualizaron en el año 23. Para otros productos que no son web, pues también se tiene un estándar de referencia, que es el N301549, que es el que va a determinar los requerimientos, digamos, de esos otros productos. Pero, bueno, a nivel de lo que es la directiva, la directiva lo que establece es que los estándares son voluntarios, es decir, es mucho más fácil cumplir si tienes un estándar y mucho más si tienes una metodología también que te ayude, pero la propia directiva es, digamos, quien recoge los requerimientos. En productos en los que, digamos, vamos a ver, ojalá que veamos, por decirlo de alguna manera, un avance mayor, pues productos como, por ejemplo, que ahora ya prácticamente todos los tenemos, pero los ordenadores de consumo individual, las televisiones inteligentes, todas las máquinas, digamos, de gestión de turnos, cajeros automáticos, temas sobre todo también se habla mucho del transporte a nivel de webs y servicios móviles. No todos los aparatos o los equipos que están relacionados con el transporte están requeridos. De hecho, bueno, luego entraremos en las excepciones, pero sí está requerido que cumplan con las pautas de accesibilidad aplicaciones móviles y páginas web de transporte. A nivel de servicios, pues un poco también la directiva establece una serie de servicios que tienen que ser compatibles. Servicios, por ejemplo, de lectura para temas de libros digitales, servicios también de multimedia, servicios de documentación también se menciona y con esa estructura se establece ya, digamos, los requerimientos que tienen que cumplir. Se le da a los países, como he dicho, un plazo para transponer, que ya España traspuso en el año 23. Entró en vigor en el 28, pero también hay que, supongo que entraremos ahora a hablar del tema de excepciones y de plazos ampliados para temas de otro tipo de productos. Pero vamos, ese es el marco general en el que se establece un poco la directiva, el ámbito de la directiva y su alcance. Y como casi todas estas cosas, ¿no? Pues va a tener puntos fuertes, puntos débiles, puntos a mejorar, ¿no? Como se suele decir, que hay puntos con margen de mejora, ¿no? ¿Cuáles son todos estos puntos? ¿Qué fortalezas, debilidades? Cuéntanos. Yo creo que las fortalezas están más en el ámbito digital y por cerrarlo un poco más en el ámbito de servicios web, porque la propia directiva o la propia comisión apunta a las pautas de accesibilidad al contenido web, donde hay alguna sombra, sobre todo porque eso quedó fuera. Y está claro, además, está explicitado en uno de los artículos, que es una excepción, que todos los contenidos multimedia y todos los documentos ofimáticos previos al 28 de junio del 2025 están exentos. Nadie va a tener que arreglar eso, que eso es un problema. Luego también tenemos alguna dificultad, porque si alguien es requerido para cumplir con la legislación, pero ellos pueden justificar que el producto o el servicio, en el caso del servicio, si hay un contrato previo al 28 de junio del 2025, ese servicio también se puede continuar prestando sin hacerlo accesible. En el caso de las webs y de las aplicaciones antiguas, anteriores al 28 de junio del 2025, incluso puedes tener hasta 5 años de carencia, en el cual se entiende que ese producto es antiguo y que si tú no lo actualizas puede seguir funcionando sin ser accesible. Así que realmente sí hay algunas áreas en las que se ha quedado desafortunadamente un poquito corta, sobre todo en su aplicabilidad. ¿Y a qué sectores son los que sí que aplica de lleno los más interesados? Sobre todo comercio es un sector importante que va a aplicar cualquier, digamos, producto o servicio que se venda directamente al consumidor. Esto es importante porque también existen excepciones en el sentido que si tú no vendes al consumidor directamente no tienes por qué cumplir en todos los aspectos. Pero sobre todo el tema del comercio. El tema banca también es importante. Yo esperaría que si le diéramos un empujón. Y el tema también de terminales autoservicio. Hemos comentado antes, pero por entrar pues está desde el tipo, el tipo número, esta maquinita que vas a pedir el turno y te da el numerito, que ahora están en todos los sitios, hasta en la farmacia. Yo ya la he visto en una de mis farmacias cercanas. Ahí está puesta. Está, por supuesto, los cajeros, que ahí sí se habla siempre de que se está trabajando. Hay entidades que han hecho esfuerzos grandes en accesibilizar sus cajeros, además de algunos de manera muy ingeniosa, como por ejemplo estableciendo una conexión con el teléfono, que es el teléfono tuyo, el móvil, el que te va verbalizando los mensajes que aparecen en pantalla del cajero. Eso lleva tiempo ya funcionando. Temas también de TPVs, sobre todo terminales de pago. Y esto es importante porque el TPV yo entendería y diría que está cubierto porque es un terminal que está ejecutando una función de cara al consumidor, que es ser terminal de pago y además está incluido y reconocido en esa directiva. Por lo tanto, a día de hoy que los TPVs ya muchos tienen pantallas táctiles que no se puede meter el pin, pues eso sí ha sido un problema para las personas con discapacidad, sobre todo visual. Y bueno, pues yo espero que eso lo puedan ayudar a resolver. Tengo curiosidad, ¿cómo puedes tú meter un pin si no tienes feedback del sonido en el TPV? Pues de la misma forma que podemos usar a día de hoy ya móviles y tables que no tienen teclado físico ni botones ni nada, puede haber un lector de pantalla que esté incluido en ese firmware de esa máquina y que según tú vas arrastrando el dedo por la pantalla o según vas haciendo una serie de gestos predeterminados, él te pueda ir dando feedback auditivo sobre el pin que vas a meter o incluso también sobre la pantalla que tienes delante o el dinero que vas a pagar, etc. Eso hay algún ejemplo que ya yo llevo tiempo siguiendo y que funciona. El display que todavía es un poco pobre aún porque como decíamos antes, al final este tipo de productos pues uno los compra, una empresa los compra y dice, bueno, yo esto no lo voy a tirar ahora porque llegue la normativa de accesibilidad o cualquier otra. Al final el producto se compra y se tiene esperanza de que eso tenga una vida útil y hasta que no se rompa o no se estropee, pues no se tiene. ¿El feedback del usuario ciego es a través de un sonido, de un altavoz en el propio TPV? Y al mismo tiempo que lo escuchas tú, como introduces el pin, ¿no lo escucha la persona que te está cobrando? Pues lo podría escuchar, igual que te podría mirarte a ver cuáles son los números que pulsas en un teclado que no es táctil, ¿no? Efectivamente, eso siempre existe y ahí o bien te lo quedas tú un poquito y el otro se retira o tal, o tratar de que no... Sí, sí, eso siempre va a existir. Yo no creo, ahora mismo no lo recuerdo, pero no creo que haya un... que le puedas enchufar un jack, por ejemplo, un casco o lo que sea, no creo que se pueda hacer eso. ¿Tienes algún ejemplo de esto que podamos escuchar? Sí, yo creo que la Kaisa tiene unos... que está probando nuevos ahora, unos TPV nuevos, yo creo que desde el año pasado se lleva haciendo alguna prueba piloto y yo creo que sí, sí podríamos intentar probarlo, vamos a intentarlo. Venga, pues a ver cómo suena. Vamos ahí, cuando puedas. Sí, ahora yo solo. Vale. ¿Tienes el del muñeco ese que dice Fernando? A ver si le probamos, a ver si habla el TPV. Dale al muñeco, me parece que sale abajo a la izquierda, ¿no? Dale dos veces. A ver, una y dos. Ahora no dice nada. No, ahora no. Si lo mantengo pulsado... A ver, sí, prueba eso y si no, pues... A ver, pones realizar venta y luego me pone aquí como una... pero me sale distinto. Ahí está, mira, ahí está. ¿Y cómo lo has hecho entonces? Igual, nada más que manteniéndolo así pulsado. Ah, pulsado ¿cómo? Esta gente tiene malas instrucciones, ahí está. No es darle dos veces, es dejarlo pulsado. Pues muchas gracias, Tere, hombre. Eso es otro servicio. Ahora, ya nos vamos a ver de una cosa más. No tiene nada que ver. Salud, hombre. Bueno, pues no, tiene mala pinta. Y entre los temas que se han quedado fuera y los que han entrado, ¿por qué unos se han podido quedar fuera cuando consideramos que son importantes? Fundamentalmente se han dejado fuera temas que o bien se ha considerado que requieren mucho trabajo manual. Que para hacer un documento accesible, pues más allá de que haya gente que te prometa muchas cosas y tal, al final la realidad es que muchas veces hay que siempre ir al manual. Y, por lo tanto, son temas manuales, son temas que van a requerir mucho trabajo de implementación y mucho coste. Entonces, al final se tiene que llegar a un mínimo común, como decíamos antes, para que esto pueda tener algo de vuelo, para que no sea algo que no sea seguido por los grandes fabricantes y que al final no consiga el objetivo que pretende. Sobre todo ese es el planteamiento, el planteamiento, el coste y la dificultad de aplicar ciertas cosas, lo que ha hecho. También entiendo que dentro de la Unión Europea hay muchos países y no todos están a la misma altura en diferentes cosas y una de ellas es necesidad. Hay unos que acaban mejor de entrar o que llevan poco tiempo, que no saben muy bien qué es de qué va. Y otros, como quizás España, que está un poco más adelantado, pero no todos tienen el mismo nivel. Sí, sin duda. De hecho, cuando hablábamos antes de armonizar el mercado común, es eso. Al final hay países, sí, aquí tenemos obviamente problemas, como los tiene todo el mundo, pero hay una base mínima que sí tenemos. Yo ahora, por ejemplo, veo la administración pública de ahora y la comparo con la que había antes de la pandemia. Tampoco hay que irse muy lejos. Hace siete o ocho años hay cosas que ahora se pueden hacer y antes era imposible. ¿Que sigue habiendo cosas que no se pueden hacer? Sí. Ahora hay alguna más que sí se puede hacer. Hay otros países en los que solo es impensable. Todavía tienen que hacer mucho. Vivimos en época de eufemismos y los políticos los utilizan con una facilidad pasmosa. De hecho, hemos llegado a llamar a las personas bajitas personas reducidas verticalmente, por no llamarles enanos o acondroplásticos. Y junto a la accesibilidad hay un término que yo en parte comparto, pero que creo que se utiliza como din, para muchas veces no hacer las cosas, que se llama ajuste razonable. Y el ajuste razonable no tiene una definición concreta. Sería realmente no hacer algo cuando el gasto o el trabajo es desproporcionado para el efecto que va a tener. Pero ese término es una visión particular. Yo lo he visto que se utiliza, veo que se utiliza muchas veces para no tomar decisiones firmes en cosas que, lógicamente, igual ahora no tienen calado, pero hay que hacerlas ya para que luego ese ajuste no sea necesario, porque la gente lo va a utilizar. Entonces, es una circunstancia que a mí me llama mucho la atención y que supongo que entre los criterios que se habrán llevado a cabo habrán estado ahí también los ajustes razonables. Decir, oye, ¿cómo vamos a hacer esto? Si esto va a ser desproporcionado o no. Sí, de hecho, los ajustes razonables y la carga desproporcionada, que es también la otra terminología que se ha utilizado, eso está desde siempre. En todas las legislaciones que ha habido está. En la 508 tienen terminología parecida. Pero sí es verdad, y yo particularmente comparto que a veces se utiliza sin que tenga realmente mucho sentido. Alguien puede llegar y decir, no, esto para mí es una... Como no tengo mucha idea de cómo hacer esto, pues es una carga desproporcionada el hacerlo. Ahí es verdad que va a costar mucho trabajo que se pueda dejar o que la gente pueda dejar de estar tentado, de tirar de esa posibilidad que tienen. Pero se requiere también bastante formación y bastante capacidad de enseñar y de que la accesibilidad entre ya no solamente en los ámbitos más técnicos, sino también en los ámbitos jurídicos, que es realmente también el campo de batalla que yo también creo que deberíamos de seguir para que no sea tan fácil convencer a un juez o un abogado o una administración de decir, si esta persona dice que para él esto es una carga desproporcionada o que esto es imposible de hacer, pues sí, venga, tiene razón. No le vamos a decir que tiene que cumplir. Es complicado, pero a la vez también puede haber razones por las que sí sea legítimo hablar de carga desproporcionada. Sí, sí, no, no. Ya he dicho que en parte, en muchos casos estoy de acuerdo y que veo que hay movimientos que verdaderamente tendrían poco efecto fuera e igual lo reclama alguien y es un tema tan singular y tan individual que no merece la pena movilizar a todo el mundo para hacer esto, pero otros creo que se escudan ahí. Y hablando de esto, y ahora ya sí que estoy hablando de leyes y reglamentos, es decir, la opción muchas veces es la de sancionar. Aquí decimos que en principio no hay reglamento, no hay régimen sancionador, ni nada. Pero la LISMI, la Ley de Inserción Laboral y todo eso, que ya no se llama LISMI, no sé qué nombre tiene ahora, sí que al final sacó un reglamento sancionador. Pero tampoco es la solución porque como persona con discapacidad yo tengo una necesidad en el mundo exterior de hacer una gestión, de hacer unos trámites, de hacer lo que sea, y la tengo, y a mí no me sirve que alguien no cumpla como pasaba con la LISMI y que pagara una multa de 50.000, 100.000, 200.000 euros para... Si la pagaba. Sí, sí, la pagaba. Aquí, bueno, por lo menos nos decía la inspectora todos los años cuando nos reuníamos con ella que la pagaba. Supongo que ella también tendrá que decir eso, ¿no? Aquí había, no sé si seguirá en activo, una inspectora de trabajo que se ocupaba concretamente de la inserción laboral de personas con discapacidad en el entorno laboral, lógicamente, y, bueno, se reunía mucho con asociaciones, organizaciones y demás. Y ella sí que nos decía eso, nos contaba siempre batallitas de... No sé si daba nombres y apellidos, pero sí... Pero no, que a fin de cuentas yo en aquel momento, y lo sigo pensando ahora y lo sigo pensando también para este tipo de acta, directiva y demás, que a mí no me soluciona nada. Primero, que, claro, que sean tan condescendientes y que, bueno, no pasa nada, todo... Bueno, no pasa nada y todo se puede alargar. No, no, es que yo vivo cada día, yo tengo la necesidad cada día. Entonces, bueno, hay que entenderlo porque, bueno, hay que entenderlo. Hay que entenderlo tú que no tienes la discapacidad ni la necesidad, pero yo la tengo, yo no lo entiendo. Por lo menos yo no sé cómo lo veréis eso vosotros. No, bueno, no pasa nada. Si no cumplen, se les sanciona. ¿Y a mí qué más me da? Sigo sin poder hacer lo que necesito. Yo quiero normalizar mi situación. Yo no necesito, ¿sabes?, todo este tipo de historia. Entonces, creo que dentro del discurso político, dentro de lo que es la gestión de la accesibilidad entre instituciones, organizaciones, organismos y política, bueno, se habla mucho de esto. En términos políticos, como si fuera cualquier otra norma o ley, pero no nos estamos dando cuenta que verdaderamente les estamos imposibilitando realizar cosas de la vida diaria, normales, a personas que lo necesitan. Y yo es una sensación histórica que tengo y creo que puedo hablarlo porque llevo mucho tiempo metido en esta historia. Y miro y me sigo viendo casi, no en el mismo punto porque sería injusto, pero, bueno, siempre con la misma sensación. Yo creo que son importantes las dos cosas, los dos lados. Yo cuando suelo dar charlas de esto de accesibilidad, suelo decir, un poco así, medio romano, que hay que hacer cosas accesibles o por amor a Dios, como le suelo decir por responsabilidad social corporativa, que no me gusta nada utilizar este argumento, por negocio, porque siempre queremos vender más y mejor, porque no podemos dejar de lado el 15% de la población, etc., o por temor al infierno. Las sanciones, yo creo que también son muy importantes, pero sanciones de verdad, sanciones ejemplares. Dejar a una empresa durante 10 años sin poder acudir a concursos públicos es una sanción importante. No lo que decías de una sanción de 100.000 euros, que prefieren muchas veces pagar ese dinero que gastarse eso en hacerlo accesible. Tienen que ser sanciones que duelen. Sí, yo creo que la sanción es una de las herramientas, y entonces, de la misma forma que nosotros cuando estamos utilizando tecnología y tal, decimos, no, bueno, tenemos una serie de herramientas y las queremos utilizar todas. Pues en este caso, todas son herramientas que debemos utilizar. Yo no creo que la sanción como tal se deba de desterrar. Tampoco creo que sirva como único elemento, como se ha visto. Al final, tú puedes tener todas las sanciones que tú quieras, las puedes aplicar o no las puedes aplicar, pero al final eso por sí solo no es lo que va a determinar el cumplimiento. Hay mucho que hacer en materia formativa, hay mucho que hacer en materia de intentar que las herramientas a día de hoy, la mayoría de lo que se hace, tanto, da igual que sea web, móviles, documentos, la mayoría de lo que se hace ya tiene mucho de automatización, bien sea porque lo hacemos con una herramienta que lo genera o que lo formatea o que lo diseña. Por lo tanto, si esas herramientas no son accesibles en la generación de ese contenido, al final vamos a tener muchísima más dificultad después para hacerlo accesible. En definitiva, yo sí creo que las sanciones son importantes y, como decía Arturo, aquí que te quedes sin vender un producto sí puede ser un problema. Ahora bien, si no garantizamos el cumplimiento de la legislación, ahí es donde tenemos el problema. Yo esto, bueno, vamos a ver, ha entrado ahora en vigor, evidentemente va a pasar tiempo, porque como hemos dicho antes, si tú tenías un producto o un servicio anterior al 28 de junio, pues lo puedes seguir utilizando y tienes ahí unos años. En el caso de webs son cinco, hay diferentes ámbitos temporales, pero si alguien de verdad empieza a tomarse esto en serio y dice, bueno, pues este producto no cumple con los mínimos de accesibilidad, no se puede vender en Europa, en el conjunto de la Unión. Ahí sí hay, es un punto de inflexión para mí. Claro, las empresas que son van a intentar maximizar su rentabilidad y todo lo que pueden ahorrarse se lo van a ahorrar. Entonces hay que obligarles también a que cumplan unos ciertos criterios mínimos. Igual que si montas un restaurante, pues tienes que cumplir en sanidad, tienes que cumplir con la normativa en la cocina, en la extracción de humo, no sé qué, tienes que cumplir un mogollón de legislación. Pues esta es una más de las que tienes que cumplir, porque sí, sin más, ya está. Una pregunta, con sinceridad, lo que le voy a preguntar. Esto es como los algoritmos que le ponen a las redes sociales, donde a uno se lo ponen y piensan que todo el mundo le gusta lo mismo que a él y que todo el mundo tiene la misma ideología que él y todo esto. Es un algoritmo. Para el tema este de la accesibilidad, vosotros trabajáis en ella, genial, pertenecéis a una organización también de personas con discapacidad y realmente es una temática que os interesa. Todos hemos estado pendientes desde este último año y antes de esta acta y tenemos una información superior a cualquier otra persona. ¿Vosotros pensáis que la empresa tiene conocimiento de esto? ¿Realmente? ¿Vosotros pensáis que las empresas cuando vean esto publicado les va a hacer algún tipo de mella? Yo creo que para muchos productos y servicios que están ya en circulación no es la primera vez que les aplica una normativa de accesibilidad. Si hablamos, por ejemplo, de páginas web, de aplicaciones móviles, sobre todo en servicios, la legislación española determinaba que si tú facturabas un número determinado, no recuerdo exactamente cuál era la cifra, pero un número determinado de euros al año tú tenías que cumplir y tal. Por lo tanto, si la empresa lo que argumenta es que esto es la primera vez que lo he oído y que no tengo ni idea de que esto ahora me supera, pues es un argumento pobre y a mí me parece que no es de recibo que solo lo sigamos justificando. Para otros productos sí, desde luego. Para otros productos es verdad que es ahora, pero también te digo, esto lleva ya aprobado desde el 2019, se aprobó la directiva y se ha dado seis años de plazo para que entre en vigor. En todos los comités de trabajo están Industria, Comisión Europea, organizaciones de personas con discapacidad, y esos comités no es ahora que se han formado, llevan formado mucho tiempo, y por lo tanto no es algo que se pueda argumentar que es de nuevas. Bueno, no, de nuevas no es, pero qué sensibilidad tiene la empresa, cómo se va a enterar de lo que estoy diciendo, es decir, ¿la difusión es suficiente? ¿No le va a aparecer en su declaración de la renta algo como una advertencia, oiga, usted ha hecho esto, lo tiene al día? ¿Cómo se va a hacer? Porque si es por una publicación en prensa, ya te digo que nosotros podemos morir de éxito porque tenemos toda la información, pensamos que lo hemos hecho todo lo que debíamos, todo está fenomenal y demás, pero ¿cómo llega la empresa? Una empresa, una microempresa de diez trabajadores o que facture menos de dos millones de euros no tiene obligación de poner estas directivas en marcha. Entonces es otro sector que se queda fuera, es decir, no sé, yo veo que se está siendo muy benévolo o muy condescendiente con todo esto. Sí, efectivamente, las microempresas no lo hemos comentado, que no están incluidas, es decir, y efectivamente microempresas es todo lo que esté por debajo de esos diez que tú has comentado, me parece que son diez empleados menos y demás, entonces esos están fuera sí o sí. La directiva regula esto de manera que el peso de gestionar el incumplimiento lo pone en manos de una cosa que llaman autoridades de vigilancia, que la directiva, como decimos antes, no define quién va a ser la autoridad de vigilancia, eso se lo deja al estado miembro que traspone la legislación y en el caso del gobierno de España han dicho que cada comunidad autónoma va a tener una autoridad de vigilancia, lo cual efectivamente para mí no es el mejor de las aproximaciones, pero es la que hay. Con lo cual, si uno tiene constancia, si un usuario, me refiero, si un consumidor tiene constancia de que el producto o servicio no cumple y que no está exento por lo que hemos comentado del alcance de la legislación o también por el tema de que es un producto antiguo, es decir, si hay forma por parte que se pueda justificar del proveedor que eso es antiguo y que tienen todavía tiempo para hacerlo, pues no se debería decir, pero si hay indicios se tendría que recurrir a la autoridad de vigilancia que cada comunidad autónoma designe, que está por saber quién es exactamente en cada comunidad autónoma, quién lo va a hacer. ¿Habrá inspecciones de oficio? ¿Será vía denuncias de particulares, de asociaciones? Será más lo segundo que lo primero y de la misma forma que la directiva de la web que aplicaba al servicio público, esa del 2016, sí tiene unos ámbitos claros de monitorización y los países tienen que rendir cuentas, tienen que dar un informe cada año de cómo está su sector público. En este caso no es tan, se deja más al que se notifique el incumplimiento, bien sea por parte de los usuarios, por parte de las autoridades de vigilancia o por parte de cualquier otro actor. Vamos, que lo llevamos claro. Bueno, ahí está la sociedad civil y sobre todo en los momentos de la discapacidad, a nivel de reivindicación, cómo se organizan. Eso también es importante. Una de las cosas que hace que estas cosas tengan futuro y que tengan recorrido no es solamente que se pongan en el papel, sino que luego se cumplan. Es verdad que el mecanismo es engorroso, es un mecanismo un poco engorroso, pero no es imposible si uno tiene claro. Ahí está el Observatorio Internacional de la Discapacidad que va a ser el organismo que, en teoría, por lo que yo entiendo, después de haberme leído la transposición, que va a ser el organismo que coordine, o el CEAPAT, no sé muy bien exactamente quién lo va a hacer, pero va a haber un organismo estatal que coordine a todas estas 17 o 19 autoridades de vigilancia y habrá que llamar a todas las puertas. Eso es así. Vivir no es fácil para alguien con discapacidad y esto tampoco iba a ser fácil. Por facilitarnos las cosas, efectivamente. Por hacernos la vida más fácil. ¿Va a haber un impacto real en el día a día o cómo lo ves? Yo creo que el impacto a corto plazo va a ser muy poco. Solo lo nuevo está por dar el borrochazo gordo, pero solo lo nuevo, lo que salga ya en estos días o a partir del 28 de junio, cuando entró en vigor, está obligado, dentro del alcance que está definido y demás. Lo antiguo se puede argumentar y se puede justificar en la próloga. Entonces, yo creo que esto es más un tema a largo plazo. Yo creo que esto, al final, estamos viendo los primeros pasos. Estas cosas van despacio. Si miramos hace 20 años, no sabemos qué va a pasar. Si miramos hace 20 años, no estaba el iPhone, por ejemplo. No había accesibilidad, como la conocemos ahora, en los móviles táctiles. Fue después, cuando salió, por el motivo que hemos hablado de la sección 508. Yo creo que hasta dentro de unos años, muchos años, no vamos a ver un impacto real. Pero sí creo que estamos poniendo las bases para que eso sea más fácil de llegar, porque estamos hablando de un número muy grande de clientes a los cuales tú no vas a poder acceder si no cumples. Ahí sí es un tema que yo creo que es determinante. Pero estamos hablando de años y de muchos años. No estamos hablando de 2 ni de 3. ¿En qué momento realizo yo un producto no accesible e intento venderlo en Europa siendo un creador, un productor de aquí, de España, de la Unión Europea? ¿En qué momento ocurre eso que yo intento venderlo y me dicen oiga, mire, no, es que este dispositivo no es accesible y usted no va a poder venderlo aquí? Eso ahora no es así, ¿no? No, hombre, ahora mismo no es así porque no tenemos claro todavía cómo va a ser el mecanismo que lo regule, pero sí hay una serie de declaraciones un poco, digamos, voluntarias, como decíamos antes, que el distribuidor y el fabricante tienen que cumplimentar, es decir, oye, yo esto cumplo con esto, igual que uno justifica que se cumple con determinados estándares de la calidad y que se habla en la directiva del logotipo de la Unión Europea, entonces eso también va a incluir declaraciones voluntarias de los fabricantes en el sentido que ellos creen que cumplen y justificarán cómo cumplen con la accesibilidad. Luego, efectivamente, tiene que haber vigilancia y por eso se llaman estas autoridades de vigilancia, porque si ellos ven que hay un producto que no cumple, pues son ellos los que tienen que informar al organismo coordinador, en este caso de los países, que de cada país, y que eso luego tenga implicaciones a nivel de la Comisión Europea. Pero es a nivel, como lo hace, es a nivel de una declaración voluntaria, como las que pueden existir en Estados Unidos, está el VAT, Voluntary Accessibility Template, me parece que se llama el documento, que es básicamente una plantilla que tú rellenas como empresa y dices, mira, yo cumplo con la accesibilidad de esta manera, con estos criterios y con estos otros criterios. Aquí todavía no está claro eso, pero tendrá que haber una forma similar en la que cuando tú vas a introducir un nuevo producto, que es donde realmente está el kit de la cuestión, lo puedas justificar. Debería existir esa vigilancia, ¿no? Igual que hay países en los que no se puede comercializar un dispositivo electrónico, por ejemplo, que no tenga manual de instrucciones en el idioma de ese país, que no es el caso de España, por ejemplo. O sea, hay países, que creo que, recordar que Francia, pues no se puede... Francia es uno, sí. Y que no se puede vender tampoco un teléfono móvil que no tenga auriculares. Como, por ejemplo, iPhone tuvo que venderlo con auriculares, creo recordar también que en Francia, pues también debería, pues otro punto de esa checklist, pues debería ser este, ¿no? Otra cosa que, bueno, que lo consigamos. Requisitos de accesibilidad. No hemos hablado mucho de los estándares voluntarios. Claro, ahora mismo está todo todavía un poco en pañales, porque la directiva ha entrado en vigor, pero los estándares que van a facilitar el que se pueda objetivamente determinar si cumple o no cumple un producto, esos estándares están todavía en proceso de actualización. La idea es que estuvieran listos para septiembre de este 25, por lo menos el de accesibilidad digital, pero no va a ser en septiembre, va a ser más tarde. No quiero decir fechas, porque luego al final se queda uno, como que has dicho que iba a estar y no está. No sé muy bien exactamente cuándo lo van a terminar. Entre el año que viene, finales, y el 27, principio, debería estar. Pero mientras esos estándares no estén desarrollados, yo sí veo que hay muchos, cuando les pregunten, van a decir, no, no, es que yo no tengo muy claro cómo objetivamente se puede determinar el cumplimiento. Más allá de que la directiva me dé unos requerimientos y tenga unas tablas ahí que yo pueda mirar y tal, pero eso no es suficiente. Estamos todavía poniendo el andamiaje para que esto se pueda objetivamente demostrar y queda tiempo. Hablando de estándares, recomendaciones web y todo esto, ¿qué papel juega el W3C? El W3C tiene incluido en el estándar de accesibilidad digital, el EN 301549, tiene incluido las pautas de accesibilidad al contenido web. Cuando salga la actualización, estarán las 2.2. Ahora mismo está la 2.1. Cuando salga, estará la 2.2, que mejora algunas de las provisiones que había, sobre todo para web móvil, para tema de discapacidad cognitiva, baja visión, etc. Entonces, eso es lo que tenemos. Además, también tenemos gran parte de las pautas que el W3C proporciona para aplicar la WCAG a productos y documentos que no son web. Gran parte de eso está metido en el estándar también. Se hace mediante una técnica que es la referencia directa, es decir, no es que se copie y se pegue el estándar, pero sí se pone una referencia directa, es decir, se tiene que cumplir. De hecho, el estándar lo tiene estructurado en cláusulas, que son muy parecidas a los criterios de verificación de las pautas. Lo que dice el estándar es que si el producto es una web, tiene que cumplir con el criterio de accesibilidad. Va enumerando cada criterio. Y con los productos y software no web, pasa tres cuartos de lo mismo. También tiene que decidir todavía la comisión sobre cuál es el estándar que se va a aplicar para los libros digitales. El W3C desarrolla el estándar EPUB y también tiene módulos de Wiaria específicos para publicaciones EPUB. Y ese es un poco el peso que tiene. El estándar, digamos, es europeo, es un poco más amplio. Tiene requisitos también de dónde se tiene que posicionar, por ejemplo, los subtítulos, que las pautas no te dan indicación de dónde se tienen que posicionar, pero el estándar sí te lo da. Es amplio un poco más, pero básicamente es las WCAG, es el WCAG to ICT, que hemos dicho antes, y es el EPUB si la comisión finalmente decide que ese es el estándar que quiere utilizar. Pero, por un lado, el W3C, a través de las WCAG, son recomendaciones, ¿no? Pero, por otra parte, luego hay legislaciones, en nacionales sobre todo, que las toma como propias y pasa a ser algo normativo y obligatorio de ese país. A veces la gente se hace un poco de lío con estas cosas. Correcto, es que, claro, está muy bien traído porque, efectivamente, todos los estándares que produce el W3C son, se podríamos llamar en español, normativas técnicas. Ninguno de esos estándares, por sí mismo, es ley. Para que sea ley, tiene que haber un legislador que diga, oye, esto que a mí me gusta y me parece que está bien, pues esto lo voy a hacer yo ley. Bien sea a través de decir, esto se tiene que cumplir, metiendo en la ley una referencia al estándar, o bien sea, en algunos casos ha ocurrido, no es lo preferible, porque, entonces, el día que salga una actualización de las WICA, la ley hay que actualizarla mucho más. Cuando se copia y se pega el texto de la WICA, hay que actualizar la ley, no solamente para apuntar al sitio nuevo, sino para, encima, meterle los críteres. Pero sí se puede hacer de ambas formas, bien sea mediante referencia directa o mediante inclusión del texto de las normas técnicas. Antes comentaste, Dani, que, probablemente, dentro de lo que es el acta, la parte digital, concretamente también de la web, es la que mayor transformación va a sufrir y, probablemente, donde los pasos son más cortos para que se cumplan ciertas cosas y donde vamos a notar que, verdaderamente, ese entorno es más accesible. ¿Es así, no? Sí, yo creo que sí. Yo creo que, al final, es ahí donde va a estar el mayor avance, porque es lo más plausible. Al final, más allá de que todo tiene un coste, evidentemente, y el que le pregunte está diciendo que a él le cuesta mucho cambiar su web, pero es mucho más realista pensar que se puede actualizar una web que que yo, después de haber hecho una inversión milmillonaria en cajeros automáticos que estoy desplegando desde el año 20, pues ahora los voy a cambiar todos para hacerlos accesibles. Eso es más complicado. Venga, pues vamos a hablar, entonces, de todos esos productos que no son la web, que también muchos de ellos, lógicamente, se asientan en lo que es un entramado digital, pero, verdaderamente, son bienes y productos que accedemos a ellos diariamente en nuestro entorno, o en el comercio, o en cualquier sitio. Si queréis, vamos un poco comentándolos y un poco las mejoras que podemos experimentar. Ya hemos citado alguno, como puede ser el TPV, los cajeros y demás. Bueno, básicamente, ¿dónde podemos encontrar o qué es sensible de que esta acta lo penetre y lo modifique o lo haga más accesible? ¿Qué tipo de producto? A ver, aplicaciones móviles, por ejemplo. Yo creo que ahí sí puede haber también un avance, en el sentido de que ahora sí, claramente, se hace referencia a que producto digital significa web y aplicaciones móviles. Documentos ofimáticos, que sí es verdad que los antiguos, los delanteros del 28 de junio, no están obligados a cumplir, pero los nuevos, en teoría, sí, de los ámbitos de aplicación. Se me ocurre uno, por ejemplo, un billete electrónico. A día de hoy, si tú tienes el billete, a lo mejor que lo puedes poner en el passbook, si estás en iOS o en lo similar que haya en Android o tal, ahí sí, porque el formato... Billete de transporte, dices. Sí, claro, un billete de transporte, efectivamente, pero si tú tienes a día de hoy un billete que compras por ahí en una web o tal, no siempre son accesibles. Eso también está incluido, si tiene que ser accesible. ¿El billete ese que va a ser accesible, pero luego el autobús o el tren? A lo mejor sí, a lo mejor no. Claro, los interurbanos y los urbanos están excluidos también, con lo cual solamente estamos hablando de trenes de larga distancia y, obviamente, sí, aviones y tal, pero todos los autobuses urbanos e interurbanos están fuera. Con lo cual, sí, sí, pero el billete sí, el billete sí tiene que ser accesible. Una de las cosas que se utilizan mucho son las plataformas de televisión, vídeo, tipo Netflix y todo esto. ¿Hay algo legislado para que la gente...? Sí, sí, sí. A nivel de hardware, las televisiones inteligentes están incluidas. Si vas a tener una televisión inteligente, tiene que ser accesible, con requerimientos de software, fundamentalmente, porque, al final, a día de hoy ya va todo más tirando al software, pero, bueno, algún requerimiento de hardware también tiene que haber. En el caso, por ejemplo, de los cajeros, el estándar, el N301549, tiene, a día de hoy, el requerimiento de que el cajero automático tiene que tener un... Si vas a proporcionar salida mediante síntesis de voz, tiene que tener un jack para conectar el auricular. Eso es un requerimiento del estándar, del N301549. Se habló de cambiar eso por un USB o por un Bluetooth, pero, en principio, eso sigue así. Entonces, las televisiones sí, por volver a lo que me preguntabas, que me dio un poco del hilo, los servicios de entretenimiento, de audio y vídeo, también tienen que ser streaming, accesibles, y los contenidos multimedia tienen que ser accesibles. ¿En porcentajes o tienen que ser todos accesibles? Lo nuevo tiene que ser. Lo viejo no, lo viejo se queda ahí, pero lo nuevo sí. En esto, de lo nuevo y lo viejo, hay cosas curiosas dentro de lo que se adapta. Es decir, si cualquier cajero o máquina de vending que ha instalado antes del 28 de junio, tiene hasta 20 años de demora para poderlo cambiar. 20 años, lo voy a repetir, 20 años que puede estar funcionando sin accesibilidad. La justificación que se da a eso es dependiendo del ciclo de vida esperado del producto. Si nosotros llevamos esto a un tema, que yo no soy experto en contabilidad, si lo llevamos, yo me compro un ordenador y yo el IVA que me puedo desgrabar del ordenador que me compro este año, no es, si soy una empresa, que si eres un particular no te puedes desgrabar, pero si eres una empresa, no va a ser todo el IVA, va a ser año a año, porque hay unas tablas de amortización donde se establece que, oye, pues este modelo, este tal, tiene que durar cinco años, este otro da diez, este otro... Entonces, esto es por lo que se ha hecho así, porque realmente hay una serie de productos cuyo ciclo de vida es el que es. Entonces, pues sí, hay cajeros que se despliegan ahora y que van a durar muchos años, efectivamente. Eso sí es así. Hay otros que sí están haciendo ya, como he dicho antes, porque esos cajeros funcionen, a pesar de que sean antiguos. Quiero decir, hay una entidad bancaria que tiene una funcionalidad para que tú conectes el móvil, que ese móvil se conecta a una pasarela web, o sea, el móvil ve el cajero por Bluetooth, pero realmente no es a través de Bluetooth, a través de lo que se están enviando esos mensajes, porque no sería seguro y la industria lo ha rechazado, pero sí se conecta el móvil a una pasarela web, donde el cajero vuelca esos mensajes, el móvil los recibe y los verbaliza. ¿No mencionar la entidad es por algo que no puedes o porque...? No, es el BBV, la entidad, vamos, no tengo ningún problema. Vale, vale. Ya que a uno que lo hace bien, hostia, por lo menos darle a BBV. Bueno, ha hecho bien eso y luego ha sacado la aplicación antes del 28, que ya se gana unos cincuenta y dos, en teoría, porque sí es verdad que, por eso digo que la organización del colectivo de la discapacidad y la reivindicación y que la gente esté deseando de mover un poquito el manzano, pues también me sirve porque si realmente esa aplicación se va a ir actualizando progresivamente y en septiembre o octubre sacan una actualización que sigue sin ser accesible, pues ya no es viejo, eso ya se ha actualizado, deberíamos de tener... Sobre todo por el dinamismo que tienen ahora las aplicaciones, que se lo pregunten a MetaEye, que está continuamente actualizándose. Tan pronto dan una de calcúmula de arena. El BBVA tenía una app móvil que era ejemplo a seguir en todo el sector y de repente la han actualizado y han ido para atrás varios años. Ahora es súper complicada y súper inaccesible. Es una de las cosas más frustrantes a nivel, si me permitís el desahogo, y Arturo tú también lo sufrirás, porque al final yo sí estuve muy involucrado con ellos y además habían desarrollado unas políticas y unos procedimientos que les permitían a ellos tener... En fin, no había un componente que no se testara para tema de accesibilidad. Todos los componentes que salían se probaban y tal. Pero eso se va al traste. Cuesta hacerlo a 10 o 15 años y en un ratito se va al traste, porque alguien no lo... Entonces eso sí es un problema y por eso creo que, como hemos dicho antes, a nivel de automatización es donde está el... Pero ¿es ese el análisis? ¿Por qué se ha ido al traste? Lo debéis saber. ¿Por qué se ha ido al traste eso? Porque ahí está el problema. Yo no lo sé y te digo, aunque lo supiera... ¿No lo dirías? No me lo podría decir. Porque verdaderamente es para estar muy preocupados. Vamos a ver, yo entiendo que cuando tú comentas que ha habido una labor tanto tuya como de toda la organización donde está y eso, y estabais muy contentos y estábamos... No, te hablo de antes. Yo... No, el W3C no hace ni consultoría ni auditoría. Yo te hablo de mi... Bueno, de la otra etapa. Sí, sí. Y estabais muy implicados y verdaderamente se veía que había... Y de repente algo pasa, que todo ese conocimiento, todas esas habilidades, todo ese valor, porque vamos a hablar de cómo se tiene que hablar, es decir, todas las mejoras de accesibilidad, dentro de una app, no es para la gente con discapacidad, es para cualquier ser humano que por efectos de la vida va perdiendo facultades. Entonces, es que, claro, yo vuelvo a decir lo mismo, igual estoy ya cada vez un poco más punky, ¿no? Pero esto es así, maldita la gracia de pertenecer a la discapacidad y a cualquier historia y que trafiquen con los políticos con esta palabra y con estas circunstancias. Es decir, no, no, no, no. Vamos a ver, aquí tenemos necesidades los humanos, necesidades en cualquier momento de la vida, estemos catalogados como tal, denominados como tal o no, es que las tenemos y cuesta lo mismo hacerlo bien que hacerlo mal. ¿Quién lo han entendido de esto? Porque más básico no puede ser. Bueno, lo mismo tampoco cuesta hacerlo bien, qué malo, a veces cuesta un poco más hacerlo bien, dependiendo de qué punto partamos, claro, si partimos de cero, el coste es marginal y es pequeño, si partimos de una app, de una web, de un servicio que ya está hecho, pues puede ser importante, ¿no? Depende de en qué punto nos encontramos. Ahora, desde que se conoce, hacerlo bien cuesta lo mismo que lo otro y la gente lo va a seguir haciendo mal. ¿Tú piensas que después de este acta la gente lo va a hacer bien? Luego depende del sistema de prioridades que tengamos, ¿no? A la hora de poner una app, un servicio en producción, depende de lo que la empresa en cuestión quiera hacer y cómo lo priorice. Si ahora, por ejemplo, que está muy de moda y creo que en este caso que estamos hablando algo de esto ha habido, que han querido hacer una app que la han remodelado completamente desde el punto de vista del IAO, pues si para hacer eso tienen que pasar por encima de otros puntos, de otras prioridades, que no son bloqueantes, pues han pasado por encima de ellos. Si es la cesaridad, como otros puntos, igual que la seguridad, por ejemplo, en un banco es un punto crítico, es un punto bloqueante. No sale una app si alguien dice que es insegura. Efectivamente, es un punto bloqueante. Las apps siguen saliendo, aunque sean inaccesibles. Pero eso no pasa con accesibilidad. En Apple, en Android, en todos los sitios tenemos esa... Pero la accesibilidad no es un punto bloqueante. Si no es accesible, igual, tira para adelante. ¿La banca sabe cómo está envejeciendo la población española? ¿Y qué? De tal manera, Ricardo, fíjate, ahí ya entramos y nos vamos un poco del... Pero, ¿cómo está envejeciendo la población española? ¿Realmente las necesidades de accesibilidad de una persona mayor...? Va a haber algún solapamiento con las necesidades de una persona sorda o ciega. Pero el solapamiento está muy definido. Las necesidades son diferentes, por lo tanto, al final, yo no lo centraría más o menos en si hay necesidades de envejecer la población o tal, sino, oye, esto lo tienes que hacer porque ellos estaban obligados de hace ya mucho más tiempo que ahora este acta, este acta europea. Lo único que va a hacer es armonizar, es decir, que sea el mismo requerimiento, o mucho más parecido aquí que en Francia, que en Italia. Pero los bancos han estado obligados a ser accesibles desde hace ya bastante tiempo, porque todos facturan más de X cantidad que ponía la legislación, porque todos pertenecían, digamos, a sectores estratégicos que la legislación también los definía. Entonces, esto, al final, es un cálculo que alguien dice, bueno, yo sé que esta nueva acta me permite este ejercicio, por el cual no me van a poder pillar, tengo X tiempo para resolverlo. Y puedo pasar sin resolverlo. Y es una impotencia grande la que se siente muchas veces, pero al final, pues estamos en el... ¿Puede pasar sin resolverlo? Relativamente, ¿no? Es decir, cuanto a los clientes... Sí, claro, hasta que llegue el momento que alguien le ponga el cascabel al gato, claro. Sí, sí, pero bueno... Hasta el momento, con la ley en la mano, con el acta en la mano, tú tienes esta aplicación, es antigua... No hay una voluntad. Vamos a ver si la actualizan cada 15 días como antes esta aplicación o la dejan ahí sin actualizarla. Tiene que pasar a ser ese punto que decimos de bloqueante, de que hoy por hoy es porque la empresa en cuestión quiera y queremos ser accesibles, queremos ser los mejores, queremos ser la punta de lanza y queremos que nuestra aplicación sea la mejor, sea la más accesible en este caso. Ya te digo, la banca, por ejemplo, en España, tendría que haber sido accesible desde hace ya mucho tiempo. Pero no lo es y no es bloqueante en ningún caso. No es bloqueante, que no es accesible, no pasa nada. A producción, con ello, que no pasa nada. Porque no tenemos un mecanismo para garantizar el cumplimiento de la ley, que sea efectivo, porque al final las pocas denuncias que se han puesto en España al amparo de las diferentes legislaciones no han terminado bien o han terminado con una sanción que es muy fácil decir, pues yo esto prefiero pagarlo y pasar páginas y ni molestarme. Y cuando no, han terminado diciendo el juez, bueno, como esta empresa trabaja por la accesibilidad, que yo sé que tiene un contrato, que yo sé que tiene un acuerdo de colaboración con tal, pues oye, con eso tiramos. Y eso tampoco es. Al final está muy bien colaborar y trabajar, pero si tú tenías una obligación de cumplir con un requerimiento y no lo has cumplido, pues esa obligación tú mañana, yo si se me olvida declarar una factura mía, yo puedo decirle, no, no, pero es que yo estoy trabajando con Hacienda. Sí, sí, usted estará trabajando lo que quiera, pero usted las sanciones administrativas se las lleva. Y si la paga antes de tiempo, sí, a lo mejor le hacemos un descuento, pero de momento se las lleva. Esta gente han tenido una, en fin, una mangancha que ha sido, yo creo que, muy rastro. Y con descendencia es lo mismo, sí, sí. Es un gran problema que ha habido hasta ahora, que no había sanciones o incluso les excusaban precisamente y no pasaba nada. Si hubiera habido sanciones ejemplares, pues también hubieran motivado a que hubiera habido más sanciones. Pero como no nos ha habido... Ahora hay un acta y no hay sanciones, no hay ni reglamento, no hay nada. Y ahora las personas físicas, ¿qué pueden hacer? ¿Se va a poder reclamar qué vamos a poder hacer a partir de ahora? Claro que sí. Tú puedes ir a un juez a decirle, oye, mira, este producto que está bajo el alcance de la aplicación de la legislación europea no cumple. Tú lo puedes hacer igual que has podido hacer hasta ahora en base a otras legislaciones. Tú puedes hacerlo. Puedes ir a, cuando sepas la comunidad autónoma, a la ventanilla y decir, oye, ¿cuál es la autoridad de vigilancia que tiene usted aquí para este tema? Le puedes preguntar a la comunidad autónoma. Puedes ir al observatorio de la discapacidad, abrir una reclamación allí y decir, oye, esto... O sea, se pueden hacer cosas. Se han podido hacer antes y se pueden hacer ahora. Lo que pasa es que ahora tenemos otro instrumento más que clarifica. Yo creo que es más, porque es verdad que nosotros en España mucho de lo que está en la directiva ya lo teníamos, pero clarifica más y da la fuerza de que es Europa. Aquí muchas veces en España ha tenido que venir Europa a tirarnos de las orejas y entonces ahí es cuando hemos... Sí, porque del momento con la banca española no hemos conseguido nada teniendo casi prácticamente traspuesto casi todo y no ha sido efectivo. Eso es un poco la lectura final de la historia, aunque aún transponiendo cosas tampoco garantiza eso que se vayan a cumplir de hoy para mañana. No quiero ser negativo del todo, que a mí que se hable, que se fije en algún sitio y que un ciudadano tenga la posibilidad de coger un documento, no sé hasta qué punto vinculante y llevarlo a una autoridad, no sé hasta qué punto autoridad de compeso y realmente hacer una demanda, pero si se lo curra todo el ciudadano, que encima es el damnificado, pero bueno... Bueno, hay gente que tiene mucha capacidad para hacer eso también y organismos e instituciones que tienen mucho recurso, yo creo que eso también debemos recitarlo. Creo que las instituciones sí que deberían ponerle a sus afiliados y socios canales para facilitar... Manuales de cómo se hace esto, de plantilla... No, no, y asesoramiento y orientación, claro, y ellas mismas, porque las asociaciones e instituciones a nivel grupal, ¿por qué no hacen también más en esta línea? ¿Qué papel juegan las asociaciones de usuarios de personas con discapacidad? Creo que ahora el más relevante es el que lleva ahora gestionando todo esto, porque han estado implicadas hasta a tope, ¿no? Yo te iba a decir, la Comisión Europea sí puso mucho énfasis en su momento en que las asociaciones de personas con discapacidad estuviesen representadas en la deliberación, primero, de los textos jurídicos comunitarios, las APTA, básicamente, por decirlo claro, y segundo, también, que estén representadas en el desarrollo de los estándares voluntarios, estos que sirven para garantizar la presunción de conformidad, que es como se llama esto técnicamente. A nivel de esa implicación, implicación la ha habido a través del Foro Europeo de la Discapacidad. Ahí están personas que representan al EDF y que están en comités y demás y tal. Pero eso es una cosa. La otra cosa es luego que, efectivamente, haya que currar y que haya que poner la cara para que se cumpla la legislación y esforzarnos y poner recursos a que se garantice el cumplimiento de la legislación, porque eso es tan importante como estar en la mesa es importante, pero garantizar el cumplimiento de la legislación es determinante, no es importante, es determinante. Sobre todo que la legislación llegue a los interesados, tanto a las personas que van a recibir los bienes, servicios, productos, como quien tiene que producirlos o prestarlos, eso también es importante y es lo que hablábamos antes. Yo tengo ahí dudas de que todo llegue como tiene que llegar, pero bueno, es una percepción mía. Me refiero a que alguien sea consciente de que cuando esté haciendo algo tiene que hacerlo accesible. Yo creo que la gente, el industrial, el empresario, el productor, no sé cómo llamarlo, el servidor que vaya a dar un servicio y eso, no sé hasta qué punto va a tener conocimiento de esta acta, que no es ni ley ni no. Pero entonces, cuando se haga un edificio, si mañana el edificio se cae y al arquitecto cuando lleguemos le preguntamos, oye, ¿qué ha pasado? No, es que yo no sé. ¿Usted sabía que tenía que haber hecho este edificio y haber puesto este grosor de ladrillo y esta profundidad de cimentación? Y dice el arquitecto, no, no, yo eso no lo sabía. Yo eso, joder, me acabo de enterar, tío. Una putada, pero con perdón de la pelea. Claro, pero ahí hay leyes que lo regulan y reglamentos, pero aquí no. Pues aquí también. Aquí está, para empezar, unos estándares que llevan años a disposición del público. Las pautas empezaron con la 1.0, seguimos 2.0, 2.1, 2.2. El estándar digital, el N301549, estamos hablando de su actualización, pero el estándar está desarrollado desde, si no me equivoco, la primera versión salió el año 2012. El estándar está ahí. Tú puedes leerte ese estándar y cumplir con todo lo que hay para cumplir, salvo que, digamos, salvo la parte de la actualización que está todavía trabajándose, pero todo lo demás que se hizo antes, ahí está. El desconocimiento de la ley, ¿no? Que sí es el régimen de su cumplimiento. Sí, pero es que esto no es una ley. ¿Cómo lo tengo que decir? Sí, sí, es una ley en el punto y hora que entra en el Boletín Oficial del Estado y que es una transposición de una directiva europea, ya es una ley española. Claro, claro. Ya tiene rango de ley. Una vez que se ha realizado la transposición ya tiene rango de ley nacional. Otra cosa es que tenga más o menos un régimen sancionador y que haya unas inspecciones de oficio o no. Bueno. Sí, que la monitorización, por utilizar un término que se utilizó en la directiva anterior, es todavía poco clara. Eso sí es verdad que es un problema. Claro, que sea un poco ambigua. Pero una cosa es eso y otra cosa es que no haya ley. Ley ha habido, hay y habrá. Y estándares que te puedan facilitar a ti como productor de servicios y como productor, fabricante, distribuidor, etcétera, cumplir, ya hace mucho tiempo que los hay también. Sí, pero estamos hablando de lo que dice esta ley que llegue a esta gente. Y eso yo creo que de momento no... Bueno, tengo que verlo. Las microempresas están extensas precisamente porque se presupone que para una empresa de menos de 10 trabajadores pues es complicado este tema. Pero una gran empresa, una gran industria que tiene su gabinete jurídico, que tiene un gabinete jurídico que sabe perfectamente que puede sacar una aplicación que no es accesible antes de que entre en vigor el acta porque eso le da más tiempo para poder hacerla. Esas cosas sí demuestran que la gente se lo estudia. Pero cuando es una empresa pequeña pues no la hace accesible y luego cuando ya tenemos 11 trabajadores que así que estamos obligados decimos que ya es un coste desmesurado y que no podemos cumplir con ella y ya está. Pues sí, y ahí estará la argumentación que se haga a nivel de exponer el caso y estará el juez que diga si es verdad eso o es mentira. O la Comisión Europea porque al final aquí estamos hablando de dos procesos. Un proceso judicial que se puede abrir siempre que se quiera pero también estamos hablando de un proceso que es meramente administrativo y que tendría que llegar en un momento determinado a la Comisión Europea. Caso práctico, vale. Máquinas de vending que venden billetes para coger el tren. Si la nueva te la ponen, la máquina nueva, ya estamos en el año que viene por poner una fecha. ¿En cercanías están exentos? ¿Ahí no tienes que pedir? En cercanías sí. En un larga distancia yo entendería que no porque es la parte urbana e interurbana que se queda fuera. ¿Y creéis que lo van a poner? Pues no lo sé. Eso ahí ya sí que es la pregunta del millón de... Yo no, yo creo que no. Mira, ya que estamos hablando de servicios telemáticos de comercio, de compra, por ejemplo, compras en supermercados que es imprescindible y sobre todo es una de las formas de hacer compra accesible. Esto sí que entra dentro de la CAR. Sí, yo creo que en el sentido de que puedas tener tu aplicación accesible y tu web accesible sí debería serlo, claro. Pero si hacen una nueva o si siguen utilizando la que hicieron hace un año. Igual, si siguen utilizando tienes un plazo todavía de carencia. Si la haces nueva, tiene que ser. Pero aquí sí que son lo de los cinco años, ¿no? En los cinco años. Sí, sí. Si no me equivoco, son los cinco años que hemos dicho antes. Sí. Vale. ¿Qué más productos y más cuestiones que hoy por hoy echemos en falta, que no tienen accesibilidad, pueden verse influenciadas por esta nueva máquina? Yo creo que hemos hablado de prácticamente todas. El sector público es otra guerra. El sector público es otra guerra. De hecho, una de las cosas graciosillas que yo creo que si leemos, o al menos si mi lectura de las directivas correctas, es que tú puedes reclamar a nivel judicial, puedes reclamar al sector privado, pero al sector público no le puedes reclamar. Entonces, sí que eso es curioso. Pero sí, yo creo que a nivel de productos, eso es, los libros digitales los hemos cubierto ya también. Y yo creo que no hay mucho más. Hemos hablado del pasado, del presente. ¿Cómo ves el futuro? ¿Crees que esto va a ayudar? ¿Cómo ves el futuro? Bueno, yo lo veo como parte del andamiaje que a Europa le faltaba. Estados Unidos ha tenido siempre su ley 508. Vamos a ver ahora qué pasa con eso, porque también es verdad que los vientos que soplan ahora son diferentes. Entonces, cuesta mucho hacer las cosas y muy poco deshacerlas, desafortunadamente. Yo creo que esto es parte del andamiaje de la Comisión Europea. Tiene que haber más cosas. Vamos a ver también, de cara a muchos años todavía, no es que vaya a ser mañana, pero el W3C está desarrollando también las pautas 3.0 y en el futuro esperamos que eso también forme parte de la regulación europea. Pero es un tema que hay que tomarse con paciencia. Es un tema que no es de hoy para mañana, pero que sí pone, yo creo, una serie de mínimos indispensables que ya sí son requeridos en Europa y que lo importante ahora es ponernos todos a trabajar para que eso se cumpla, lo que se puede cumplir con el texto que tenemos, que no es perfecto ni mucho menos, se cumpla. Porque sí es verdad que si no, si al final dentro de 10 o 15 años nos miramos y decimos, bueno, pues al final no se ha cumplido mucho. Sí habrá sido un fracaso, pero si se logra que se cumpla más de lo que se ha estado cumpliendo hasta ahora, yo creo que estará bien empleado. Como fechas importantes tenemos el 28 de junio y jueves más. Sí, el 30 es ya el plazo, el final de, el 21 y el 30 me refiero, el plazo de los productos antiguos. El 27 no recuerdo exactamente la fecha, si han dado alguna fecha en la transposición para también el tema de la accesibilidad en entorno construido, que no hemos hablado mucho, pero también me parece que hay países que sí requieren que se cumpla con un estándar que se va a desarrollar de accesibilidad en entorno construido. Y la fecha esta que decía Ricardo, que esa es para verla, del 45, con productos cuya vida útil se pueda justificar que llega efectivamente hasta ese año, que no sé cuántos estaremos aquí en el 45, pero ahí está la fecha. Sin ser la panacea, pero es un instrumento más. Yo siento haber estado tan reactivo y escéptico y sigo estándolo porque es como, vamos a ver, sí que reconozco todo el trabajo y verdaderamente el planteamiento que tú ofreces, Dani, me parece lo correcto. Yo por lo personal no me lo tomo, no te preocupes que a mí no me... No, no, si no me estoy justificando antes, de hecho me parece bien y sí que creo que son unos mimbres necesarios. Otra cuestión es que sean efectivos. Ahí es donde está mi escepticismo y entonces aquí sí que quería hacer un aviso a navegantes. Una vez más creo que tanto los usuarios de forma individual o a través de organizaciones o instituciones vamos a tener que mover el cotarro, vamos a tener que empezar a ver, a estudiar bien todas estas normas o esta acta y empezar a ver dónde están esta serie de estamentos de vigilancia y a hacer reclamaciones porque no va a quedar otra, no va a quedar otra. Que luego sean efectivas o no, pues no lo sé, pero no nos va a quedar otra. Totalmente, eso es así, eso no ha cambiado con la nueva legislación y dudo mucho que vaya a cambiar. Al final sí es verdad que es un tema de pico y pala, que es una expresión que está hoy un poco mal vista, pero yo creo que sigue siendo igual de efectiva que siempre. Igual, igual. Bueno, pues hacemos un breve resumen de lo que hemos ido viendo y vamos terminando por hoy. Pues sí, comentar nada. Si te parece que lo que hemos venido a discutir o a debatir hoy es el acta europea accesibilidad que entró en vigor el 28 junio del 2025. Es un acta que se aprobó por parte de la comisión en el 19, que se ha ido transponiendo a los diferentes países porque es una directiva, no un reglamento y por lo tanto sí requiere de una transposición individual. España lo transpuso en el año 23 y cubre pues una serie de productos y servicios, pues entre los cuales hemos comentado webs, aplicaciones móviles, cajeros automáticos, máquinas de autoservicio, libros digitales, etcétera. Máquinas de gestión de turno. Cualquier máquina digamos que se pueda denominar autoservicio que esté dirigida, eso sí es importante, a consumidores finales está incluida en esto. Hay una serie de excepciones que no aplican como por ejemplo a los temas de multimedia y ofimática que están exentos todos los documentos que sean anteriores al 28 junio del 2025 están exentos. También están exentas las servicios y productos anteriores a ese 28 de junio y todos van teniendo un tiempo de carencia que en el caso por ejemplo de las webs y de las aplicaciones son de cinco años. Exactamente. El 2030 sería un año para estar pendientes y toda la gente ha hecho los deberes en las webs. Volveremos a tener esa sensación ya de que el día que pongan el 28 de junio ya, los consultores ya que se vayan todos a casa porque ya no habrá nada más que hacer y ya estará todo accesible. Todo hecho, será como mágico. Y luego nada, hemos hablado también que las empresas de menos de 10 trabajadores o que facturen menos de dos millones de euros en un año no tienen obligación y derecho en poner en marcha este acta y bueno el contenido de este acta. También ocurre lo mismo con algún tipo de transportes o servicios que hablamos de los cercanías en comparación con la larga distancia y todo esto también estarían fuera. También hemos comentado que muchos de los servicios y sobre todo productos que hayan sido puestos en marcha antes del 28 de junio pues tienen y que no sean páginas web pues tienen pues eso una posibilidad de seguir siendo utilizados sin accesibilidad durante un número de años probablemente para ellos razonables que pueden llegar hasta 20. Es decir, es un tema un poco delicado y bueno. Está parcelado al hardware. Es importante también esa distinción que eso es hardware. Sí, sí, sí. Lo otro hemos dicho cinco años, ¿no? Y nada, he vuelto a decir lo negativo pero me toca hasta en este episodio fijarme en eso porque realmente me inquieta que al final yo no... ya sabéis que estoy muy... que en este tipo de cuestiones no tengo mucha esperanza. Bueno, pues ojalá que estés un poquito equivocado. No, no, que esté mucho, que esté mucho. Totalmente, si puede ser. Sobre todo como acicate a decir, bueno, ya que lo tenemos que hacer y que es susceptible, al final esto va a grandes industrias y a grandes empresas, ¿no? Al final esto es lo que va. Bueno, ojalá la gente sí que tome nota y lo lleve a cabo. Ahí está. Y lo has explicado muy bien, Dani. Te lo agradezco un montón. Nada, un placer estar con vosotros y en otra nos escucharemos. Muchas gracias, Dani, por haber estado con nosotros y haber contado tan bien y esperamos volverte a escuchar por aquí. Venga, un saludo a todos. Recordamos nuestros medios de contacto, Ricardo. Pues muy bien, nuestra dirección de correo electrónico para que podáis enviar cualquier cosa, reclamaciones, sugerencias y demás es gafotasarrobacegatos.es. Y nuestro WhatsApp para mensajes de voz o de texto en el más 34 644 640792. Os agradecemos muchísimo, como siempre, que hayáis llegado hasta aquí y os esperamos en el próximo episodio. ¡Adiós! Gafotasarrobacegatos.es Gafotasarrobacegatos.es Gafotasarrobacegatos.es Gafotasarrobacegatos.es Gafotasarrobacegatos.es Gafotasarrobacegatos.es ¿Qué hacéis exactamente dentro del W3C? Yo estoy dentro del... A día de hoy que los TPVs tienen cajeros... Perdón, espérate un segundo, he hecho para atrás. A día de hoy que los TPVs ya muchos tienen pantallas táctiles... ¿Preguntas tú, Arturo? ¿Lo preguntas tú? Tú. ¿Por cambiar de voz? No, como quieras. ¿Eh? Claro, como quieras, como quieras. Sí, sí, pues adelante. Espera, que voy a hacer una gilipollas. Pi, pi, pi... Ya. Es que luego no tenemos sino material para estos más falsos y le gusta de vez en cuando. Lo que hago para cuando pases a velocidad 2... O lo mejor es escuchar rápido, como hacíamos con el libro hablado antes, claro. Pi, pi, pi... No, entonces aquí es donde tengo que cortar. Nada, que estoy tonto, ya está. Venga. A ver. Dos, tres. A ver, que me centré. Accesibilidad. Perdonadme porque tengo aquí las tres gatas que tengo que se han puesto a pegar aquí. Madre mía. Si quieren intervenir, que intervengan. Sí, sí. Venga, vamos a empezar otra vez, ¿no? Sí, sí. Empezamos, sí.
Gafotas, cegatos y sus aparatos #24
Fecha: viernes, 4 de julio de 2025, a las 00:00:00
En este vigesimocuarto episodio de Gafotas, cegatos y sus aparatos, analizamos a fondo las Ray-Ban Meta Smart Glasses desde la experiencia directa de cuatro usuarios ciegos: Emi Madrid, David Santos, Arturo Fernández y Ricardo Abad.
Si tienes dudas sobre adquirirlas, las acabas de comprar o no les estás sacando el máximo rendimiento, este episodio es para ti.
¿Son útiles realmente para las personas ciegas o con baja visión? ¿Qué hacen bien? ¿En qué fallan? ¿Y en qué situaciones sería recomendable no usarlas?
Comentamos, con humor y rigor, sus funciones más útiles: audio abierto, videollamadas, integración con WhatsApp y Be My Eyes, inteligencia artificial integrada, lectura de textos… y mucho más.
Pero también repasamos sus limitaciones: fallos al interpretar semáforos, lectura de textos poco fiable, autonomía de batería reducida y alucinaciones de la IA.
Incluimos audiodemostraciones y experiencias reales sobre la lectura de fechas de caducidad en productos, uso de cajeros automáticos sin necesidad de auriculares, identificación de paradas de autobús, detección de obras mediante la combinación con perro guía, e intentos de lectura del estado de la luz de un semáforo, a veces con resultados catastróficos.
Exploramos también si permiten una navegación más autónoma en centros comerciales; comprobaremos si, en el caso de la compra, ofrecen asistencia vocal eficaz para identificar productos; veremos qué tal lo hacen con la lectura de códigos QR en español y, por último, si permiten enfrentarse a textos extensos como los de un libro, qué tal realizan la traducción en tiempo real de lo que escuchan o cómo se comportan al mantener una conversación natural con la IA de Meta.
Además, hablaremos de su utilidad como manos libres para realizar llamadas, enviar mensajes, tomar fotos o vídeos, ejecutar comandos rápidos por voz, traducir audio en tiempo real e iniciar videollamadas a familiares o a voluntarios de Be My Eyes para que orienten a los usuarios en tareas cotidianas e incluso en movilidad.
¿Recomendadas o no para personas ciegas? Lo debatimos sin tapujos.
Si te interesan la accesibilidad, la tecnología y las experiencias reales, este episodio es para ti.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Sitio Web oficial de Ray-Ban | Meta Gafas con IA | Ray-Ban® ES.
Cómo utilizo las Ray Ban Meta en mi día a día - @AliblueBox - Youtube.
Navegador y explorador del entorno VoiceVista en App Store.
Sitio Web de Navilens (Señalética accesible).
Accesorio cable externo con pinza cargadora – marca HIBLOKS para gafas Ray-Ban Meta – AliExpress. .
Créditos:
Duración: 02:09:55
Descripción detallada del logo de Episodio 24. Gafas Ray-ban Meta para cegatos: lo que son y lo que no son
La imagen presenta una ilustración de estilo retro, como sacada de un cómic clásico en blanco, negro y tonos azulados sobre fondo beige. Tiene un trazo limpio, definido y con sombreados punteados, muy característico del estilo "ligne claire" o de los grabados vintage. Personaje humano: • Figura masculina de complexión robusta y actitud confiada. Camina con paso firme hacia la izquierda del encuadre. • Cabello perfectamente peinado con una raya lateral y ondas voluminosas, en estilo años 50. • Bigote prominente, espeso y negro, también muy estilizado, que refuerza el aire clásico del personaje. • Gafas oscuras y gruesas de gran tamaño, cuadradas. Se aprecian como unas gafas inteligentes Ray-Ban Meta por su diseño voluminoso y moderno, que contrasta con el estilo vintage del resto del personaje. • Auriculares grandes y redondos, de tipo circumaural, cubren completamente sus orejas. Están integrados de forma natural con las patillas de las gafas, como si formaran un todo. • Ropa: Lleva un conjunto de chaqueta deportiva con cremallera, cuello alzado y botones, además de pantalones con franja lateral. Su atuendo recuerda a una mezcla entre ropa deportiva y casual. • Zapatillas modernas con cordones, muy detalladas y bien definidas. Personaje animal: • Un perro guía de raza labrador retriever, que camina con expresión feliz y mirada hacia adelante. • El perro lleva un arnés especial de asistencia, con armazón rígido en forma de U y cinchas visibles, sujetado por la mano del personaje. El arnés está bien detallado y es característico de los perros guía entrenados. • El perro parece ir marcando el paso con decisión, como si guiara con experiencia a su humano por la ciudad. Entorno: • Al fondo se ven edificios urbanos, con formas geométricas simples, ventanas rectangulares y líneas limpias, que enmarcan la acción en un entorno claramente urbano. • A la derecha hay un semáforo vertical con tres luces redondas, aunque no se indica si están encendidas o apagadas. • El suelo está representado con líneas de paso de peatones y algunas marcas dinámicas que sugieren movimiento. • El ambiente general tiene un aire limpio y ordenado, con un estilo gráfico que combina modernidad funcional con un toque nostálgico. Acción: • El personaje está cruzando una calle con seguridad y aplomo, guiado por su perro. Su expresión es serena y segura. • El gesto de la mano sujetando el arnés es firme pero natural, y el paso del perro coincide con el suyo, indicando una buena sincronía entre ambos. Interpretación: Esta imagen transmite una escena cotidiana de movilidad urbana independiente para una persona ciega o con baja visión, que combina tecnología moderna (gafas inteligentes y auriculares) con asistencia tradicional (perro guía). El resultado es un mensaje de autonomía, confianza y adaptación entre lo clásico y lo tecnológico. Una estampa entrañable, moderna y poderosa.
Mostrar transcripción de Episodio 24. Gafas Ray-ban Meta para cegatos: lo que son y lo que no son
Transcripción de Episodio 24. Gafas Ray-ban Meta para cegatos: lo que son y lo que no son
Episodio 24. Gafas Ray-Ban Meta para cegatos. Lo que son y lo que no son. Episodio 25. Gafas Ray-Ban Meta para cegatos. Lo que son y lo que no son. Gafas en otro momento de las mismas. Y sobre todo para hacer un episodio muy dirigido para todas las personas indecisas que están escuchando hablar de ellas, sobre todo personas ciegas, y no acaban de decidirse. Y alguno pensará que por qué a estas alturas de la película venimos a hablar de las gafas. Bueno, en primer lugar porque este podcast no es de novedades. Es un podcast reflexivo, es un podcast en el que hablamos tranquila y calmadamente de lo que no... nos apetece. Porque ha pasado ya un tiempo y ya pues ha habido experiencias, ha habido gente que las ha podido probar tranquilamente y puede hablar con conocimiento de causa, ¿no? Incluso aunque estén saliendo otras gafas nuevas, pues también es un buen momento para poder ayudar y compartir con otras personas qué hacen y qué no hacen, qué son y qué no son, y poder compartir con conocimiento de causa, ¿no? Sí, sobre todo porque en este episodio vamos a tener a dos personas más que luego presentaremos y vamos a ser cuatro propietarios de Ray-Ban Meta ya con una experiencia, un criterio y nuestra idea es transmitirlo. Vamos a hablar de las Ray-Ban Meta de momento, aunque daremos también novedades sobre nuevos productos de Meta y de Ray-Ban más adelante. Y bueno, simplemente son estas gafas que están haciendo furor y llevan ya desde 2023 comercializándose. Son las herederas de las Ray-Ban Stories, que fueron las primeras gafas que hicieron la alianza de Meta con Ray-Ban, con Exilor Luxottica, y donde la cuestión fue utilizar el estilo de Exilor Luxottica y de todos sus productos de visión, en este caso de gafas, que son los número uno en el mundo. Y al mismo tiempo, por otra parte, todo lo que Meta Labs, antigua Facebook Labs, había experimentado dentro de su aquel metaverso malversado, para lo que son dispositivos de visión artificial y también sistemas. Entonces, de esa primera alianza salieron las Meta Stories, muy orientadas para las redes sociales. Messenger, Facebook... Redes sociales de Meta. WhatsApp e Instagram, ¿no? Es decir, fueron unas gafas que utilizaron los influencers y, bueno, usuarios de a pie para transmitir sus vídeos por estas redes sociales. ¿Qué ocurre? Que en estas gafas de las que vamos a hablar hoy se incorpora un factor ya que es determinante, y es la inteligencia artificial Meta Eye de Meta. Entonces, las gafas utilizan toda su potencia en sí, de sensores electrónicos, para poder interactuar con la inteligencia artificial. Pero esto no lo voy a contar yo, lo iremos contando a lo largo del episodio. Entonces, algo que era para el consumidor habitual, no era nada específico para ciegos, ha comenzado a despertar mucho interés a las personas ciegas porque se pueden hacer algunas cosas que resultan interesantes en el día a día. Y esto es lo que hay. Y este producto ha tenido muchísimo éxito en el público en general, porque efectivamente, por un lado, para los influencers, para grabar vídeos, fotos para Instagram y demás, porque graban en vertical, es importante tenerlo en cuenta. Y yo lo he oído, por ejemplo, que las utilizan mucho gente que va en bicicleta, conductores habituales de camiones y demás, porque es un pinganillo que te lo pones en el oído. Que eso está prohibido para conducir. Y esto tiene otro tipo de sonido, que ya lo comentaremos brevemente, porque ya hemos hablado mucho de esto. Y han tenido mucho éxito en el público en general, y especialmente dentro de las personas con discapacidad visual, pues también por las cosas que ofrecen. Y ahí está un poco de lo que vamos a hablar. Si lo que nos ofrecen merece la pena, si no merece la pena. No crear falsas expectativas, ser muy conscientes de la tecnología que tenemos. Este punto es importante. Hay gente muy decepcionada porque se han generado unas expectativas sin fundamento muy altas hacia las gafas y lo que pueden hacer. Y luego, después de hacer la inversión, están muy defraudadas. Lógicamente, como cualquier persona que se genera expectativas sin base, el problema no es de las gafas, es de la persona que nos ha informado. Y nosotros queremos cubrir ese espacio humildemente. Dando la información de la que... disponemos y las experiencias de los usuarios que vamos a hablar aquí. Y para ello, contamos hoy con dos invitados. Tenemos a Emiliano Madrid. Muy buenas y muchas gracias. Muchas gracias por invitarme otra vez. Y nada, aquí a desmontar nuestro maravilloso juguetito de Ray-Ban. Muy bien. Y tenemos a David Santos por tercera vez. David, bienvenido. ¿Qué tal? Encantado. Muchas gracias por contar conmigo de nuevo. Y nada, encantado de saludaros. Y encantado de participar en este podcast para solventar alguna de las dudas que existen y poder ayudar a esas personas indecisas. Y no indecisas, quizás personas que las tienen y que no saben alguna de las opciones o características que pueden tener. Muy bien. Si queréis hago una primera pregunta para todos. ¿Qué os motivó a cada uno de vosotros el comprar las Ray-Ban Meta? Bueno, a ver. Yo cada vez que sale una maritata, como dice mi padre en Paz Descanse, soy muy maritatero. Me encantan probar las cositas y demás. Pero lo que realmente me supuso un wow, esto es lo que buscaba, era que yo hablo muchísimo por teléfono. Y siempre utilizo pinganillos como Voyager o cosas así, que son de estos de ponerte en la oreja. Pero siempre que vas por la calle con un auricular de estos, siempre vas con el oído tapado. Y el concepto de oído abierto a mí me encantó. Sale todo el sonido de tu iPhone o de tu Android. Por las patillas, sin que te tape el oído. Entonces ese concepto de oído abierto me encantó, porque los otros oídos abiertos que había visto hasta la fecha eran de transmisión ósea. Y a mí la transmisión ósea no me gusta mucho. Noto que le falta un poquito de cuerpo. Entonces, pues dijo que bien. Luego vi que sacaron un modelo no Ray-Ban, otra empresa sin tanta inteligencia artificial y me moló. Pero eso de look and tell me what you see, sin que yo tenga que era la primera orden. Me gustó mucho, me sorprendió muchísimo que sin tener que tener un móvil con una cámara super top o un escáner o una cámara en un ordenador, simplemente con ponerme algo en la cara podía tener información de mi entorno y me gustó mucho esa idea. ¿Cuánto tiempo hace que las tienes? Yo las compré en marzo del 2024. Yo las tengo... Desde el pasado Black Friday, que fue la gota que coló el vaso para comprármelas, porque estaban con un descuento del 20 por ciento. Y bueno, como friki que soy, pues me atraía siempre la parte tecnológica, como un dispositivo distinto, diferente a lo que había. Por un lado, yo había intentado enterarme de qué es lo que eran y lo que es lo que no eran. Y ya sólo la parte básica que tiene de poder tener unos auriculares, eso, sin que te obstruyan el canal auditivo, poder escuchar lo que tienes alrededor y a la vez pues tener dos auriculares, tener la posibilidad de poder hacer fotos y de poder hacer vídeos fácilmente y, bueno, lo mínimo, por así decir, que tienen, pues ya me atraía y con eso ya era suficiente. Yo no quería tener que pasar por esto de la VPN y todo este lío que tanto se hablaba y tantos dolores de cabeza le ha atraído a tanta gente, Yo no quería tener que pasar por esto de la VPN y todo este lío que tanto se hablaba y tantos dolores de cabeza le ha atraído a tanta gente, me ponían en inglés y luego al poco tiempo de la semana volvían otra vez a dejar de funcionar y era un rollo y no quería pasar por esa tortura. Bueno, con lo mínimo que tienen en español me valen o no me valen y decidí que sí. Y luego el resto, pues la IA y tal para jugar, porque tampoco hay que considerar qué es lo que es y vale para lo que vale. Y toda la parte de inteligencia artificial y demás, pues bueno, como algo que podía ser divertido. En principio veo que tú la estuviste al comienzo simplemente como auricular. Y luego practicar con la otra parte que traías y más para jugar con la parte de la IA y demás, pues ver hasta dónde eran capaces de llegar. Pero esa parte en primer lugar, pues sin esperar nada especialmente. Y tú, David? Pues yo creo que soy el que las tiene hace menos tiempo. Las tengo hace cosa de un mes y lo que me hizo encantarme por ellas fue escucharos a vosotros, hablar con vosotros, ver la experiencia que teníais también con Héctor. Estoy hablando de ello, que ha participado con vosotros en otros episodios. Y lo que me llamaba más la atención y por lo que me decidí es por la inmediatez, lo que decía Emi, ¿no? Llevar algo en la cara que te puede dar una información rápida sin tener que hacer muchas acciones. Es decir, imaginemos, yo siempre me ponía en el caso. Quiero identificar un bote de cualquier especie, ¿no? Entonces eso me suponía tener que en coger el móvil, desbloquearlo, entrar en una aplicación si lo tenía etiquetado tipo NaviLens o directamente con algún programa que me dijese lo que es. En cambio, con las gafas simplemente las tienes puestas, das una orden y la propia inteligencia artificial que te trae te describe lo que es. Entonces esa inmediatez es lo que yo buscaba. Algo rápido y luego me ha sorprendido muchísimo el tema del audio, que luego hablaremos de ello, que tiene una calidad para mí extraordinaria. Se lo escuché a Emi y fue lo que me decantó a hacerme con ellas. Creo que tienen mucho potencial de cara a futuro. Pueden ser un complemento que nos puede ayudar mucho a las personas ciegas o con baja visión. Y creo que en ese campo, pues lo que digo, que pueden ser muy útiles para todos nosotros. Muy bien, pues en mi caso es una síntesis de lo que habéis dicho vosotros es real, porque también la compré en Black Friday que estaba al 20 por ciento de oferta, igual que Arturo. Yo sí que comencé con la VPN, igual que Emiliano, porque no podía estar quieto y tenía que probar. En aquel momento sí que había que hablarles en inglés y a mí ya me parecieron bien, porque afortunadamente no tenía dificultad para los comandos. Bueno, igual no tengo conocimiento para mantener una conversación en tiempo real en inglés con un nativo, pero para dar comandos y un poco recibir la información, sí. Y también le vi las limitaciones, pero también vi que era muy aprovechable la información que nos daban. Y luego estoy de acuerdo contigo, David, que con Emiliano y esto, con Arturo también, que la cuestión del audio y la comodidad para, sin tocar el teléfono, hacer ciertas acciones es determinante. Y ya solo por eso, pues decidí comprarlas. Y hasta ahora que estoy disfrutándolas ya en español. Y una cosa que comentaremos también, que sobre todo son unas gafas que no son diferentes a unas gafas normales. Es decir, yo tengo unas Ray-Ban normales sin inteligencia artificial y es que si las pones una al lado de otras sí que pesan un poquito más, son un poquito más anchas, pero aparentan ser iguales hasta el punto de que ha habido gente que me ha visto con las gafas y con las otras y no han sabido diferenciarlas. Luego sí y no, hablaremos de la cámara, de los leds, todo esto, que si te fijas lo ves, si conoces la tecnología lo notas. Pero a simple vista no. Entonces es una gafa que pasa muy inadvertida y que, bueno, que tiene su estilo, que va bien, no? Conjunta bien con todo y va bien. El peso son 4 o 5 gramos más que las originales. Sí, muy poquito más. Muy poco, no? Yo quería comentaros una cosita antes de que entremos más en harina, que he probado. Es que hay que poner en valor algo de estas gafas. Yo he tenido la suerte de probar otro modelo distinto de gafas inteligentes. Tengo la suerte porque he podido apreciar en valor lo que nos ofrece. Y una de las cosas más grandes que nos ofrece esta gafa, más incluso que la inteligencia artificial para mí, quiero decir, porque al final del día a día el uso es lo bien que va con el ecosistema de meta, sobre todo con con WhatsApp, que para mí es un valor muy añadido el poder hacer, ir por la calle, recibir un mensaje y poder decir léelo o reproducelo. Luego poder responderlo. Poder interactuar sin tener que sacar el móvil del bolsillo. Todo por voz. Genial. Todo por voz, sin tener que sacar el móvil, desbloquear pantalla. Pero y ya lo último que es poder hacer una videollamada y que la persona que está en otro lado del teléfono pueda ver lo que tú estás viendo y con un poquito de aprendizaje, de subir un poquito la cabeza, bajar un poquito la cabeza, tener una información puntual de saber si estamos en la puerta correcta o si estamos eligiendo el vestido, el color correcto. Esto es súper, súper útil y es un valor muy añadido. Cosas que, por ejemplo, en las que yo he probado, que son las solos. Al no tener WhatsApp, no puedes hacer videollamada. Tampoco tiene videocámara, pero tampoco tiene esa capacidad de. Ay, me han mandado un mensaje. Respóndelo. Envía un mensaje de voz a Ricardo. Manda una fotografía a Arturo. Me entendéis? Eso es un valor añadido muy importante. Que no tienes que sacar el móvil del bolsillo. Entonces es fundamental. No puedes sacar el móvil del bolsillo en algunos lugares. Pues aquí lo tienes para una cosa puntual. Qué pensáis para la gente que no está acostumbrada? Gente ciega hablo a llevar gafas porque no toda la gente que no ve lleva gafas. Pensáis que pueden llegar a acostumbrarse que el peso de las mismas es soportable? Yo te comento porque yo he sido usuario de gafas muchísimo tiempo antes de estar ciego y a ver, no es una gafa de metal o de pasta que sea liviana. Es una gafa de sol, no deja de ser una gafa de sol. El modelo que tengo yo es el modelo o hablaremos ahora de si quieres de los cristales un poco por encima para que la gente sepa. Pero el cristal que llevo yo es el adaptativo, es decir, es totalmente transparente cuando no le da la luz y luego cambia para ser una gafa de sol cuando le da la luz ultravioleta. Esto que me permite, por ejemplo, entrar en un centro comercial y no ir con una gafa de sol porque se va a aclarar. También me permite estar con ellas dentro de un teatro o dentro de casa, incluso para tenerlas como como altavoz, como decía Emi, que le tienes puesto un continuo. Entonces te tienes que adaptar a llevar una gafa de sol. No es como una gafa de ver y sí que pesan un poquito más y que puede ser un poquito incómoda ahora que estamos en verano. También la gafa de sol se puede llevar en invierno y en verano. Al final, a mí, por ejemplo, en mi caso, el sol de invierno me afecta muchísimo porque es muy claro. Entonces, bueno, te tienes que acostumbrar a llevarlas. Tampoco es una cosa... Es como cualquier gafa de sol, un poquito más pesada, como hemos dicho, cinco gramos más o seis gramos más, pero es cómoda. No deja de ser una gafa Rayman. Yo para mí, por ejemplo, es cómoda. Además, que tiene diferentes opciones. Eso Emi sabe un montón de ello, diferentes modelos. Ahora si queréis comentamos los tres modelos, pero para responder a Ricardo y Arturo, pues para mí el problemilla no sería tanto un ciego que se pueda adaptar a tener algo en la cara, porque sí que es verdad que hay gente que le puede costar más o menos, sino comprártelas sin escucharlas. ¿Por qué? Porque si tienes buen oído, es decir, si tienes oído sin daño y demás, vas a escucharlas perfectamente, a no ser que haya un entorno muy ruidoso. Porque bueno, no es transmisión ósea, es transmisión aérea el altavoz. Pero como tengas algún problema de audición, se te merma bastante. Esa experiencia, con lo cual eso sí que lo recomiendo antes de comprarla, escucharlas, porque una buena gafa, una buena asistencia, una buena cámara. Si el auricular o el altavoz no es de tu estilo, porque tú necesites más vibración ósea, porque tengas alguna lesión en el tímpano, porque tengas algo neuronal, pues si es mejor que lo escuchéis, porque creo que es más fácil que te adaptes siendo ciego a una gafa que teniendo un problema a un auricular abierto. Es mi opinión, vamos. Como gafas de sol que son, son como de plástico, ¿no? El armazón, la montura es como de plástico y yo creo que no son las gafas más cómodas de mercado, por lo menos desde mi punto de vista. Las gafas de ver normalmente suelen tener como unas plaquetas que se acoplan mejor en la nariz. Y estas, pues al ser más de plástico y también la zona que va sobre la nariz, pues no tienen esas plaquetas y se pueden resbalar con más facilidad, ¿no? Con el sudor y así. Pero bueno, que es un mal menor. Estas almohadillas se pueden comprar, que es lo que supongo a lo que te refieres, ¿no? Arturo, para que asienten mejor en el puente, ¿no? Sí, las venden unos accesorios por ahí alternativos, por así decirlo, no oficiales, que tienen esta posibilidad, aunque aun conté con eso, pues tampoco son iguales que unas plaquetas de unas gafas de ver, por así decirlo, que son mucho más cómodas. Y de hecho, como son una zona de fricción y calor, este tipo de almohadillas, que son de silicona medicalizada, están muy bien a priori, acaban soltándose. Pero bueno, son muy económicas y es una solución. Lo digo porque, aunque hay distintos modelos de gafas de tamaño y puente, que ahora nos comenta si en algún caso Emi lo reconoce de ellas y de las lentes. Y así hablamos ya de modelos y entramos un poco en la harina de todo lo que hay. Lo hacemos ligero porque hay una web bastante completa de meta donde hablan modelo a modelo. Y se puede consultar y la dejaremos en los recursos. ¿Qué nos viene cuando compramos las gafas? En el paquete, que es la cajita de cartón, viene una funda como de ENEA antes, no sé, una piel o algo similar a la piel, un estiche rígido donde dentro vienen las gafas. Entre las gafas y el estuche viene una lengüeta de papel o plástico, que es lo que evita el contacto del estuche que tiene carga con las gafas que se tienen que cargar para que no empiece el ciclo de carga hasta que no, hasta que no la inminiciamos nosotros. Y eso es lo que viene. En el paquete viene una caja de cartón, el estuche de la gafa, las gafas, una toallita de microfibra y las instrucciones. Y ya está. No te viene cable, no te viene cargador. ¿Y qué tenemos en la mano? Un estuche que sirve para sincronizar de forma por Bluetooth o por Wi-Fi las gafas a todo dispositivo para cargar el mismo dispositivo y para protegerlo. Y en el mismo estuche viene un cable, bueno, un conector USB tipo C y un botón para sincronizar las gafas o para activarlas, para ver qué batería tienen desde la aplicación del móvil. Cuando sacamos las gafas del estuche tenemos unas gafas normales. En tanto y cuando, si te conoces los modelos de Ray-Ban, pues hay tres modelos. El hardware, lo que viene siendo auriculares, micrófono, cámara, batería y memoria interna y procesamiento son idénticos en estos tres modelos. El modelo Wi-Fi, más clásico, cuadrado, plástico inyectado, todos son igual, plástico inyectado, con las cantos de la gafa parte inferior, así en rombo invertido y más bien cuadradita. Luego tenemos las Skyler, un modelo basado en los años 60, que es más redondeadita, como ojitos de gato, con dos piquitos a los lados arriba. Uno a la izquierda, otro a la derecha. Y Headliner. Que es muy parecido a la Wayfarer, pero con los picos inferiores más redondeados. Estos tres modelos solamente te puedes elegir uno u otro u otro en dos tallas, en la 50 y la 53, según el tamaño de tu cabeza. Y creo que dos alturas de puente, puente alto y puente bajo, según el tamaño de tu nariz. Y por último tenemos los cristales. Tenemos tres tipos de cristales, los cristales tintados, los cristales que son polarizados y los cristales fotocromáticos, que son los que acaba de comentar David, que son los que son transparentes de forma habitual y que cuando les da el sol progresivamente se tintan. Luego hay algunos colores, hay algunos transparentes, hay algunas ediciones con brilli brilli, es decir, más brillantes. Eso es importante. Los hay transparentes, sin graduación ni nada. Y también pueden ponerte unos cristales graduados, pero ya con prescripción. Exacto. A mí me parece importante lo que has comentado de que hay que sincronizarlas con el dispositivo, porque para la parte técnica que tienen no son muy independientes. Yo lo veo más bien como una extensión del móvil para algunas cosas. Lo que has comentado y que comentaremos para poder utilizar el WhatsApp, el no sé qué, pues como una extensión. Son pueden ser independientes por alguna cosa, como para hacer fotos o hacer vídeos, pero no tienen prácticamente independencia. Tienes razón. Es decir, esa gafas sin un móvil, creo que ni siquiera con un reloj con datos. Es decir, sin un móvil no le sacas casi nada. No sólo sin un móvil, sin un móvil que no tenga instalado la aplicación Meta AI, que es el corazón y cerebro de todo lo que hacen las gafas. Y que además tenga conexión a internet. Sí, decir que también la aplicación está disponible tanto para iOS como para Android. Correcto. Sobre la aplicación, para dejarlo todo todo claro, es muy accesible y yo sólo recuerdo encontrarme problemas de accesibilidad a la hora de elegir la voz de las gafas, que es un coñacete hasta que consigues elegir la voz que tú quieres, porque el foco o la forma de aceptarlo es intentarlo varias veces y lo de guardar redes wifi, que a veces es accesible y otras veces tienes que activar la revisión de pantalla en ambos. Digo desde el iPhone. Y aquí. Aquí un aviso a navegantes para que la gente cuando si las adquiere y las va probando no se ponga nerviosa y para que quien los tienen, pues también que entiendan lo que ocurre, Meta está trabajando diariamente modificando cosas de la aplicación Meta AI, intentando sincronizar todo con otras aplicaciones suyas, con otras aplicaciones externas y demás. Y realmente tiene un comportamiento muy errático y aleatorio la aplicación, que hace que algunas veces no funcionen algunas funciones, valga la redundancia, que habían ido bien hasta el momento de actualizar o hasta el momento que ellos tocaron, se suelen solucionar rápidamente, pero generan mucha inquietud cuando ocurren. No sé si os pasa lo mismo. Sí, a veces te permite poner un recordatorio y otras veces no te lo permite. A veces te permite, sobre todo cuando tienes en inglés las gafas y por VPN. Yo tengo más funciones en lo que se refiere a integración con plataformas de streaming o mira el QR o incluso Shazam en español, las van implementando, pero ya te avisan que no todas las funciones estarán disponibles en tu idioma de forma inmediata. Así que ir poco a poco. Una cosa graciosa para los oyentes fue cuando ya Meta abrió por fin la liberación de la inteligencia artificial en España. Primeros de mayo. Que en todos los grupos de WhatsApp que éramos usuarios, cada vez que alguien decía ya me ha llegado la inteligencia, todos aplaudíamos, nos alegrábamos y mirábamos con ilusión a ver si nos llegaba a nosotros el mensajito de Meta, ella está disponible en su región. Sí, porque ahora en qué regiones están disponibles y con qué funciones? Porque ahí sí que hay una diferencia. Habrían como tres estadios, no? Es decir, los países que están a full, que tienen todas las funciones. Estaría bien lo que es Australia y Estados Unidos y Canadá. Puede ser? Sí, y Australia creo que también. Sí. Al cien. Al cien por cien. Tienen todas las funciones y aplicaciones. Luego tenemos Europa que estamos nosotros ahí metidos con España, Italia, Francia. Más México. Inglaterra y Alemania, no? Y luego hay otro que son los demás que aún siguen trabajando muchos con VPN. Pero qué bueno que de una u otra manera va a funcionarle bastante bien. Y siempre hay posibilidades de utilizarlas. Igual a veces se toca reinstalar de nuevo y hacer las peripecias que tuvimos que hacer nosotros durante muchos meses. Pero bueno, se pueden utilizar. Vamos a comentar una legal que hacíamos algunos de nosotros cuando no. Muy rápido, simplemente con las gafas puedes dar un mensaje a WhatsApp. Ya da igual el país que te encuentres. Esa opción parece que sí que está totalmente usable. Pues nosotros, cuando no teníamos la aplicación y ya no habíamos hartado de las VPN, porque antes era una vez al mes, luego fue una vez a la semana, luego era cada tres días, ya nos hartamos y utilizábamos, pues por ejemplo, inteligencia artificiales de WhatsApp como Zapia o Copilot o Pikibot, que buena Pikibot ahí. Entonces le mandábamos una fotografía y le decíamos que respondiese en español y que nos hablara de la foto. Él nos manda un mensaje, lo leemos con las gafas, repreguntábamos. Y esa es una buena forma por si os desesperáis un poquito hasta que no llegue a vuestra región y no queréis seguir utilizando VPN y VPN. Es un poquito más lento, pero te saca muchas veces las castañas del fuego. Correcto, son los chatbots que hay para WhatsApp y simplemente hay que instalarlos como un contacto. Así es como funcionan. Yo, fíjate, hablando un poquillo, solventando un poco las dudas que ha habido personas que se han puesto en contacto conmigo, de decirme que tiene esto, tiene esto, otro. En las gafas, en cuanto a características técnicas, me parece una cosa muy relevante que la gente pregunta también porque lo quieren saber es si se pueden apagar y si se pueden apagar, tienen un pequeño interruptor interno en la patilla izquierda que le posiciones es un poco costoso al principio hacerse con él, pero se pueden apagar y llevarlas totalmente apagadas como si fuese una gafa normal. Ahí estarías guardando batería y estarían apagadas. Luego las enciendes y se vuelven a sincronizar. Es un deslizador, está muy duro, hace falta maña. Hasta que llegas a controlarlo, pero es importante saberlo manejar porque muchas veces nos salva de bloqueos y malos funcionamientos. Sobre la patilla derecha lleva los controles táctiles donde puedes subir y bajar volumen. Si no recuerdo mal, hacer un deslizamiento para adelante sería subir volumen, para atrás sería bajar volumen y luego puedes hacer gestos sobre la patilla directamente. Puedes pausar una canción, puedes contestar una llamada. Y sobre esta patilla hay un pequeño botón. Ese botón es el que permite realizar una fotografía. También permite realizar un vídeo o interaccionar con la cámara si estás en una videollamada de WhatsApp. Si estás con una videollamada de WhatsApp con el móvil, si das doble clic, corregirme si estoy equivocado, es hacer una doble pulsación y empieza la cámara a mostrar el vídeo y sería una especie de videojuego en primera persona. La persona que tiene el móvil vería lo que nosotros vemos desde las gafas. Luego comentamos un poco en experiencias y en demostraciones. Que no se nos olvide esta experiencia en concreto de lanzando la cámara en videollamada y el servicio de Be My Eyes con voluntarios también que está integrado en las gafas y es uno de los pilares más fuertes y de las... Bueno, yo creo que algo determinante para decidirnos a adquirir unas gafas de este tipo, porque solo por eso ya tendrían un valor. ¿No? Y una cosa muy, muy importante es que no tienen GPS. Es decir, no tienen sistema de posicionamiento. Le utilizan la del móvil, las indicaciones que tiene el móvil. Si ponemos Google Maps en el móvil oiremos las indicaciones en los auriculares de la propia gafa, pero ellas por sí solas no tienen GPS y hay que hacer lo que decía antes Emi, que hay que ir con el móvil conectadas con ellas y sincronizadas. El botón que has comentado que es configurable, lo de una pulsación corta para fotos o una pulsación larga se puede invertir y se puede configurar al revés. Y lo de la pantalla táctil, pues se pueden hacer pulsaciones cortas o largas, que en algún caso también se puede configurar un poco. Y un punto también importante para terminar un poco la descripción física es la batería, que quizás puede ser un punto negativo, pero que la duración puede andar por unas cuatro horas aproximadamente. Y si grabamos vídeos, pues duran media hora. Sí, pensad que son 150 miliamperios. Eso es muy poco. Es decir, cualquier móvil actual tiene como mínimo unos 5000 miliamperios. Y luego el estuche de carga queda para ocho cargas completas y la gafa se suele cargar en unos 30 a 40 minutos desde cero. Está muy bien. Sí, sí. 32 gigas de memoria interna, cinco micrófonos, dos altavoces, uno a la izquierda y otro a la derecha, una cámara de 12 megapíxeles y una calidad de 1080 progresivo que viene siendo Full HD. Bueno. Es un vídeo que no me falta nada. No, no, no te falta nada. Pero ya que has dicho esto, sí que me interesaría, antes de pasar a describir más cosas, que habláramos del audio, tanto de los micrófonos como de los mini altavoces. Antes, David y Emiliano comentaron algo, pero creo que es importante que hablemos de ello porque es un factor determinante. Es decir, se escucha muy bien en un entorno tranquilo, pero en un entorno de ciudad con tráfico medio o alto, o en una zona acústicamente saturada, no se escucha tan bien. En el metro no se escucha bien. Sí, hay mucho... Es decir, tienes que hacerte una especie de cuencos con las manos y taparte lo que son la parte de las patillas de los mini altavoces para que se aumente el volumen. Es decir, esto hay que tenerlo en cuenta, porque no se puede pasar ese audio a ningún otro altavoz. Es decir, es así. Y entonces, claro, es una cuestión que nos podemos quedar sin oír nada como haya mucho ruido. Como reproductor, sí que es verdad que el concepto de oído abierto tiene sus pros y sus contras. Si, por ejemplo, estás en la parada de autobús, estás a pie de calle, hay ruido, son las 7 de la mañana, mucho tráfico y tienes que hacerte la cazoletilla que le decimos nosotros, el cuenquito, justo en la oreja para que el sonido aumente. Como reproductor, ahora, como emisor de voz, como captación de voz y captación del entorno en llamadas. Lo que voy a decir ahora es una experiencia mía. A todo el tiempo utilicé los Voyager 5200 UC, los anteriormente conocidos como Plantoni, ahora Poly. Son unos auriculares de una sola oreja con un palo largo que te captan los medios graves y agudos de tu voz y era el mejor. Incluso tenía una tecnología que era de Win Free, aunque te estén soplando el viento, no se te mete en la conversación. Nunca, repito, nunca he conocido un dispositivo que iguale a ese en calidad, excepto cuando me compré la Raybound Wayfarer. Te captura muy bien la voz tuya. Elimina bastante, bueno, bastante impresionantemente bien, excesivamente bien el ruido de fondo y el viento y demás te lo anula. A mí personalmente me encantan como para hacer llamadas. WhatsApp, teléfono o cualquier tecnología que haya. A mí personalmente me encanta como captación de mi voz y demás. Genial. Tiene cinco micrófonos, ¿no? Eso es. Especialmente buenos, como ha dicho Emi, para las llamadas. La otra persona, el otro interlocutor con el que estás hablando, no escucha nada del ruido que tienes alrededor tuyo. Puede estar en un centro comercial con la música a tope y el otro no se entera. O eso puede ser bueno o malo, ¿no? Puedes tener una persona al lado que te comente o que quiero comentar algo a la otra persona que tienes todo el teléfono y no lo oye. Sí, esto está bien traído y creo que se puede ver como algo positivo o algo muy negativo. Es decir, cuando estéis conversando por teléfono, quien está cerca de ti y quiere hablar con tu interlocutor que está al otro lado de la línea, lo va a tener muy difícil porque la cancelación de ruido es tan sumamente perfecta que prácticamente te anula todo lo que viene de fuera. Y eso es así. Lleva cinco micrófonos que los gestiona muy bien, dos en cada patilla y uno en el puente. Cuando estás haciendo una llamada o una grabación de audio, tres de ellos están captándote y dos de ellos actúan para contrarrestar el ruido. Con lo cual eso está muy bien. Pero ocurre una cosa cuando grabamos vídeo, que es totalmente distinta y conseguimos otro efecto con el sonido, ¿no? Correcto. Cuando grabamos en vídeo, en lugar de cancelar en nuestro entorno, lo capta y yo te juro que parece que lo amplifique porque estás grabando algo, una fiesta, una algarabía y luego cuando te la reproduces, puedes casi, casi colocar espacialmente donde estaba cada elemento porque capta alrededor de tu cabeza muy bien. Sí, sonido inmersivo lo llama Meta, sonido inmersivo. Parece que estar dentro es un poco locura porque cuando reproduces en el mismo sitio donde acabas de grabar, estás escuchando la realidad y un doble de la realidad al mismo tiempo y está muy bien porque escuchas sonidos detrás, sonido a la derecha, sonido enfrente, el que has grabado y entonces claro, la cabeza te revienta, dices ¿esto qué es? Hasta que te acostumbras. Era un sonido prácticamente binaural, porque para grabar este tipo de sonidos los micrófonos tienen que estar prácticamente sobre los oídos y en este caso están muy cerca de los oídos. Entonces es un sonido prácticamente binaural. Luego lleva un límite de tiempo en estas relaciones. No pensemos que puedes grabar una película. Puedes grabar, creo máximo tres minutos. Puede ser. Y por cada clip. Creo que internamente puedes tener hasta 100 minutos o cosas si no sé muy bien, 32 gigas. Y por cada gatilleo que digo yo, cada clip son máximo tres minutos. ¿Cómo puedes configurarlo? Si quieres 15 segundos, un minuto o tres. Bueno, de hecho, cuando dices graba vídeo y envíalo por WhatsApp, habría una grabación y una retransmisión, sólo graba 15 segundos, no te graba más. Eso está predeterminado. Tendrías que decirle, bueno, invocarlo con el nombre mágico que es EIMETA. Y a partir de ahí es cuando ya le dices grabar vídeo o tomar foto. Y es cuando hace esa función. Y ahí sí que son tres minutos o lo que tú le hayas configurado, como dice a mí. Antes de que sigamos para adelante ahí, vamos a poner en valor. Es que os lo juro, cuando pienso en las cosas que voy haciendo cada día y las pongo en comparación con otro producto similar, hay cosas que no echas de menos hasta que te das cuenta por qué lo hicieron, que te aísle la voz cuando tú hablas. No solamente sirve para la llamada o para... No, es que incluso para interactuar con las gafas. Cuando hay muchísimo ruido a tu alrededor, cuando yo utilizaba las solos que no tenía ningún tipo de cancelación ni de aislamiento, yo tenía muchos problemas para que terminase de escuchar mi mensaje, porque se le colaba la voz de alrededor de todo el mundo. Si estabas en una cafetería era imposible. Sin embargo, con tus metas es muy difícil que se meta una una conversación por medio cuando tú ya has iniciado. Por ejemplo, EIMETA, dime qué hora es, EIMETA, la batería, EIMETA... Hablar de los mandos de voz, ¿no? Sí, cuando tú hablas con metas sin estar en llamada. Seguro que también aísla tu voz y recoges solamente tu voz aislando el entorno, porque no se me mete... O sea, cuando yo termino de hablar, aunque haya ruido, ella capta que yo he terminado de hablar, entonces no es lo mismo que con las solos. Con las solos es... Prácticamente tienes que estar dándole constantemente al botón de deja de escucharme, porque no te dejas de escuchar. En el momento que estés en una cafetería, escucha todo lo que hay alrededor y que esté tan dirigido y tan aislado, tan... Está hecho con mi modo. Lo veo que han querido hacer algo bien. Y eso me gusta. Luego son muy disfrutables a la hora de tenerlas en un interior, por ejemplo, en casa, cuando estás haciendo tareas y no quieres ponerte algo que te cancele el ruido completamente, porque quieres estar pendiente de que puedan llamar al telefonillo si viene el cartero o cualquier visita, que te suene cualquier otro dispositivo que tienes por casa, que tienes puesto el horno y necesitas escuchar cuando termina el temporizador. No, pues ahí puedes estar escuchando un audiolibro. Puedes estar escuchando música y te deja el oído abierto. Entonces es una opción muy útil. Yo la utilizo mucho así para escuchar audiolibros. Me parece una opción muy buena. Tiene bastante calidad. Estoy hablando con esto. No sorprendió mucho. Me sorprendió mucho a mí la calidad del audio. Sí, tanto en audiolibros como en podcast, que yo utilizo mucho para escuchar podcast, como también el Spotify. El Spotify. Se escucha de maravilla. Vamos, yo no lo he probado con otro tipo de plataformas de música, pero esa en concreto se escucha muy bien. Sí, ahí podemos hablar de las aplicaciones que tiene conectadas, que hay varias aplicaciones como que han llegado a un acuerdo con Meta. Entre ellas está Shazam, está Spotify, está Amazon Music. Hay algunas que todavía no están disponibles en España, como puede ser Audible, audiolibros de Amazon. Luego tenemos para nuestro colectivo la de See My Eyes y creo que no me dejo ninguna. Apple Music y Calm. Y luego iHeart o algo así, que es una de radios que sólo tienen en Norteamérica, Canadá y Australia. Vamos, pero eso se incorporará pronto aquí. Son pequeñas aplicaciones que va incorporando dentro del ecosistema de Meta. Meta para que funcionen bien con sus gafas y la verdad es que tiene sus propios comandos de voz. No quiere decir que no te vayan a funcionar otras aplicaciones. Yo tengo YouTube Music en versión premium y lo escucho perfectamente. Y gestos que se utilizan en YouTube de dar doble clic en la patilla o un clic para hacer avance de la canción, retroceso o subir y bajar volumen, me funcionan también perfectamente. Quiero decir que lo que se reproduce por el auricular del teléfono, de la tablet, lo que se tenga sincronizado, se va a escuchar por la gafa. Sí, asume los controles de auricular, verdad? Las gafas como si fueran auriculares y entonces, como son estándar, pues prácticamente puedes hacer lo básico, pero lo hace. Lo que no puedes hacer es invocar, por ejemplo, a Siri si utilizas o cualquier otro asistente en Android. Es decir, en principio no te escucha Siri. Siri no, pero ChatGPT sí. Ah vale, cuéntanos eso. La prueba con ChatGPT también parece que estás un poco loco cuando vas por la calle con ChatGPT, porque vas con unas gafas y vas hablando solo, pero la gente te va a mirar mal. La verdad que puedes poner ChatGPT y hablar con él directamente y mantener una conversación directa. No va a poder coger el control de la cámara. No va a poder coger una fotografía porque no puede interactuar por sistemas de privacidad y seguridad, pero sí que puede hacerlo por voz. Y es muy útil porque es mucho mejor que Meta, hay que decirlo. Te estoy escribiendo bien, pero hablando con ChatGPT es una experiencia que está muy bien. Yo lo recomiendo. Es un poco locura también, pero lo recomiendo. Para la carta a los Reyes Magos, yo pediría que esa camarita la dejasen un poquito más open y que ahí pudiese entrar también como asistente, porque el vídeo en directo de ChatGPT a mí personalmente en algunas ocasiones también me ha venido muy bien y creo que ese tipo de historias sin tener que sacar móvil en la calle y demás sería genial. Tenemos ya Meta ahí y va muy bien, pero un live sería genial. Un live es poder... Vídeo en tiempo real no sería así como mire, dime lo que ves. Veo una casa con dos árboles y ahora, ahora veo una chica que está paseando. Y ahora, ahora está pasando un perro. Es decir, no tiene que estar mire, dime lo que ves, mire, dime lo que ves, sino más sencillo, pero eso de momento no está. Se puede hacer en el primer grupo de países que he dicho en Estados Unidos y tal. Se puede hacer. Claro, si es una demo o es una... No, no, no, ya está incorporado ya. Es decir, la descripción en tiempo real. Sí, sí, está incorporado ya, ya se puede hacer. Sí, sí, tiene razón Arturo. Pues Australia, Canadá y Estados Unidos. Sí, un consumo muy alto de batería, pero está bien. Y con Meta, con la guía de Meta. Eso es, que la guía de Meta flipa y alucina un poco, ¿no? Si queréis, podemos poner una pequeña demo. Es con su propia guía. Pero con este caso con Meta que nosotros describimos o pedimos cosas, yo he hecho la prueba de solicitar ayuda para realizar la consulta de la fecha de caducidad de un producto. Bueno, ponemos la demo y si queréis comentamos. En esta prueba voy a analizar la fecha de caducidad de un producto. En este caso es pan de molde. La fecha que me han dicho que tiene de caducidad y que aparece real en el producto. El producto es 4 de junio. Hey Meta. Mira e identifica la fecha de caducidad de este producto. La fecha de caducidad de este producto no se muestra en la imagen. Hey Meta. Mira, analiza e identifica la fecha de caducidad que aparece en este producto. La fecha de caducidad de este producto es el 12 de septiembre. Para este producto. Un cartón de leche que caduca el 9 de agosto de 2025. Esto me lo han dicho porque es lo que aparece realmente. Vamos a preguntar a Meta. Hey Meta. Mira e identifica la fecha de caducidad de este producto. La fecha de caducidad de este producto no se muestra en la imagen. Hey Meta. Mira, identifica y analiza la fecha de caducidad de este producto. La fecha de caducidad de este producto es el 7 de agosto de 2025. Bueno, qué os parece? Porque la verdad que ha fallado. Tiene que estar muy claro. Bueno, es que las fechas de caducidad particularmente creo que no son la mejor tipografía para reconocerla por ninguna inteligencia artificial, ni tan siquiera OCR, porque son como estampaciones. No es un carácter de imprenta, pero sí, sí. En una falla y en otra se aproxima, pero falla también. Pero bueno. Sí, la verdad que, bueno, pues tiene que estar como muy claro. Tiene que estar impreso, además, en un fondo que él detecte muy bien. Y no es que no dude, sino que me ha dicho una fecha que no se corresponde. Bueno, mejor te cuida con ese yogur o el chopper. Hay que tener cuidado. Ten cuidado que te lo puedes comer con peluquita. Sí, sí, sí. La verdad es que esto lo tienen las inteligencias artificiales generativas. Que siguen alucinando mucho y aún no tienen la clave de cómo controlar estos desvaríos. Y eso en una cuestión de reconocer una fecha de caducidad puede ser un error y que nos lleve a una intoxicación, sin más. Pero bueno, le puedes preguntar, puedes preguntarle varias veces. Igual sería casi un pleno si se equivoca cinco veces de las que preguntas. Pero lo normal es que más o menos hagas una media y puedas sacarle cierto valor a lo que te está diciendo. Pero bueno, hay que tener cuidado. En un caso práctico que si queréis puedo poner aquí de un uso mío cotidiano en un cajero automático que conozco, es decir, que yo ya he utilizado con accesibilidad, con auricular de forma habitual, pero que últimamente tiene un pequeño problema, que es que no sé por qué me han bajado el volumen, con lo cual funciona toda la accesibilidad. Es decir, teclado perfecto. Si le das al dos varias veces, la marca de la empresa CaixaBank se da varias veces. Activa el modo todo por teclas, pero no habla ni aunque le pongas auriculares. Lo he probado esta mañana y no habla. Entonces es complicado. Te puedes aprender los menús, pero el momento que te cambien un menú ya te has quedado con el camino cerrado o si necesitas una confirmación de que el dinero que estás sacando es el que quieres sacar o el dinero que estás metiendo es el que de verdad has querido meter. Por ejemplo, tú metes 300 euros, pero te dice que ha contado 250. No? Os pongo si queréis un audio demo teniendo estas consideraciones. Es un cajero que yo utilizo de forma habitual con auriculares y en esta ocasión lo utilizo sin auriculares, pero sí que está adaptado para ciegos. La verdad es que sin auriculares, por muy adaptado que esté, no iba a tener un feedback y para esto utilizo yo la RayBan Meta. Os parece bien? Sí, sí. Pero cómo suena? Vamos a darle. Bueno, estamos en un cajero supuestamente accesible, pero resulta que no tenemos auriculares y hay pues ruido de coches y demás. No importa, tenemos nuestras gafas. Así que empezamos. Primero activamos la accesibilidad. Estos cajeros son de la Caixa, vale? Le damos varias veces al dos que aunque no nos da ningún feedback de voz ni sonido. Ahora decimos hey Meta, mira y lee la pantalla. Introduzca la libreta o la tarjeta. Ya me está pidiendo la libreta o tarjeta, con lo cual cojo la libreta. Le introduzco en su lugar y la traga. Ahora hace un ruido. Una vez que deja de hacer ruidos. Está escribiendo todo lo que ve en la libreta. Miramos y le decimos hey Meta, mira y lee la pantalla. ¿Qué deseas hacer? Sacar de tu cuenta, extracto, ingresar, saldo, cambiar de PIN, cambiar de idioma, salir, repetir mensaje. Cada una de estas opciones. 1, 2, 3, 4. En caso mío es el 3. Así que le damos al 3 para hacer un ingreso. Esperamos unos segundos y hey Meta. Mira y dime lo que ves. Veo un teclado numérico. Hey Meta. Mira y lee la pantalla. Pulsa continuar para aceptar. Hemos aceptado y le damos a continuar. Hey Meta. Mira y lee la pantalla. Tecla tu PIN. Mete tu PIN. Introducimos el PIN. No he metido. Hey Meta. Mire y lee la pantalla. Hay Meta. Mira y lee la pantalla. La pantalla muestra el mensaje. Reclea el importe a ingresar. Metemos el dinero que queremos ingresar. Lo metemos. Hey Meta. Mira y lee la pantalla. Que metamos el dinero. Lo metemos. Y ahora empieza a contar. Ahora nos dirá el recuento. Así que hey Meta. Mira y lee la pantalla. Hey Meta. Mira y lee la pantalla. La pantalla muestra el texto. Recuento de billetes importe del recuento. Doscientos euros importe del recuento. Doscientos euros. Confirmar recuento del recuento. Continuamos. Confirmamos y volvemos a mirar. Hey Meta. Mire y lee la pantalla. La pantalla muestra un mensaje que dice ingreso realizado. Ya está disponible en cuenta. Y ya hemos hecho un ingreso. Y le decimos que no queremos comprobante, que es el 1. Siempre la opción que te va diciendo es la 1, la 2, la 3. Pues te dice sin comprobante, etcétera, etcétera. Y así ya tenemos hecho nuestro ingreso. Nada, está muy bien. Pero fíjate, escuchando lo que has puesto, la experiencia que has tenido, me parece muy útil que no has tenido que sacar tu teléfono. A nivel de seguridad, parece una opción muy buena. Porque simplemente con las gafas las has podido escribir. Esto me parece una opción que hay que tener en cuenta. Si no utilizáis habitualmente cajero, no lo recomiendo, porque obviamente vais a estar con la tarjeta, con la cartera, con el dinero. Hay que ser ágil, ¿vale? Pero si vais a utilizar de forma habitual un cajero, o si os interesa adiestraros en el uso de un cajero, además de CaixaBank, creo que Santander y BBVA tienen opciones de accesibilidad. No sé si conocéis alguno más, pero bueno, casi todos los cajeros que tienen la entrada de auriculares tienen alguna opción de accesibilidad. Solamente hace falta preguntar. Y en el momento en que se nos active el teclado en pantalla y tengamos cierta experiencia, podemos utilizar un cajero. Prácticamente ya no salgo con auriculares por la calle. O sea, de hecho, de enchufar y demás, me resulta más cómodo ir con las gafas y hacer lo que acabáis de ver. Pero hay que ser ágil y conocerlos previamente, ¿no? Porque como tú muy bien has dicho, pues las opciones del principio, pues no te dice la opción uno tal, la opción dos tal, ¿no? Pues te lo das ahí del tirón. Tú ya sabes cuál es cuál. En esa demo, en esa demo, simplemente pone sacar dinero tal, pero si le esfuerzas un poquito a que te lea más detallado, a darme más detalles o sí que llega a decirte uno sacar dinero, dos tal. Y de hecho, si queréis, vemos otra audio demo que tengo en la parada de autobús en Sevilla y supongo que en otras localidades. En España tenemos cada uno una aplicación para saber cuándo va a venir autobús, qué distancia le queda o cuáles son los autobuses que vienen. Pero para eso necesitamos saber en qué parada de autobús nos encontramos. Entonces yo miro a la parada de autobús, me alejo un poquito, miro hacia los cristales y bueno, y hago esto que os voy a poner. A veces necesitamos saber en qué parada de autobús nos encontramos y puede que las gafas nos sirvan para ello. Vamos a preguntarle. Hey Meta, mira y dime en qué parada de autobús estoy. Estás en la parada de autobús número 0 7 9. Muy bien, ha funcionado. Bueno, pues muy bien te lo ha reconocido. 0 7 9 es la parada 79 y a partir de ella desde la aplicación, en mi caso, Tucson, porque son los autobuses de Sevilla, pero en la casa de cada uno, pues podréis utilizar esa información para localizar la parada e interactuar. Esto es un cartel rotulado, no es ninguna pantalla ni display, no? Yo mire directamente al cristal. Es un cristal, no hay ni pantalla ni nada. Es un cristal con el nombre de la parada y las distintas líneas que que entra en esa parada. Entiendo que lo del banco sí que es una pantalla o display, no? Qué comportamiento habéis visto en otros displays de electrodomésticos, dispositivos y demás donde lo habéis podido utilizar? Suelen ser fiables? No, yo, por ejemplo, en la lavadora que tengo se vuelve loco. No, no es capaz de identificarlo. Tiene un display como muy cuadrado. Los números muy cuadrados y no es capaz de hacerlo. Otras aplicaciones donde hay aplicación móvil. No interesa la freidora de aire que tengo. Tengo aplicación móvil ahí, no lo he utilizado, pero la lavadora que para mí no es accesible, la lavavajillas incluso, tampoco lo ha identificado bien. Correcto. Entonces si alguien se las compra porque cree que va a poder manejar todos los displays de su casa. No. Eso es, no. De momento. De momento. Danos tiempo, porque cuando nos venga la de Estados Unidos que están ahora, que va a ser más en vivo, ahí sí que puede ser algo diferenciador. Pero a día de hoy yo además tienes como la inmediatez de hacer una fotografía porque él captura una fotografía, la analiza y te da el resultado. Muchas veces esto, estos displays son cambiantes. Entonces tiene que ser. De momento, justo. A mí estaba en la parte del cajero donde tiene un display que está fijo, pero si ese display se moviese, tiene que capturar justo el momento. Ahí el problema que tenemos a día de hoy. Si quieres capturar la línea de autobús que está viniendo, tienes que capturarlo justo porque a lo mejor viene un autobús detrás y capturas el de atrás. ¿Es fiable para coger el autobús? Porque si se inventa el número, a lo mejor te dice otro número que no es. Que cuando llegue al autobús le pregunten mira y dime cuál es el número de ese autobús. Sí. Sí, sí, decirte un número te lo dice, pero es fiable porque a lo mejor te está diciendo otro número que no es realmente el de este autobús. Yo siempre verifico, no sé. Claro. Es que los autobuses llevan una... Por lo menos aquí en mi ciudad llevan una numeración de autobús. Aparte de la línea del autobús, puede capturar otro número. Al igual que ha pasado con las fechas de caducidad de un producto. Te puede decir a lo mejor línea 153 y resulta que es el 5. Sí. A lo mejor te está leyendo el número del bastidor que está debajo. No, no, es algo más grave y más profundo. Y creo que ya lo hemos comentado en algún momento, pero no en este episodio. Es la forma con que se entrena la guía generativa. Es enseñándole muchos números de autobús. Entonces muchas veces puede identificar que es un autobús y un número y utilizar alguno de los números con el que fue entrenada. Quien dice esto dice en una carta de un restaurante, en cualquier... No es un OCR. No te está haciendo una lectura real sobre el sobre lo que está viendo. Es una lectura aproximada y con cierta tendencia a la alucinación. Y eso hay que tenerlo en cuenta. Yo lo siento mucho porque porque no tenemos aún la fiabilidad total y puede llevarnos a morir con el tema de los semáforos que lo has probado tú, Ricardo. Que nadie tome esto al pie de la letra, pero porque no es 100% fiable. Y si tiene un 5% de error, eso puede suponer que en el caso de autobús, que cojas otro autobús y te vayas al quinto pino. O en el caso de los semáforos, pues puede ser más peligroso todavía. En mi tiene una prueba con un semáforo hecho y ahora veréis. De hecho, precisamente porque no recomiendo estas gafas para... Yo qué sé, yo la recomendaría si quieres cruzar cuando estés seguro que puedes cruzar y tengas una micro mínima duda, porque la prueba es que os lo pongo aquí, la he hecho con toda la intención del mundo de que veis que alucina con el mando del semáforo piando para que veáis que pita de verdad, que está en verde y aún así me hice rojo. Y cuando deja de pillar y ya está en rojo, me hice verde. Y aunque quiero centrar que el que está delante, el semáforo delante, eh no. Es muy buena, así que os lo pongo y no es que quiera quitar la ilusión, pero hay que decir lo que no son para lo que no soy recomendable. Utilizar las gafas es para leer el semáforo. Por ejemplo, ahora veis que está sonando en meta. Mira y dime el color del semáforo que tengo de frente. El semáforo parece estar en rojo y escucháis. Y ahora le digo hey, mira. Mira y dime el color del semáforo que tengo enfrente. El semáforo parece ser verde. Veis, ha dicho verde cuando ha dejado de funcionar y ha dicho rojo cuando estaba pío pío. Supongo que puede ser simplemente porque esté viendo varios semáforos y no directamente el semáforo correcto o está viendo la luz superior del semáforo en lugar de la luz frontal del semáforo. Yo no recomiendo estas gafas para la lectura de semáforo. Pues sí, la verdad que no lo han hecho muy bien. Y eso sí que es un riesgo, porque si hubieras cruzado y no hubieras tenido el mando del pajarito, te hubieran atropellado sin más. Lo que sí que quiero decir es que estas gafas a nosotros, por ejemplo, yo, por ejemplo, en Millano Madrid he encontrado con ella una utilidad muy grande, que es detectar una una obra cuando voy con el perro y el perro se para. Yo tengo un perro guía y los usuarios de perro guía o los usuarios de bastón, pues tenemos una forma muy concreta de detectar obstáculos de en el pavimento y demás en la vía pública. Cuando vas con el bastón, pues vas andando con cuidado, haciendo un arco y haces clic en algo y tienes que ir tocando con el bastón para saber si es arriba, si es abajo, cuánto dura, si lo puedes rodear con el perro. Ni siquiera eso con el perro. El perro se queda parado y ahora tienes tú que interactuar con tus manos y tus pies. Gracias a eso, yo por lo menos he podido detectar qué es lo que tengo delante. Tienes una obra y decirle si hay algún camino habilitado y decirme que a la derecha hay un camino. Esa segunda parte se oye peor porque estaba en la calle, pero aquí os lo pongo para que veáis así como para el semáforo. No lo recomiendo para darte una idea de lo que tienes delante sin tener que estirar la mano y demás, te puede venir muy bien para una primera aproximación tangencial. Los usuarios de perros guía solemos ir por la calle y el perro esquivarnos cosas sin que sepamos realmente lo que nos está esquivando. Pero hay momentos en los que hay una cosa que se llama obstáculo total del pavimento OTP. Eso significa que el perro tiene que bajar la acera, hacer un trabajo un poquito complejo y con la habitualidad nuestra, deberemos de hacer un trabajo de pies y manos, es decir, con los pies y con las manos, ver qué es lo que estamos rodeando. Pero ahora con la raiva meta tenemos otra opción. Es simplemente decirle hey meta, mira y dime qué tengo delante mía. Tienes una acera con una valla amarilla y varios coches aparcados en la calle. ¿Hay algún sitio por donde yo pueda pasar rodeando eso? Hey meta, mire y dime cómo puedo rodear. Hey meta, mira y dime cómo puedo esquivarlo. Vamos a comprobar si es cierto. Busca sitio. Mi perro efectivamente está rodeando con cuidado y efectivamente hay un camino que está habilitado para esta eventualidad. Perfecto. Llegamos a la acera de nuevo y buen trabajo. Bueno, muy bien. Qué lástima que no se escuche mejor la segunda parte, pero nos hacemos la idea porque pudiste bordear el obstáculo, ¿no? Sin ningún problema. Además, efectivamente había el pasillito que dejan entre la carretera y la obra con conos a mi derecha. Con lo cual eso me gusta. A veces puede alucinar también. Tienes que tener miles de ojos. Lo que vea como camino puede ser una zanja. Obviamente, si tenéis perro o bastón, utilizadlo. Claro, claro. Por supuesto. Pero es lo que hemos comentado. Te ayuda a anticiparte un poco. Claro, es el resumen de las gafas. Creo que es otra ayuda más para nosotros. Sí que nos ayuda, pero lo que dice Emi le ha ayudado mucho en esta ocasión. Ha habido otras que no. Cuando vas a cruzar un semáforo lo hemos visto que ha fallado. Cuidado y mucho cuidado. Entonces, pues es otra ayuda más que nos sirve y estamos viendo lo que nos sirve, lo que no nos sirve, cómo nos puede ayudar, como en otras cosas alucina también. Y hay que quitar la etiqueta de tecnología de asistencia, porque aunque no se asiste, no es tecnología de asistencia. Es tecnología de consumo que nos puede prestar ciertos servicios o cierta ayuda, como dices tú, David, en momentos puntuales, con todas las reservas del mundo. Esa inmediatez que nos puede dar es muy útil. Hasta ahora no existe una opción de que pueda leer códigos. A ver, sí que lo tenía en temas de QR, pero hemos visto que está fallando últimamente cuando vas a leer un menú de cualquier restaurante. Antes esto sí que te mandaba un enlace. Ahora está fallando. Lo hemos visto que fallaba. Pero bueno, cuando se arregle, pues nos da lo que comentaba al principio yo, esa inmediatez de no tener que sacar tu móvil y demás. Bueno, en este caso el QR, a lo mejor sí lo tienes que revisar ahí, ¿no? Pero en el futuro... En el QR sí tendrías que revisarlo. Bueno, no tienes que sacar el móvil para hacer la foto al QR, pero sí te manda el enlace a la aplicación y ahí es donde ya pinchas y accedes al contenido del QR. Pero veréis, el escáner de QR que trae el iPhone, resulta que yo tenía que prácticamente poner el móvil encima del QR, ¿vale? Sin embargo, con las gafas, con que ella vea que hay un QR, cuando funcionaba, porque esto, como dice David y es cierto, funcionó en su inicio y ahora creo que funciona en inglés y demás, en los países del primer grupo, era súper sencillo porque simplemente mira y dime si ves un QR. Sí, veo un QR, pues escanea el QR y automáticamente habría ya la web en tu navegador preferido, en tu móvil. Y no era coger el móvil, sino la esquina de la mesa o la esquina de la caja o el central. Yo incluso lo utilicé para sincronizar mi televisión Samsung con mi... con Netflix, creo que fue, que me pidió un código QR que había en medio de la pantalla. Bueno, mire y dime si ves un código QR. Y lo utilicé súper sencillo y fue una sincronía muy, muy sencilla. Yo creo que Arturo con las gafas en español no tuvo buena experiencia con el código QR. No, esta sí que la ha probado, ¿no? ¿Hay evidencia de eso, Arturo? Hay evidencia de que en español, por lo menos el día que lo probé yo, no funcionaba bien. Vamos a escucharlo. Hey Meta, mira y dime qué ves. Veo a una persona sosteniendo un teléfono inteligente con un código QR en la pantalla. Lee el contenido de ese código QR. El código QR parece contener texto, pero no puedo leerlo con precisión. Sin embargo, parece ser un enlace o una URL. Dime qué pone en ese código QR. Toma una foto, sí. Sí. Ha habido un error. Vuelve a intentarlo. Ok, Meta. Lee el código QR. No puedo leer el código QR directamente, pero parece ser un enlace o una URL. Tío, ¿y qué pachorra tienes tan tranquila, macho? Yo ya me habría desesperado, macho. Había oído tantas veces que esto funcionaba. Digo, pues ya no sé cómo preguntárselo para que me haga un poco de caso. Te ha hecho una fotito. Bueno, cuando funciona es muy práctico. La verdad que está muy bien y bueno, pues yo, sabéis, lo utilizo últimamente mucho. No, vamos, no utilizo ni la cámara. A veces simplemente converso con la inteligencia artificial y me resulta muy cómodo el preguntarle cosas. Pero igual no hace falta ni hacer una foto ni que me escriba la imagen ni nada, sino alguna duda que tengo o alguna ampliación de un conocimiento que no recuerdo, que quiero ampliar y la verdad que lo hace bastante bien. Esto sería la inteligencia artificial de MetaEye y utilizándola como asistente de voz, como hace David con ChatGPT. Pero en este caso no hay que ni que lanzar ChatGPT ni nada. Simplemente con la inteligencia de Meta que la tenemos incorporada. Si queréis escucharlo. Bueno, pues vamos a realizar una prueba de cómo se comportan las gafas Ray-Ban Meta actuando como un chatbot vocal a través de la voz. Igual que cuando hablamos con ChatGPT o hablamos con Grog o con Gemini. Así que voy a invocarlo. Hey Meta. ¿Qué tiempo hace en Málaga? En Málaga hace 25 grados. Y el cielo está despejado. ¿Y mañana? En Málaga mañana estará parcialmente nublado con una temperatura máxima de 28 grados y una mínima de 21. Me gustaría conocer la receta de los espaguetis carbonara tradicionales. Para hacer espaguetis carbonara tradicionales necesitarás 400 gramos de espaguetis, 150 gramos de panceta, 3 huevos, 150 gramos de parmesano rallado, sal y pimienta. Y la preparación es cocinar la pasta, mezclarla con la panceta, los huevos y el queso. ¿Panceta? ¿No es guanciale? La panceta se puede sustituir por guanciale en la receta de espaguetis carbonara, aunque el guanciale es más tradicional en Italia. ¿Qué es el guanciale? El guanciale es un tipo de tocino italiano curado, hecho con la mejilla del cerdo, que se utiliza comúnmente en la cocina italiana, especialmente en platos como la carbonara y la amatriciana. ¿La carbonara lleva nata? No, la carbonara tradicional italiana no lleva nata, sino huevos, queso parmesano y guanciale o panceta. Muchísimas gracias. Está muy bien. La verdad es que te da bastante información. Oye, una cosa que no hemos hablado es que cada uno tenemos puesta una voz. Y es curioso, en español hay tres voces, ¿verdad? Si no me equivoco, o seis voces. Es que no lo tengo. Una me aparenta ser como gallego, ¿no? Esa es la que tengo yo puesta. La mía tiene voz de funcionaria que está a punto de jubilarse. ¿Sabes? Sí, sí, es esa voz. Bueno, por lo menos yo la identifico con eso, pero la mía no tiene acento gallego, no es por nada. Un saludo a todas las funcionarias que estén a punto de jubilarse. Y a todas las gallegas. Una funcionaria muy laureada, por cierto, se me olvida decirlo. Bueno, pues sí, sí, tiene esas voces. Yo creo que es un talón de Aquiles que, bueno, no ponemos pega porque no sirven y entendemos lo que nos dicen, pero parece ser que en América tienen mejores voces. También te ayudan a diferenciar si las naranjas son naranjas o no, ¿no? Bueno, claro, es que esto no lo hemos comentado, pero bueno, con todas las reservas también, porque puede alucinar y eso, pero es un buen asistente en la compra cuando queremos consultar algo, ¿no? Y yo el otro día tuve la ocasión de estar en una frutería que tiene expuesta en la calle algunas frutas y bueno, pues le pregunté y la verdad es que la información que me da me dio la justa medida de cómo se encontraba ese fruto, que realmente no estaba en las mejores condiciones. Y lo vio. Hey Meta, mira y dime lo que ves. Veo varias cajas de frutas, incluyendo naranjas y plátanos. ¿Qué es esto que tengo en la mano? Tienes una naranja en la mano. ¿Qué aspecto tiene? La naranja parece ser de color naranja. Con una piel ligeramente arrugada y algunas manchas oscuras. Bueno, vista la prueba, dejaste la fruta, ¿no? No la compré. A mí me queda un audio de calle que, bueno, no suele usarse mucho. O sea, los cieguitos no solemos ir mucho por centros comerciales solos, o al menos en mi entorno no es lo habitual. Pero sin embargo, en mi vida, pues sí, me gusta pasear con el perro por la calle, por centros comerciales. Me los conozco. Y es una experiencia que me gusta. Y siempre tiene el problema de que llega un momento que tanta cacofonía de ruido, de gente, de espacio muy abierto, me desorientaba un poquín. Entonces, un día probé a utilizar las gafas para identificar la tienda que tenía enfrente. Simplemente vas por el pasillo del centro comercial y cuando escuchas una música distinta del hilo musical del centro, miras hacia ese ruido. Mira y dime qué tienda es esta. Y os he hecho un pequeño audio de que son dos o tres tiendas para que veáis cómo va identificando la tienda. Yo voy andando, ¿vale? En ningún momento me paro. Simplemente escucho música, miro, pregunto, sigo andando, miro, pregunto, sigo andando, miro, pregunto. Y esta es la forma que yo utilizo para no solamente orientarme, sino para conocer el entorno, para saber qué tiendas hay. Y bueno, ir colocándolas en mi mapa mental. A veces estamos en un centro comercial y vamos paseando. Y tenemos certeza de que hay alguna tienda que estamos buscando relativamente cerca de nosotros, entonces simplemente tenemos que hacer la siguiente cuestión. Hey Meta, mira y dime qué tienda es esta. Esta es una tienda de Vodafone. Como no es la que queremos, seguimos andando por el centro comercial y cuando escuchamos, por ejemplo, que estamos delante de otra tienda, podemos volver a hacer lo mismo. Hey Meta, mira y dime cuál tienda es esta. Esta es una tienda de Vodafone. Y así podemos seguir buscando las distintas tiendas que hay. Bueno, está bien, pero esto es como el cajero, ¿no? Es decir, tú conoces el sitio y más o menos estás ratificando que estás por esa zona o qué es lo que hay en este entorno medio conocido, ¿no? Conoces el entorno, conoces la estructura. Sí. Pero no conoces el orden, ¿no? Claro, es decir, como asistente de movilidad no serviría, no podrías lanzarte a la aventura sin conocer por dónde vas, ¿no? En este caso, para una persona que tenga cierto resto visual, personas de baja visión, me parece muy útil porque pueden intuir dónde está. Para una persona ciega que conozca el entorno, como ha hecho Emi, bien, me parecen útil, pero me parece más útil para una persona que tiene baja visión, pequeño resto visual que sabe más o menos dónde está, pero no coordina dónde es justo el local que quiere ver, no se encuentra mucho. Yo tuve una experiencia de este tipo el otro día y es cierto lo que estás diciendo, David. Yo iba con un compañero que tiene baja visión, bueno, no ve apenas nada, pero sí que más o menos conoce, se mueve sin ningún tipo de auxiliar, ¿no? Pero ve muy poco. No distinguía, bueno, por una cuestión, íbamos charlando y nos despistamos y no sabíamos a qué altura estábamos y de hecho él estaba desorientado. Entonces se me ocurrió que llevaba las gafas, encarar al boleo, porque yo tampoco sabía dónde estaba, una pared, ¿no? Digo, aquí si hay algo, pues me lo leerá. Y en efecto, había un... una tienda de fotografías de estas neonatales, ¿no? Y claro, y enseguida supe que me encontraba muy cerca del pasaje donde tenía que ir. Y ahí sí que me hizo un buen papel, ¿eh? Jolín, qué bien. Eso es utilizar la tecnología de forma proactiva, ¿no? Sí. Es una forma de, oye, no sé dónde estoy, pero seguro que hay algún cartel, algo de información, como conocemos, más información de nuestro entorno, igual que cuando voy con VoiceVista, que es un software de GPS, que cuando voy por la calle sobre todo me va dando información de lo que me rodea, las calles que vienen, por dónde voy, si hay un cajero, si hay una tienda a mi alrededor y eso a mí, por la plasticidad del cerebro y demás, me va poniendo más información a mi alrededor, montándome un mapa mental bastante interesante. VoiceVista es una aplicación que sirve para ir por la calle y te dice si has puesto marcadores, dónde está el marcador y con las gafas va muy bien porque te da información sin taparte el oído. Solo para iOS, para Android tendréis lazarillo GPS. Ahí no hay VoiceVista. Y además VoiceVista en concreto, que utiliza el estéreo además para posicionarte y decirte dónde están situadas las calles especialmente y demás, como con las gafas, las dos patillas a la vez. Lógicamente puedes percibir este estéreo que con unos auriculares puede ser más difícil porque tienes que valorar dos auriculares y eso es mucho más peligroso. Sí, además el estéreo es fantástico el que se reproduce con las gafas. Si no hay mucho ruido fuera, es magnífico. Antes habéis hablado sobre las aplicaciones y también hay que decir que en inglés tienen más, más utilidades. Apple Music o Spotify. Antes podíamos decirles hey Mera, play Lista Gimnasio. Y me reproducía la lista de mi gimnasio en Apple Music. Ahora no. Ahora tienes que sacarte el móvil del bolsillo y decírselo a Siri directamente, porque en español solamente te sirve play, pause, canción adelante, canción hacia atrás. Bueno, pero ya es algo, quiero decir. Sí, no es lo mismo, no, pero, pero bueno, la costumbre. Pero era muy oye Siri en ese aspecto, tío. Claro, sí. Yo hace años que no escuchaba una canción cuando iba andando por la calle. Y como si fuese un pequeño hilo musical de cuando estás en el dentista. Estaba escuchando ahí, pero hablaba un día que llamé a Ricardo que le dije mira lo que me ha pasado. Y es que llevaba el teléfono bloqueado y había estado escuchando un efecto de sonido del mar, iba por la calle y dio doble clic a la pantalla. Se me escuchó por las gafas. Entonces me estaba volviendo loco porque digo está pasando algo por aquí. Hay una fuga de agua y tal. Y eran las gafas. Te acuerdas que lo estuvimos comentando que es tan inmersivo y el sonido es tan bueno que es inmersivo y hay que tener un poco cuidado en ese tema. Tú me comentaste además también de un concierto de salsa. En un parque estaba, se me activó una canción de salsa que debía estar escuchando la última vez que puse el Spotify. Debí tocar la patilla y estaba muy bajito. Y entonces yo le decía a la persona que me acompañaba, porque iba con una persona evidente, que ¿dónde estaba actuando la persona? Porque yo me giraba y miraba y la oía siempre en el mismo sitio. Siempre me suena a la misma distancia. Claro, estaban en mis auriculares, ¿no? Hasta que me di cuenta y sonó eso de un cuac, cuac, cuac, cuac, cuac. Y ahí me quedé. Os recomiendo a alguno que hagáis la prueba de grabar un vídeo a un minuto con un amigo a la derecha, luego que el amigo se ponga a la izquierda y reproducís el vídeo en vuestras propias gafas. Y mientras estoy escuchando el vídeo con vuestro amigo a la derecha, que os abre a la izquierda. Es una sensación súper... Bueno, es curiosísima, os lo prometo. Oye, ¿y para los medicamentos? ¿Qué tenemos? Pues en medicamentos he hecho yo una prueba y bueno, os la pongo y comentamos si queréis. Hey Meta, mira e identifica el medicamento que tengo delante. El medicamento es paracetamol Zinfa un gramo. Hey Meta, mira y analiza el medicamento que tengo delante. El medicamento que tienes delante es paracetamol Zinfa un gramo, que es un analgésico y antipirético. Pues ya veis, ha identificado perfectamente. Y en la segunda vez me ha dicho incluso para qué es. Sí que lo veo útil, más allá de que sí que sabemos que lo pone en Braille. Pero muchas veces no es fácil identificar en Braille todo lo que pone. Una caja aplastada y cosas así, perfecto. Bueno, y si lo compras de Herbolario no vas a saber lo que es porque no viene el Braille. Claro, entonces sí que sí que es útil. Y bueno, y era paracetamol o no era paracetamol? Era, era paracetamol. A ver si te vas a tomar ibuprofeno para el paracetamol. Bueno, hablemos de lectura, a ver qué tal leen los textos en distintos soportes y demás. Hemos visto que en el medicamento ese rótulo, que suele ser un texto grande y corto, lo ha hecho bien. En la pantalla del cajero también lo he leído bastante bien. Es decir, los textos lo utilizáis cuando para las cartas de restaurante, cartas que os llegan a casa, cosas de estos, lo utilizáis o no? Bueno, yo lo utilizo para una lectura rápida de el sobre de quién es y para quién va. Eso es. Pero en el restaurante me tiene días. Vale, no lo lee muy bien, no? A ver si la carta es muy larga. Depende de cómo esté estructurada. Porque la verdad que no, no va muy allá. Si tiene además los precios, tiende a liarse, tiende a decirte a lo mejor cosas que no son y incluso a veces alucina y se inventa alguna cosa. Eso es lo que te iba a decir. Es lo que hemos hablado antes, no? Que como está entrenada con muchas cartas y eso, igual coge la de otro restaurante. Con que vea un poco del palo del que va, empieza a meterte platitos que no están ahí. O sea, como ya es intolerante, como ya es alérgico a la lactosa o al gluten. Mueres. En un vegano, en un vegano es que fue brutal. Yo no he comido vegano en mi vida, no? Pero empezó a decirme una cantidad de platos y si la chiva que recuerdo que iba y dice no, no, no, aquí no hay de esos platos que te está diciendo. Eso es muy cheap, demasiado. Esto es un restaurante más normal. Sí, sí, lo que sí que ocurre es que si le haces una foto y pregunta sobre la foto, si haces una captura y luego vas preguntando, aunque tenga una lectura muy reducida, parece ser que suele ajustarse. Hace más, no? Si, por ejemplo, has hecho unos primeros platos y quieres preguntarle oye, hay carne de no sé qué o hay calamares y bueno, yo no lo he probado en ese sentido, pero parece ser que es un poco más fiable. Lo que hago cuando voy a un sitio y quiero leer la carta es primero decir léeme los entrantes, ir poquito a poco, vale? Es decir, que no se me vuelva loca. No léeme toda la carta, sino oye, me apetece carne. Qué carne es ahí? Bueno, pues yo sí que tengo una experiencia de lectura sobre una contraportada de un libro, un libro clínico y que sabía lo que ponía en esa contraportada. Y entonces ahora veréis y os comento luego un poco un truquillo que puede funcionar. Bueno, ahora la prueba que vamos a hacer es una prueba de comandos de voz para que nos lea textos. Yo tengo frente a mí un libro y voy a darle primero un comando de voz para que veáis lo que hace. Y luego un segundo comando. El primer comando es hey meta. Mira y lee lo que ves. Tomar el control del TDAH en la edad adulta. Si formas parte de los millones de adultos con TDAH, necesitas la última información científica sobre el trastorno y su tratamiento. Necesitas estrategias prácticas que te ayuden a concentrarte, a organizarte y a ganar control sobre tus emociones y a desarrollar habilidades para lograr metas nuevas tanto en el trabajo como en las relaciones familiares o las actividades personales. Ahora voy a decirle otro comando que es hey meta. Mira y traduce el texto. Tomar el control del TDAH en la edad adulta. Si formas parte de los millones de adultos con TDAH, necesitas la última información científica sobre el trastorno y su tratamiento. Necesitas estrategias prácticas que te ayuden a concentrarte, prestar atención, organizarte y ganar control sobre tus emociones y acciones. Y necesitas caminos efectivos para desarrollar tus habilidades, lograr tus metas tanto en el trabajo como en las relaciones familiares o las actividades personales. Este libro del famoso investigador y médico clínico especializado en el TDAH, Russel A. Barclay, es el adecuado para compartir historias reales de otros que luchan con el trastorno. El Dr. Barclay describe técnicas fáciles de aprender que puedes utilizar cada día para manejar síntomas y desarrollar destrezas con las que salir adelante. También ofrece respuestas claras a las preguntas frecuentes sobre medicaciones y otros tratamientos. En definitiva, es un recurso acreditado y útil para ayudarte a recuperar tu vida. Los consejos del Dr. Barclay representan una notable combinación entre ciencia y práctica. Este libro da esperanza a los adultos con TDAH y a sus familias. Bueno, como habéis comprobado, con el segundo comando, el de decirle traduce, hemos conseguido leer toda la contraportada del libro. Entonces, bueno, esta es la prueba. Y para que veáis que las gafas tienen comandos que no son oficiales, pero son más efectivos. Ah, pues aquí sí que ha leído bastante. Sí. Sí. Realmente, como en todas las inteligencias artificiales, el prompt, es decir, el comando, la orden que le damos, es sensible al resultado que obtenemos. Y en este caso, y alguien lo debió descubrir, si le dices traduce al español el texto que tienes frente a ti o el texto íntegro, suele hacerlo bien. Y muchas veces también, si le dices hey meta, mira y actúa como un OCR y lee el texto íntegro, también lo suele hacer. Bien. Y digo lo suele hacer bien porque hay veces que no lo hace, pero cuando lo hace, pues ya habéis visto que lo hace muy bien. Pero bueno, estamos expuestos a un proyecto de meta muy beta y muchas veces tenemos ese tipo de comportamientos tan inestables o aleatorios, por lo menos es mi sensación. Y has dicho lo de traducir. Un caso de uso interesante es la traducción de audio en tiempo real. Es verdad. Ahí ahora mismo nos permite hablar. Por ejemplo, irte con tus gafas a Inglaterra, a Francia, a Italia, a Alemania o a España y alguien te habla en su idioma. Y si lo tienes descargado, tú escuchas en tiempo real la traducción. E incluso en la aplicación Meta AI se queda una transcripción de lo que te han dicho y lo que ha respondido. Yo he hecho una pequeña prueba con un vídeo. En YouTube. Así que si queréis la puedo poner y si lo escucháis. Una de las funciones que más esperábamos era la traducción en tiempo real de las gafas Ray-Ban Meta. Permite varios idiomas inglés, francés, español, italiano, alemán. Yo las he configurado para que traduzca lo que oye de inglés y me lo traduzca al castellano. Lo primero es decirle la orden Heimera. Inicie la traducción en tiempo real. Iniciando la traducción en tiempo real del ingles al español. Y a partir de ahora reproducimos un vídeo en inglés y a ver qué nos dice. Desde que nació. Empecé a programar y. Esa fue la primera computadora con un lector de pantalla. Y así es como una persona ciega usa un ordenador, usan un programa que les lee en mayúscula. Cuando queremos terminar, simplemente decimos Heimera. Detén la traducción. Y ya terminaría de traducir. Ah, se escucha bien. Esto puede ser muy útil para mucha gente. Bueno, para una primera audición, sí, ¿no? Sí, para hacerte una idea de lo que es, va a estar muy bien. Porque el handicap que tiene, bueno, no es por criticarlo, es por matizar. Porque me parece una pasada que las gafas hagan esto y realmente a mí me ha venido bien, igual que a mí, pues para saber de qué están hablando cuando hablan en inglés, porque muchas veces yo no tengo esa capacidad de entenderlo todo a esa velocidad y el único handicap que le veo es que como está haciéndolo en simultáneo y tiempo real, carece de contexto como los buenos traductores, ¿no? Que tenemos digitales. Entonces ahí un poco es excesivamente literal. Y ya sabéis, y más en el inglés, que bueno, tiene que ver mucho el contexto para que una preposición, algún tipo de adverbio o eso sea, significa una cosa u otra, ¿no? Y a veces suena un poco marciano todo, pero muy bien, muy bien. Y luego es muy útil que te deja un registro en la aplicación también. Te deja un registro de lo que le hayas ido preguntando. Muchas veces le dices, mira y leme esta carta de este restaurante y te vas a la aplicación para... leerlo tú más detenidamente, porque no te puedes acordar de lo que a lo mejor te ha dicho, ¿no? Y no le vas a decir repítemelo, que te lo repite. Rotor en líneas y para abajo. Ya está, vamos, pim pam, pim pam, ¿verdad? Yo tengo un amigo que ha estado recientemente en Roma y con las gafas estaba encantadísimo porque en el restaurante, en el hotel y demás, pues le iba traduciendo todo en tiempo real. Estaba, vamos, muy contento con el desempeño. Pero con los humanos, con los humanos. Sí, sí, sí, sí, sí, con humanos. Es que con los humanos hay más espacio para poder interpretar también. O sea, no es como un vídeo que es todo locutado, todo locutado, ¿no? Te da tiempo por lo menos a hablar de la traducción. Sí, también me dijo que tenía problemas, por ejemplo, cuando era una conversación larga o algo que como que no daba tiempo a traducir todo y se amontonaba y había momentos ya que como que se bloqueaba, ¿no? Porque había momentos que el delay ya era muy grande, ¿no? Para conversaciones más cortas, con más espacios en blanco, sí. Otra de las opciones que tenemos, que si queréis comentamos, es acerca de la aplicación de Be My Eyes, en la que nos puede dar ayuda a un voluntario conectándose a nuestras gafas y viendo lo que estamos viendo nosotros. Lo que comentaba también al principio, como si fuese un videojuego. Ahí, Ricardo, creo que tú llegaste a hablar con un par de personas. En una de ellas, de hecho, fue muy bien, ¿no? Sí, bueno, llevo ya cuatro pruebas. Esto, si me preguntan los de Be My Eyes, diré, lo negaré todo y si lo escuchan, diré que esto ha sido creado con IA, porque parece ser que no se pueden utilizar para este tipo de... Bueno, realmente no está muy claro, ¿no? En las condiciones que ponen de uso, dicen que no se puede, no puede sustituir ni al perro ni al bastón. Yo, en mi caso, no sustituí nada. La experiencia fue pactada. Las experiencias fueron pactadas. Desde el primer momento fui por una zona conocida. Una de las veces iba hasta con un acompañante vidente también, aparte del bastón. Y bueno, entonces, en lo que no fue bien, pues bueno, la cuestión era que yo pactaba con el voluntario. El comando de voz es Hey Meta, be my eyes. Dicho con mucha calma y así alargado. Y entonces te dice que te va a hacer la llamada y lanza la cámara. Entonces, bueno, está muy bien porque todo lo que está enfocando tu cámara, de las gafas, lo está viendo el voluntario y tú estás escuchándolo. Saludas, pactas. En ese caso le dices oye, mira, vamos a hacer un experimento, tal, tal, tal. Porque mi intención era saber qué potencial tenían y qué alcance y si podían ser útiles para este tipo de actividad. Bueno, la primera en la frente intenté cruzar una calle y se ve que no miré hacia donde estaba el semáforo de peatones y ella vio que no venían coches ni nada. Ella, porque era una voluntaria y había un paseo de peatones y era una calle estrecha. Y me dijo adelante. Y era la vez que iba con él, con el acompañante evidente que me paró del brazo y me dijo quieto, que está el semáforo en rojo. Y entonces le digo dónde está el semáforo. Hice un poco más a la izquierda. Nunca supe que había un semáforo, con lo cual ya enfoqué. Y sí que es verdad que la chica me dijo oye, cuidado, que hay un semáforo en rojo. Bueno, luego todo estuvo muy bien. Me dio información para bordear una terraza, un velador de estos que estaban en la calle. Eso lo salvé muy bien. Y bueno, le iba preguntando qué visión tenía, si estaba centrada o no, si tenía mucha latencia y ella me decía que la sensación que tenía que es que íbamos a tiempo real y que bueno, que tenía suficiente visión. Pensemos que la cámara de las gafas es un gran angular, que eso es muy positivo para algunas cosas, pero también es bastante negativo, por ejemplo, para focalizar. Porque es todo muy amplio. Entonces, bueno, hay que acostumbrarse. Concluyendo, porque he tenido luego mejores experiencias, ya digo, siempre dentro de entornos controlados y demás. Mi conclusión es que hace falta saber cómo guiar de forma remota a una persona ciega a través de una imagen en tu teléfono y un sistema de audio, como sería este que estamos hablando. Es decir, hay que saber qué indicaciones dar, cómo darlas, cómo ser preciso, cómo transmitir tranquilidad, cómo transmitir rotundidad para cuando hay un peligro. Y no solo tiene que aprenderlo eso una persona que vaya a orientar o guiar, sino también una persona que vaya a recibir esas indicaciones. Hoy por hoy todo eso es muy temerario. Sobre todo es poner a la gente de Vimayax para que haga eso. Los experimentos que queramos hacer con gente de nuestra confianza, familiares y demás a través de WhatsApp, que se puede hacer igual, en este caso sería decir que hiciera una llamada de audio por WhatsApp. Y cuando nuestro familiar amigo conocido coge la llamada, damos en el botón físico que hay en la patria derecha, en el canto superior, dos veces muy rápido le lanzamos la cámara y ocurriría lo mismo que pasa con la gente de Vimayax. Estaría viendo y podría hablarte y tú hablarle. Y no sé si vosotros habéis tenido experiencias de este tipo con familiares y demás, pero... Sí, yo creo que de eso mucho depende. Que la persona que te coge la llamada conozca el entorno. Una persona que está muy lejos de ti, que no conoce el entorno de otro país, no se puede hacer a la idea de dónde estás. Con una persona que conoce el entorno es mucho más fácil que te guíe. Y luego a mí ayer justo lo estuve haciendo alguna prueba y no me funcionó. Una videollamada todo el tiempo me decía desconectados, desconectados todo el tiempo y hasta que no apague las gafas y las encendí de nuevo, no empezó a funcionar la gafa. No hice ya otra videollamada porque me empezó a darlo de desconectado, no sé si fue un error temporal de que no dejaba capturar la imagen, pero ya me ha pasado en un par de ocasiones. También lo que hablábamos, están puliendo mucho la aplicación con continuas actualizaciones, tanto de las gafas como de la aplicación. Entonces, pues bueno, tampoco lo eché más en cuenta. Pero con la de Be My Eyes yo no he hecho pruebas todavía. Aparte de WhatsApp y Be My Eyes, tienes otras dos opciones más de videollamar que es por Facebook Messenger, que es similar a WhatsApp, digo por si algún día no te funciona el WhatsApp, tienes que hacer una llamada por urgencia. Pues siempre tienes la opción de Facebook Messenger, siempre y cuando la tengas conectada en tus gafas y luego hacer directos de Instagram, que aquí tienes un límite de 30 minutos y en las gafas no escuchas el a tus televidentes, simplemente tú estás emitiendo en Instagram y puedes leer el chat y demás. Si te subes a alguien al directo, sí que esa persona aparecería al lado de ti. Ella con su cara y tú lo que está viendo tus gafas. Sí, pero eso es más complicado, ¿no? Creo que hemos comentado ahora de hacer una llamada por WhatsApp y no, o por... Bueno, Facebook Messenger es muy similar. Por Messenger, sí, sí. Vale, pero digo para que tengáis todas las opciones para que más o menos... Y a la hora de que te guíen, que es importante, como ha hecho David por un lado, que la otra persona, si es posible, que conozca el entorno y también que te conozca a ti. Porque si te conoce a ti va a ser mucho más más fácil que te pueda dar indicaciones rápidas y precisas. Sí, sí, estoy de acuerdo que eso es así. Con lo cual, bueno, a ver si alguien toma este testigo y empieza a preparar guías o manuales para sacarle su autoridad. Pero yo creo que no están de momento preparadas para la orientación o guía remota, con lo cual no serían asistentes de movilidad. Yo creo que no están ni estamos preparados los que guían, los guiados ni el propio dispositivo. Nunca puedes sustituir a un perro guía o a un bastón. Está claro. Es una ayuda más. Fijaros que es muy importante de lo que comentábamos antes decirle el prompt correcto. Con la prueba que ha hecho Emi del semáforo. Yo hice también nada más comprármelas es lo primero que probé, porque a mí yo tengo una lucha muy importante con el ayuntamiento de mi ciudad para que pongan semáforos con sonido, cosa que no me hacen ni caso. Dí de dónde eres, hombre. Utiliza esta plataforma de reclamación, hombre. Yo soy de Valladolid, de Madrid, de Barcelona, de Salamanca, de todos los sitios. Pero más de Valladolid. Y es cierto que hay muy pocos semáforos con sonido, ¿no? Lo he reivindicado mucho, pero yo quería probar esto. Y la primera cosa que le dije, hice un prompt de oye, dime de qué color está el semáforo. Y me dice el semáforo es verde. Claro, porque la estructura del semáforo es verde. Luego le dije no, esto está mal. Dime de qué color está la luz en el semáforo. Y me dijo la luz del semáforo es verde, amarilla y roja. Vale, bueno, pues puede decirle un prompt más específico. Dime de qué color es la luz del paso para peatones. Y ahí sí que me dijo es roja y estaba en verde. ¿Cómo te pasa aquí? Entonces, claro, pero con esto quiere decir que hay que hacer un prompt muy específico muchas veces para lo que queremos saber, porque si no alucina un poco. Es cierto que hay veces que no, pero otras veces, como decís, con lo de la carta. Oye, dime los entrantes. Por si no me dicen los entrantes, me vas a leer a lo mejor cuatro cincuenta, siete cincuenta, ocho cincuenta y no me estás leyendo lo que. Pero es que daros cuenta que la estructura de un semáforo es muy complicada porque tiene luces que miran hacia ti a la altura de tu cara y luego luces más arriba que pueden estar a la altura de una cabina o incluso unas luces que están delante de ti y unas luces que están en medio de la carretera haciendo como un arco para los vehículos que vienen de frente para saber el vehículo desde lejos si va a estar en rojo o en verde. Y todos le preguntamos qué color es el semáforo. No es un oco, por ejemplo, que es un software que utilizamos con un móvil que está más orientado. Que está entrenado para entrenar oco, verdad? Sí, sí, está entrenado para eso. Y depende mucho de la luz. También depende mucho de la distancia hasta el semáforo, porque en una prueba que realicé en un semáforo que habría a lo mejor 15 pasos para cruzarlo, un día nublado acertó todas y probé alrededor de 10 veces. Pero en otro día que estaba soleado, vamos, estoy aquí de milagro, porque es que es imposible, no acertó ni una. Iba yo también acompañado de una persona que me dijo no, no pases, pasa tal. Entonces ahí quiero decir, con esto hay que tener un poco de cuidado. Y lo que decía de reivindicar es porque reivindicó los semáforos. Desde aquí lo digo para todas las ciudades de España. Quiero destacar algo, porque, bueno, he dicho lo negativo en el tema de utilizar el servicio de voluntariado BIM IIS para el tema del guiado, pero es magnífico poder utilizar el servicio de BIM IIS de voluntarios para cualquier otra cuestión de la vía diaria, hasta para mirar un semáforo si está en verde o en rojo. Es mucho más efectivo que preguntárselo a la raiva en meta. Pero también para ver un medicamento para el voluntario, me refiero, para localizar algo que no encuentras, si se te ha caído algo en el suelo, para localizarlo también. Es decir, es tan cómodo preguntarle a las gafas sin tener nada en la mano. Tienes dos manos para buscar y lo estás viendo si hay buena iluminación. Y entonces, bueno, a mí mis experiencias, no de guías, sino de otro tipo, me han parecido magníficas. Correcto. Yo no puedo decirle algo más que es algo distinto a eso, porque incluso con el móvil sin... es que al tener las manos libres, es como que de tenerlo en la cara, es mucho mejor que, claro, el móvil que tengas que tenerlo con la mano izquierda del móvil, que tengas que estar apuntando bien hacia adelante, con la mano derecha, libertad para poder mover los objetos en algún momento dado, sin querer se te mueve la mano. Es mucho más sencillo que tenerlo en la cara, tener las dos manos libres. Es lo que me hice yo en el cajero. Una mano la tarjeta, otra mano el dinero y no tenía que estar constantemente. Levanta el móvil, suelta el móvil, coge la tarjeta, suelta la tarjeta. Y lo que comentábamos al principio del episodio, estar cocinando y poder estar escuchando un podcast. Música, incluso estar en una llamada. Para nosotros eso es muy útil porque nos deja las manos libres. ¿Y qué experiencia habéis tenido con el dinero, con los billetes y las monedas? Billetes buenas, monedas malas. Y lo que creo que es porque el billete lee el billete, es decir, te lo identifica, pero no te lo valida. ¿Sabes lo que quiero decir? Correcto. Y las monedas, como no tiene referencia, si son del mismo color, una moneda pequeña, una moneda grande, como no sabe si es la grande o la pequeña, porque no tiene con qué comparar, pues ahí se equivoca. Pero bueno, las monedas con al tacto se distinguen bien y los billetes hay que extenderlos mucho para que pueda leer bien en la cifra. No reconoce billetes, lee las cifras como si fuera cualquier otra. Y claro, con el factor también de alucine que puede tener. Un billete de 50 euros y una fotocopia de 50 euros. Te va a decir que es un billete de 50 euros, a no ser que esté más recortado y demás. Porque no detecta marcas de agua, no detecta bandas magnéticas. Entonces, pues es otra ayuda. Yo creo que en todos los aspectos que hemos estado utilizando, hemos podido descubrir pros y contras y lo que no hemos hablado ha sido de los precios, ¿verdad? 329, 369 y 409. Y esto solamente cambia por el tipo de cristal que elijamos. Cristal tintado, cristal polarizado o fotocromático. Sí, precios en Ray-Ban Meta Europa. Bueno, en Norteamérica es un precio muy similar en dólares. Sí, aparte de esto, hay algunos accesorios, bueno, que no son oficiales de Ray-Ban, pero creo que Ricardo tiene ahí algunos que ha ido probando, ¿no? Sí, yo he probado y los voy a contar por encima porque, bueno, no son imprescindibles, pero son, bueno, hacen cosas que pueden ser útiles y los he comprado en AliExpress porque ni tan siquiera los comercializa Ray-Ban, con todo lo que eso conlleva. De positivo el precio, que es muy económico, y de negativo la calidad, que sin ser malo, pues lógicamente es muy, muy bajita, ¿no? O muy limitada. Y nada, tengo un cargador que te permite, es una especie de pinzita que se conecta en el puente, con un cable de un metro y medio muy finito, un cable muy delgadito, que va a dar un conector USB-C. Y entonces ahí puedes, si te estás quedando sin batería y quieres seguir grabando o quieres cargar las gafas sin quitártelas y ponerlas en el estuche, pues nada, lo conectarías a tu PowerBank y entonces tendría carga directa. Lo positivo, que bueno, que prácticamente estaríamos hablando de energía ilimitada, todo lo que la PowerBank de DCI y una PowerBank de 5000 te puede dar para 60 horas de gafas, ¿vale? Lo negativo, pues que se te van a calentar seguro y que utilizando esta práctica, probablemente acabes con la batería mucho antes del tiempo previsto, ¿no? La batería de las gafas, digo. ¿Qué precio tiene esa pinza? Pues es muy barata. Creo que ha costado 16 o 17 euros. Es muy barata. Pondremos el enlace. Es que tampoco se debe decir el precio porque eso fluctúa. Y luego otra de las cosas que tengo es lo que he comentado antes. Son estas almohadillas que te pones en el puente por si se te deslizan, que son de silicona medicalizada y están muy bien. Son adhesivas, ¿vale? Y luego también tengo algo que se pone en la punta de las patillas. La punta sería la parte más alejada, ¿no? Es decir, lo que está sobre la oreja. La puntita en ese cuarto o en ese tercio, ese cuarto más bien, que son como unas funditas textiles que evitan el... que son antideslizamiento, con lo cual también consiguen el efecto cuando te has equivocado y has comprado el puente que no es el tuyo, para que no se escurran. Y todo muy barato. Estoy hablando de 8 euros, 7 euros. Y pondremos los enlaces porque si alguna osada o osado quiere probarlos, pues ahí los tiene. Pues hablando del precio, a mí sinceramente no me parecen... caras, porque una gafalla normal de Ray-Ban ya cuesta un dinero. Te puede valer cerca... Hablo de memoria de cuando compré las mías, pero creo recordar que fueron 180, 190 euros, que todo lo que te incluye esto de inteligencia artificial, todo lo que hemos hablado de hacer llamadas, auriculares, son 100 euros más, 200 en mi caso, porque tengo las de adaptativas, pero si no, si fuesen un modelo exacto al que yo tenía antes, que no eran adaptativos, creo que por 100 euros más tendrías un modelo que ya tiene todas las características que hemos comentado. Y sin cuotas ni suscripciones. Eso es. Sí, es verdad, no tienes que estar pagando una cuota mensual. De hecho, un ejemplo claro de uso. Y esto es un uso real. Tenemos un amigo que es ciego, que vive en Madrid, que es Jonathan Garmengold. Y él tiene en su Instagram más de 250.000 personas siguiéndolo. Porque, bueno, ha utilizado sus gafas para explicar distintas partes de la vida de una persona ciega, desde cómo guían a un ciego en un aeropuerto hasta denuncias públicas sobre lugares de negación de acceso por ser usuario de perro guía. Y está teniendo un muy fuerte impacto en la sociedad. Por lo menos yo, que soy usuario de perro guía, a todo el mundo la gente le pregunta hoy, este no es Calo, que es el perro de Jonathan. Es él, ha conseguido eso por su contenido, pero sobre todo porque tiene un dispositivo siempre dispuesto y siempre disponible para poder hacer ese tipo de funciones de una forma sencilla, sin tener que estar con un móvil en la mano y con una persona que esté grabándote a ti, sino tú grabando tu vida. Tiene varias Ray-Ban Meta porque es parte de su trabajo, pero él ya tuvo Ray-Ban Stories desde el principio, porque claro, al ser influencer, tenía que subir contenidos y le resultaba muy cómodo. Y el dato de 250 miras, que lo mira hace poco en Instagram y ahí lo tenéis. Bueno, ¿y se va a quedar aquí Meta y Ray-Ban o hay sorpresas? No, no queda aquí porque está haciendo una colaboración Meta. De hecho, creo que salen ya el mes que viene. Oakley junto con Meta van a hacer una gama más deportiva. Emi tiene las características. Si quieres comentar. Vale. Bien, las gafas Ray-Ban Meta que tenemos actualmente son cuadraditas, son bastante ligeras y son, entre comillas, podríamos decir abiertas. Es decir, los cristales no te cubren todo el lateral de la cara. Y estas Oakley, por la línea de Oakley y por lo que están comentando, es patilla más gordita, laterales más cerrados y PX4. Eso significa que no soporta el polvo, pero sí que soporta las salpicaduras. 48 horas de batería en el estuche. Y es donde a mí me ha enamorado. Son ocho horas de batería supuestamente en el dispositivo. Una cámara mejor. Esta cámara actual que tenemos es de 1080 progresivo Full HD y ésta llegaría al 3K que estamos hablando de dos pasos por encima. Y algo que tengo todavía que verificar es que puede que traiga dos cámaras en lugar de una para dar la profundidad y movimiento de los vídeos en acción, que son los vídeos de deporte, porque es tan interesante. Porque abre la puerta a que las distintas gafas de la marca Luxottica, que es la marca Mater de Ray-Ban, de Oakley y de otras Prada. No sé si lo llevará, pero sí que sé que de este tipo de Ray-Ban y Oakley es la madre. Sí, sí, no exito Luxottica fábrica para Prada también. Perfecto, pues vais a tener. Si esto funciona y se sigue vendiendo así este tipo de gafas a un precio de. De 499 euros en precompra, relanzamiento, un modelo limitado y luego a 399 con las distintas variaciones según el cristal. Un poquito más cara, pero con el doble de batería, una cámara mejorada, más batería en la funda y una certificación IPX4 que no tienes en tu Ray-Ban Meta y que yo no recomiendo utilizar la Ray-Ban Meta para hacer deporte, porque como se te mojen, tienes muchas posibilidades de que se te vaya. Al sueño de los justos, las gafas. Esta es una reivindicación de mucha gente que lleva gafas y es ciega, que es que le tapar a los laterales estas gafas lo van a conseguir. La autonomía de ocho horas creo que también es un factor a tener en cuenta, porque también nos da más autonomía a nosotros de uso y eso es importantísimo. Y luego el que sean tan resistentes tanto para el agua como estén hechas para el deporte. También evita que esto ha ocurrido con la Ray-Ban Meta. Es decir, si no vemos, estamos más expuestos a darnos un golpe que nos va a parar la gafa con la puerta de un armario, de una puerta entreabierta, de cualquier eso. Y mucha gente. Bueno, ha habido personas que al segundo día de tener las gafas las ha tenido que mandar a reparar por un golpe que les dejó sin electrónica en las gafas, sin funcionar. Entonces calculo. Bueno, yo calculo que esta sople y serán más resistentes en ese sentido y no tienen mala pinta. Bueno, pues todos estos factores pueden valen por algo más de 80 euros más que el precio de las Ray-Ban Meta. Pueden ser determinantes para elegir este tipo de modelo de gafas, ¿no? Yo tenía pensado pillarme otra Wi-Fi o una Headliner para poder tener, intercambiar las gafas y como con la misma funda cargaría las dos gafas, siempre te llevaría unas gafas cargadas ahora. Voy a esperarme a ver qué sale el 11 de julio. A ver qué sale. Pero yo estoy seguro que las voy a comprar porque me interesa tener un segundo par. Y si ese par me aguanta bien el día entero, pues iré con esas el día entero y las Wi-Fi las utilizaré para cuando salga más de fiesta o cuando salga más para vestir. Y el otro gran factor de Meta son las Meta 2, que ahí ya yo... La evolución que va a tener estas gafas que tenemos ahora mismo es una cámara, auriculares y un LED tanto dentro como fuera de las gafas para explicar al mundo que estás utilizando la cámara, pero Meta 2, que creo que es la evolución de las Ribbon Meta, tiene ya otro concepto. Es como de realidad virtual aumentada, una pantalla dentro de las gafas, más interacción directa con comandos táctiles. No, a mí no me está gustando esa evolución para mi perfil. No sé si vosotros conocéis también esas noticias que van saliendo. La evolución de nuestras futuras gafas y demás, pero parece más un visor. Sí, veremos cómo evolucionan. También decían que iban a tener diferentes sensores de temperatura, ritmo cardíaco. Bueno, veremos por dónde van. Creo que también Google está haciendo tema de gafas. Samsung también. Son proyectos que van a más largo plazo. De momento tenemos esto. Creo que tenemos que disfrutar y ver sobre todo. Yo creo que a nosotros es muy diferenciador lo que nos va a llegar de Estados Unidos. Esperemos que dentro de poco. A mí me parece que lo de Audible para mí, que yo utilizo mucho audiolibro de Audible, me va a gustar. Y luego que la interacción, no recuerdo cómo es en directo, tipo Live de Gemini Live o de GPT, que puede ser sin estar todo el rato Hey Meta, Hey Meta, Hey Meta, sino invocarlo y interactuar. El tiempo real. Sí, sí. Eso es, el tiempo real. Yo no me salía la palabra. Gracias. No te preocupes. Yo creo que ahí puede marcar un antes y un después para nosotros. Veremos, a ver. Yo para que estas gafas sean perfectas para mis necesidades solamente necesito más, más batería, que eso posiblemente me la den las nuevas de Oakley, aunque no sé, que me liberen la cámara y que pueda utilizarlo yo con cualquier aplicación, no solamente de Meta, sino FaceTime o incluso utilizar aplicaciones que utiliza la cámara como OCO o Be My Eyes sin tener que pasar, no por el asistente, sino por la inteligencia artificial de Be My Eyes. Es decir... Yo creo que leyeran las etiquetas NaviLens. Sí, que por cierto, la gente de NaviLens lo que recomienda es que se le escriba a la gente de Meta, a la MetaStore o a cualquier dirección de Meta, solicitando que implementen el servicio de etiquetas NaviLens. Vendría muy bien porque hay mucha gente que tiene marcada ropa, marcada alimentos con ese tipo de etiquetas que la verdad es que tienen un comportamiento magnífico. Los códigos QR de NaviLens a mí me dieron una de las mejores experiencias posibles en Córdoba, en un museo de dibujo de Pedro Romero, pintor, y está totalmente adaptado para ciegos en Córdoba. Y fue una experiencia impresionante porque con dos auriculares, junto a AirPods, yo y la persona con la que iba de compañera, que era la que quería de verdad ver el museo, yo pensaba que esta iba a ser la parte más coñazo. Pues con NaviLens. Incluso ella que había perfectamente captó muchísimo más de la pintura gracias a que lo que estaba viendo además se lo estaban contando y muy largas explicaciones, muy detalladas, pero una forma muy buena. Si os parece, podemos ir haciendo un resumen y vamos terminando ya el episodio de hoy. Bueno, resumen y algún consejillo que otro, ¿no? Es decir, porque al final quien escucha esto lo que quiere saber es que la pregunta es me las compro o no me las compro. Si eres juguetero, si te gusta hablar por teléfono, si te gusta tener gafas y quieres algo más allá que una simple gafas que quedan bastante bien. De hecho, no conozca a nadie que no le quede bien alguno de los tres modelos. Yo la recomiendo. Si estás dispuesto a encontrarte con el maná de que te guíen solo por la calle, recuperar la vista y ser completamente autónomo sin perno y bastón. Chico, este no es tu producto. Eso es mi opinión. Mi resumen también. Pues sí, pero sí, porque está muy bien, pero porque tiene sus pros y sus contras y hay que saberlos valorar y y hablar en consecuencia. Vale, si ni con bastón ni con gafas, si ni con bastón ni con perro tomas por la calle con las gafas no te vas a mover. Vale, no sustituyen los ojos. Eso está clarísimo. Si alguien tenía esa idea y no es un una tecnología de asistencia. Entonces, teniendo eso claro, yo sí que recomiendo que la gente se las compre y las disfrute, porque es una tecnología que sin ver podemos sacarle bastante rendimiento. No es la movilidad a lo mejor, no es el mejor, no para leer libros, pero bueno, para hacer cosillas y sobre todo experimentar y que no te lo cuenten. Está muy bien. Y la evolución del producto que está teniendo, que ya vamos por la versión 15. Yo lo compré en la versión 6 del software, ¿sabes? Es brutal. Es que se actualiza cada mes. Luego la aplicación MetaEye ha pasado de MetaView a MetaEye. La accesibilidad te escuchan, te escuchan en tus propuestas. Algunas las implementan, otras no. Pero yo veo que está vivo y me gusta el producto. Y sobre todo, si tenéis ocasión de ir a probároslas, eso también es una cosa que hay que destacar, aunque se pueden comprar también por online, que tiene una buena tienda, muy buena tienda. Lástima que el probador que tiene de gafas no sea accesible. Sería muy complicado, pero bueno, si las tiendas que suelen tenerlas son las oficiales de Ray-Ban, hablo de aquí en España, por ejemplo. Bueno, y supongo que en México igual. Y luego las autorizadas por Ray-Ban, que también las pueden vender ópticas en sí. Soundglass HAT, Óptica 2000, en el Cording Land suelen estar bastante y en ese tipo de establecimientos suelen tener maquetas, chicos. Muchas gracias, Emi. Muchas gracias, David. Y damos los medios de contacto. Gracias a todos, de verdad. Pues nada, gracias a todos. Y bueno, los medios de contacto son nuestra dirección de correo electrónico. Es gafotas arroba segatos punto es y nuestro WhatsApp para mensajes de texto y de audio en el más 34 644 640 792. Muchas gracias y adiós. Gracias a todos y sus aparatos. Podcast de gatos y sus aparatos. No tocas, no tocas, no tocas, no tocas su gato y sus aparatos. No tocas, tocas. Tafotas de gatos. Y sus aparatos. No tocas. Bueno, pues... nada. Parece que sí. Arturo, ¿no se puede silenciar a estos dos? Se puede, se puede. Eliminar a estos. ¿Los puedo bajar del escenario? Somos igual de tontos, o con lo cual oyes tontos en estéreo. Eso es un lujo, ¿eh? No te creas tú que los tontos siguen en mono, ¿eh? Luego cuando entréis en directo, pedís perdón por el retraso y ya está. ¿El retraso qué es? ¿El retraso de qué? ¿El retraso de qué? Pedimos perdón por el retraso. Y ya está. He visto que no has sido el de la representación o de la ETA. ¿Por qué? Porque te han robado las motos y te han pidado. ETA, ETA. Venga, vamos al lío. En los recursos y eso. Pues bueno, no sé, me he perdido, con lo cual ya podemos hablar de otra cosa. Pues si queréis retomo. Sí. Te hubieran atropellado, sin más. No estarías grabando el podcast. Sí, es verdad. Habría tenido un déjà vu. GafotarguijaPodcast, algo que hubiéramos dicho, Emiliano, tú tranquilo. Esto no os lo tienes que quitar, Arturo, ¿eh? Ya veremos, ya veremos, ya veremos. La verdad es que cualquiera que nos vea, cualquiera que te vea en la calle cogiendo una naranja y preguntando ¿Y esto qué es? Estaría como hablando, ¿no? ¿Pero qué es? ¿Como una naranja dálmata? No, no, no, iba con mi mujer y me ató en la puerta, o sea, lo que te digo. Y aproveché, ella estaba comprando dentro de la frutería. Y el niño jugando con la naranja. Y era una frutería de chinos, de supersimpáticos. No quiero decir que los chinos no sean supersimpáticos, pero estos, aparte de tener un rictus o un gesto sonriente, es que son guays, son simpáticos y muy competentes. Está yendo genial ahora, ¿eh? Vale, pues, entonces... Ahora que no se esté grabando, ¿eh? No, hombre, estamos más grabados. A todo esto había que darle al botón de grabar, ¿no? Para grabar. No, no, Arturo, por Dios. Bueno, ya me da igual. Me lo he pasado tan bien que hasta lo sacrificaría, mira. Bueno, pues, vamos. O, incluso hacer segmentos por... Perdón, que tengo aquí el perro y se ha puesto un poco loco. Hacer segmentos por precio. Léeme los platos de carne de menos de 20 euros. Correcto. Que va bien, ¿eh? Bueno, ¿cómo se llama tu perro guía, para que lo conozca el mundo? Se llama Cuari y es una labradora preciosa, pero se ha vuelto ahora... Bueno, pues nada. Se ha puesto nerviosa. Quiere intervenir. Pues, bienvenida. Para conversaciones más cortas, con más espacios al banco. Yo hablo poco español. Y a partir de ahí, vamos. No, decía Arturo y yo, por favor, la piecha en la ruana, ¿no? Y decía, primo, tú todo dirito y dos por sinistra. Primero todo recto y luego a la izquierda, ¿no? Te decían las gafas. Qué bueno. Sí. No solo he hecho por exhibir mi músculo italiano, ¿eh? Que tengo una gente italiana que te cagas. Y os puedo cantar canciones... Pero, Arturo, ¿por qué no echas a estos dos de verdad? Pues tienes razón, David. Yo también estoy. Yo apoyo la... Que los tiren ya los dos. Algún día hablaremos de los intros de este podcast en concreto, David. Algún día. Oye, tenemos que hablar también de que Ricardo tiene una nariz muy grande porque tiene la raiva en meta de puente alto. Joder. Mierda, ha vuelto. Hola. Hola. Sí, me tenía que ir lejos porque no tenía el agua ahí encima. Arturo, que yo hago toma, hago el tonto para que tú tengas tomas falsas, ¿eh? Ah, sí, sí, sí. Yo lo sé, sí, yo lo sé. Soy un hombre exterior. Sí, evidentemente. En serio. Por eso puedo decir tres veces seguidas y sin reírme. Tururupajarito, tururupajarito, tururupajarito. Venga, seguimos. ¿Qué pasa? No me he reído, tío. No me he reído. Bueno, va. Vale. Y después tampoco sé decir el precio porque eso fluctúa como el precio de la soja. Supongo que todos tenemos conocimiento del mismo, ¿no? No hago otra cosa cada día. Por lo que mañana me levanto y el precio de la soja... Sí, sí, sí. Bueno. Yo también. Es una cosa que no... no me duermo nunca antes de... Ah, tú eres de dormir, yo de despertares. Antes de dormir yo siempre digo, a ver, ¿qué precio está la soja? Me dice ya 6,50. Digo, ah, pues me duermo. Si no, me espero a que baje. Tiene que estar precioso con la pinza en la nariz, las almohadillas en la nariz también y... Los topes en las patillas para que no se te caigan las gafas. Como un potato igual. Y el traje de la garterana, que eso no te lo he comentado, pero suelo llevarlo. Tiene que estar topegada. Sí, la verdad es que sí. Estamos muy tequí. No, no. Son muy discretos las fundas antidepisantes. Qué bien. Sí, sí. Son muy discretas. Y las almohadillas también. Lo que es menos discreto es la pinza esa, pero es para una urgencia. Bueno. Eh... Y... Y no tienen mala pinta. Realmente sí son. ¿Fuera? ¿Cómo? Ah, el perro, perdón. El perro. ¿Fuera? Que se ha puesto muy pesada, perdón. He dicho fuera. No, me lo voy a tomar como algo personal. ¿Fuera tú? No, no. No, no. A ver, ¿cómo que fuera? ¿Fuera tú? Se ha puesto muy pesada, perdón. Fuera, fuera de aquí. Perdón, ya me paro. Perdón, perdón. Te he cortado y no quería perdonar, tío. Ya, pues lo has conseguido. ¿Dónde pongo mi cara? Bueno. Bueno, ya no sé dónde me he quedado. Pues ya corto. Ya está. Bueno. En la soja. Estabas hablando que estaba 12.50 hoy. Sí, exactamente. Y entonces el precio de la soja, pues es muy interesante. Porque si sube, puedes gastarte 100 euros más que valen estas gafas. Perdón, perdón, tío. Estabas hablando de los cantos. Que la gente no se tirase a los cantos de las puertas. Exactamente. Ni a las canteras de las canteras. Muy bien. Pues estamos encantados de que hayáis llegado hasta aquí con nosotros. Esto ya es el final. Pero antes debemos deciros que nos encantaría también que nos enviarais sugerencias, críticas, propuestas y lo que queráis. Jamones. Jamones, sí, exactamente. El ticket del taxi, ¿a quién se lo pasó? ¿A quién se lo pasó? No, no. No, no. Repito, hay que tener tiempo. Venga, David.
Gafotas, cegatos y sus aparatos #23
Fecha: jueves, 19 de junio de 2025, a las 00:00:00
E
Episodio 23. Lectores de pantalla: acceso a la información a través del oído y el tacto
En este nuevo episodio de Gafotas, Cegatos y sus Aparatos, nos adentramos en el universo de los lectores de pantalla, esas herramientas imprescindibles que hacen posible que las personas ciegas y con baja visión puedan utilizar ordenadores, móviles, cajeros, televisores y prácticamente cualquier dispositivo con pantalla. Y lo hacemos de la mano de nuestro experto colaborador Jonathan Chacón, que vuelve al pódcast para compartir, con todo detalle, los entresijos técnicos, históricos y funcionales de estos productos de apoyo.
Temas destacados:
Momentos destacados:
Este episodio es una auténtica master class en historia y tecnología tiflológica, imprescindible tanto para quienes usan lectores de pantalla como para quienes quieran entender cómo funcionan realmente las herramientas que permiten "ver sin ver".
Intervienen:
Enlaces a Sitios referenciados en el episodio:
1.
Lectores de pantalla
o
JAWS (Job Access With Speech)
https://www.freedomscientific.com/products/software/jaws/
Explicación en español: https://www.tiflolibros.com.ar/jaws.html
o
NVDA (NonVisual Desktop Access)
https://www.nvaccess.org/
Explicación en español: https://nvda.es/
2. Sistemas Operativos
o
MS-DOS
Artículo sobre su historia: https://es.wikipedia.org/wiki/MS-DOS
o
Windows (distintas versiones, desde Windows 3.1 en adelante)
Historia en español: https://es.wikipedia.org/wiki/Microsoft_Windows
o
Linux con consola (Debian, Slint...)
https://es.wikipedia.org/wiki/Debian
https://slint.fr/doc/HandBook.html
(manual en inglés)
3. Tecnologías de acceso
o
Líneas braille (dispositivos de salida braille)
Descripción general: https://es.wikipedia.org/wiki/L%C3%ADnea_Braille
o
Síntesis de voz
Información general: https://es.wikipedia.org/wiki/S%C3%ADntesis_de_habla
4. Software y utilidades
o
PC Speak
Información en inglés: https://en.wikipedia.org/wiki/PC_Speak
(No hay fuente directa en español, pero se menciona como pionero en lectores de
pantalla)
o
EdSharp (editor de texto para usuarios ciegos)
Explicación en español: https://nvda.es/tag/edsharp/
o
Thunder (lector de pantalla gratuito para Windows)
Información y descarga: https://www.screenreader.net/index.php?pageid=11
5. Navegadores web accesibles
o
lynx (navegador web en modo texto)
https://es.wikipedia.org/wiki/Lynx_(navegador_web)
6. Otros entornos y plataformas
o
Mac con VoiceOver
Información oficial: https://support.apple.com/es-es/guide/voiceover/welcome/mac
o
iOS con VoiceOver
Guía de Apple en español: https://support.apple.com/es-es/guide/iphone/iph3e2e2cdc/ios
o
Android con TalkBack
Guía de accesibilidad: https://support.google.com/accessibility/android/answer/6006564?hl=es
Créditos:
Duración: 01:52:55
Descripción detallada del logo de Episodio 23. Lectores de pantalla: acceso a la información a través del oído y el tacto
La imagen es una ilustración en blanco y negro de estilo retro, muy cercana al arte del cómic clásico o los grabados de prensa de mediados del siglo XX. A continuación te detallo minuciosamente cada elemento: **1. Personaje principal:** * Es un hombre con bigote poblado y un peinado ondulado y perfectamente fijado hacia atrás, típico de los años 50. * Lleva gafas de sol redondas oscuras, lo que indica que podría ser una persona ciega o con baja visión. * Viste una camisa abotonada con pañuelo al cuello, lo que le da un aire elegante y bohemio. * Luce unos auriculares grandes, que cubren totalmente sus orejas, y que están conectados presumiblemente al ordenador que tiene delante. **2. Dispositivo frente a él:** * El hombre está sentado frente a un escritorio en el que hay una **línea braille electrónica**, claramente representada por una superficie rectangular con puntos en relieve. Sus manos están sobre ella, en actitud de lectura. * La línea braille está ligeramente inclinada, y los puntos están distribuidos en celdas, tal y como se dispone el braille en este tipo de dispositivos. **3. Monitor del ordenador:** * Delante del hombre hay una pantalla de ordenador de marco grueso, también al estilo retro. * En la pantalla se muestra un icono de unos **labios entreabiertos** en el centro, lo que simboliza la síntesis de voz o el habla digital. A su alrededor hay líneas horizontales simulando texto en pantalla. * A cada lado del monitor hay un **altavoz clásico**, de caja rectangular, con círculos centrales que representan los conos de sonido. * Del monitor y los altavoces emergen **ondas de sonido**, dibujadas con líneas curvas que indican que está emitiendo audio. **4. Entorno:** * El personaje está sentado en una silla de oficina con reposabrazos. * Todo el dibujo está realizado con líneas negras de grosor marcado y sombras tramadas, sin color, lo que refuerza su estilo de grabado o tinta tradicional. **Acción que representa:** El hombre está utilizando tecnologías de asistencia para acceder a la información de una computadora. Lee con los dedos una línea braille mientras escucha el contenido que aparece en pantalla a través de la síntesis de voz, amplificada por los altavoces. La escena captura la integración simultánea de dos canales de accesibilidad: el táctil (braille) y el auditivo (voz sintetizada). Este retrato ilustra con precisión la experiencia cotidiana de una persona ciega usando tecnologías adaptadas para acceder al contenido digital.
Transcripción de Episodio 23. Lectores de pantalla: acceso a la información a través del oído y el tacto
¿Qué tal, Ricardo? ¿Un nuevo episodio? Pues sí, un nuevo episodio y con muchas ganas también de enfrentarlo y a ver qué es lo que ocurre hoy en Gajotas de gatos y sus aparatos. Además hoy es un tema muy nuestro, ¿no? Un tema muy tiflo. Un tema tiflo porque vamos a hablar realmente de lo que son unas muletas para un ciego dentro de lo que es la informática. Es decir, con qué tipo de herramienta conseguimos que lo que se muestra en pantalla podamos leerlo con el tacto o escucharlo por una síntesis de voz. Y hasta aquí. ¿Puedo leer? Sí, porque para eso tenemos a nuestro invitado que repite una vez más. No lo debemos de tratar muy mal. Está a gusto con nosotros. Muy buenas, Jonny. Buenas, Arturo. Buenas, Ricardo. Buenas a todos y todas. Pues bueno, no me tratáis mal. No me voy a quejar demasiado. Y de todos modos, escuchando el resto de episodios anteriores a este, se ha hablado de lectores de pantalla, se ha hablado de servicios de audiovisuales, etcétera, etcétera, etcétera, etcétera, etcétera, etcétera, etcétera, etcétera, etcétera, etcétera. Se ha hablado de programas y software que utilizamos personas con discapacidad. Y bueno, como le comenté a Ricardo en una llamada telefónica, a veces la gente no entiende la complejidad de algo que utilizamos todos los días y pensamos que hacer un lector de pantalla es como el que se pone a hacer una hoja de cálculo o a escribir un documento. Y la verdad es que todos los productos de asistencia, que es la categoría de software en la que se encaja un lector de pantalla, pues mientras más cerca del núcleo del sistema operativo esté, más complejo es y más probabilidad de errores, más probabilidad de inestabilidad. Es un milagro que estemos donde estamos ahora las personas ciegas porque ha sido muy difícil. Es un milagro que estemos Ha sido un recorrido tecnológico y piflológico bastante interesante y, bueno, no sé quién quiere dar la definición del lector de pantallas. ¿Otra vez alguno de vosotros? Yo me atrevería, pero preferiría que la dieras tú porque creo que es importante dejar bien claro de qué estamos hablando porque es de lo que va a tratar todo el episodio y qué es un lector de pantalla. Pues un lector de pantalla es un servicio de asistencia o producto de apoyo para personas ciegas y o con baja visión que obtiene la información de una pantalla, bien sea de un dispositivo digital de escritorio o un dispositivo móvil, un dispositivo empotrado como puede ser un cajero automático, una máquina de vending de dispensadores de productos, cualquier elemento que muestre una pantalla digital, pues un lector de pantalla obtiene esa información, la traduce a algo comprensible para una persona ciega y le ofrece esa información. Pero además el lector de pantalla, esa es la gran diferencia, no solo lee la pantalla para la persona ciega sino que además le permite a la persona ciega interactuar con el sistema, con el ordenador o computadora o la máquina de vending, para que pueda interactuar con ese sistema de forma apropiada. Todos hemos vivido esa situación de quiero sacar las patatas fritas a saber dónde están, pues si tuviese el lector de pantalla a las personas ciegas nos iría bastante mejor. Y aunque se puede intuir, al hecho que un lector de pantalla es un producto de apoyo, ¿qué es un producto de apoyo? Un producto de apoyo es cualquier elemento tecnológico, bien sea software o hardware, que permita a una persona superar límites sensoriales, físicos o cognitivos. Un producto de apoyo, el primero de la historia fue una piedra. Somos el bicho más indefenso de la naturaleza a nivel físico y sensorial. No vemos del todo bien, no tenemos garras, no tenemos pelaje, los colmillos nos dan pena y encima son tan malo la dentición humana que la perdemos. Y tenemos que tener cuidado. Tenemos que tener dos, los dientes de leche y los finales. Y lo habitual es que más allá de los 50 años hayamos perdido un 20% de la dentición. Vamos, que somos unos bichos bastante indefensos. Pues tenemos que buscar, mediante la tecnología, cómo superar todas esas barreras. Pues un producto de apoyo es aquello, tecnológicamente, que nos ayuda a superar esas barreras. Desde unas gafas para ver, a unas muletas, un sistema de apoyo para personas para que puedan andar, una silla de ruedas, por supuesto, un bastón de ciego, un bastón blanco, un audífono, un implante coclear, un servomotor para la rodilla en una prótesis y ya lo último de producto de asistencia que estamos utilizando las personas con y sin discapacidad es la inteligencia artificial adosada a productos de asistencia anteriores. Que de eso ya hablaremos al final de este capítulo. ¿Y por qué son importantes para la accesibilidad? ¿Qué es eso de la accesibilidad? Que muchas veces me suele pasar que llamo a algún servicio de atención al cliente o alguna cosa, le dices que esto no es accesible y te pregunta qué problema tienes con el usuario y la contraseña. Claro, el concepto de accesibilidad es toda la tecnología, todos los elementos semánticos, funcionales, de diseño y de contenido, sin atender a sus limitaciones físicas, cognitivas y sensoriales, pueda acceder a la funcionalidad, al contenido y a los servicios de un elemento. Normalmente hablamos principalmente de accesibilidad en el entorno físico, como pueden ser las rampas, el ancho de puerta, la iluminación, todo el tema de gestión de altura de elementos, por ejemplo en la cocina. Pero también hablamos de accesibilidad en el entorno físico. En el entorno digital, a finales de los 90 y principios de los 2000, aquí en España se hablaba de la sociedad de la información, que ese concepto también se acuñó en Europa, y ahí es cuando empezamos a hablar de las limitaciones tecnológicas de accesibilidad en el entorno digital, porque muchas personas con discapacidad, no solo las personas ciegas, encontrábamos problemas a la hora de acceder a esa sociedad de la información. Entonces, a igual que un símil del entorno físico, si un edificio no tiene una rampa apropiada, una persona con silla de ruedas no puede entrar, un entorno digital, un edificio digital que contenga información, si no tiene un acceso compatible con los productos de apoyo que utilicen personas ciegas o con baja visión, no podrán acceder a ese contenido. Y todavía hay más. Si alguien, pues esto de la accesibilidad. Bueno, termina de verlo muy claro, ¿no? Se suele decir que Google es el ciego rico que hay por ahí. ¿Por qué? Totalmente, porque Google, su motor de indexación, o sea, ese software que va navegando por todas las páginas web que existen en la World Wide Web, ese 3W punto, la dirección que sea, ese 3W representa World Wide Web. Es un protocolo o servicio que... ...que ofrece Internet. Internet es un conjunto de servicios, pues uno de ellos es la World Wide Web, pues Google navega por las páginas web como lo hacemos las personas ciegas, que es atendiendo a los contenidos textuales, a los elementos semánticos, cómo organizan ese contenido y todo el tema de imágenes, sonidos y vídeos, pues lo analizan de una forma un poco abstracta, como lo hacemos las personas ciegas, a través de su información alternativa, por ejemplo, la imagen... ...en la web tienen la capacidad de tener descripciones alternativas textuales, pues los robots de indexación de Google y otros buscadores, incluso de motores de asimilación de contenidos como OpenAI, Mistral, Antropic, todas estas gentes que están haciendo motores de inteligencia artificial, pues navegan y absorben contenidos como lo hacen los lectores de pantalla. Entonces, todo el trabajo... ...todo el esfuerzo de mejora en accesibilidad repercute beneficiosamente no solo en las personas con discapacidad, sino también en servicios, herramientas tecnológicas y en inteligencia artificial. Eso es, esto también es importante porque un lector de pantalla, un sintetizador, no solamente es importante para personas que no pueden ver, de paso, pues también ayudan a otros colectivos o otras situaciones, ¿no? Cuando uno está conduciendo un coche, respecto al GPS... ...se supone que no deberías de estar mirando la pantalla y te deberías de comportar como una persona ciega respecto al dispositivo o incluso una persona tetrapléjica porque tampoco deberías de poder tocar esa pantalla, ¿no? Claro, ahí hay un tema que se habla muchísimo que es el beneficio indirecto. Todo el esfuerzo que se hace en tecnologías de la accesibilidad, bien para ayudar a personas con problemas de motricidad en los brazos, las piernas, a personas ciegas, a personas sordas... ...más tarde o más temprano van repercutiendo de forma beneficiosa. ...en el resto de la sociedad. Por ejemplo, hoy podemos hablar con nuestros altavoces inteligentes o nuestro teléfono nos habla o podemos controlar el hogar con gestos... ...pues todo eso viene de tecnologías que en un principio se investigaron para asistir y ayudar a personas con necesidades específicas o especiales, como dicen algunos... ...que son personas con discapacidad. O sea, que de la forma normativa en la que se utiliza una tecnología, pues hay personas que no pueden acceder a esa tecnología porque no cumplen esa normativa. Entonces, cuando hay gente así de piel naranja que dice que todo el esfuerzo en discapacidad y accesibilidad no da beneficios, se nota que es una persona muy estúpida... ...con poco entendederas a nivel tecnológico, pero bueno. Digamos que es otro aspecto de la... ...realidad de la accesibilidad. La accesibilidad, si me lo vas a preguntar, Arturo, que te veo venir, es complicada. Pues dependiendo de lo más cerca o más lejos que nos pongamos del hardware. Mientras más cerca del hardware, la accesibilidad es más complicada de fabricar, pero más sencilla de utilizar. Mientras más alejada del hardware... ...ya nos metemos en capas de software y de frases, es más fácil de fabricar, pero más complicada de utilizar. ¿Por qué? Porque vamos añadiendo capas condicionales de este producto de apoyo. ¿Cuántas funciones tiene? Pues, por ejemplo, por poneros un ejemplo así, ya vamos nombrando algunos culpables de este podcast. En el principio, Habla tenía 12 comandos. ¿Qué es Habla? Habla es un lector de pantallas de finales de los 80. VoiceOver, que es algo más conocido por todo el mundo, que es otro lector de pantallas, principalmente para los productos de Apple. En el principio tenía unos 17 comandos. Josh, que es el lector de pantallas más conocido para Windows, empezó con unos 70 comandos y ya creo que va por los 180. De todos estos comandos, estamos hablando de los que vienen por defecto, que luego están las capacidades de personalización. Pero ahí sí me gustaría pararme en cómo categorizamos los lector de pantallas. Los lector de pantallas se pueden categorizar por los mecanismos de entrada, bien sea mediante un teclado físico o una botonera específica, una pantalla táctil, un sistema de control remoto, por ejemplo un joypad o joystick o palanca. También por el tipo de interfaz que va a interpretar, bien sea una terminal o consola de comandos, o sea una pantalla sólo de texto, como la que había en los años finales de los 70, los 80 y los 90, que eran pantallas de 23 a 25 líneas por 40 u 80 columnas. Lo habitual eran pantallas de 80 columnas. Pues el estándar PC y el estándar Amiga ST... Amiga... Commodore Amiga, perdón. Atari ST tenía, si no recuerdo mal, 80 por 24. Luego, además de la consola, el terminal de texto, están los lector de pantallas de interfaz gráfica. Ya cuando Apple, con su Apple Macintosh o el Commodore Amiga o la Atari ST, empezaron a sacar interfaces, formas de manejar un computador mediante ratón o mediante iconos en la pantalla, o sea una interfaz muy visual, pues los lector de pantallas empezaron a tener que complicarse, porque interpretar un texto, simplemente agrupo la información que hay en cada línea y lo paso a una síntesis o a un método de salida, que es otra de las categorías de los lector de pantallas. Podemos categorizar también los lector de pantallas, por cómo envían la información al humano, bien sea mediante una síntesis de voz, una línea braille, un multipuerto que puede usar síntesis de voz o línea braille. También hay lector de pantallas ápticos que, a través de un motor de vibración, transmiten información. Y diréis, yo quiero ver un ejemplo de eso. Pues, por ejemplo, el modo de lectura del Apple Watch de la hora mediante vibraciones es un ejemplo claro de cómo podemos crear un lector de pantallas cuyas salida es áptica. Normalmente esos lector de pantallas de salida áptica se han utilizado en dispositivos muy concretos, como relojes de pulsera o sistemas de seguimiento para personas sordas, que mediante un parche que va al pecho o al brazo, le transmite información a la persona sorda. Por ejemplo, hay un sistema... de principios de los 2000, que conectado al timbre de la puerta, la persona sorda está en su casa y cuando sonaba el timbre de la puerta, pues le vibraba la muñeca porque tenía una especie de muñequera con ese sistema de notificación. Y es un lector de pantallas para que veáis que los lector de pantallas no son sólo utilizados por personas ciegas. También se aplican a otros perfiles de discapacidad. Luego está la categoría de tipo de generación del lector de pantallas. Pueden ser lector de pantallas básicos que leen la pantalla, se la transmiten al usuario, punto. Luego están lector de pantallas que son extensibles, que además de hacer esas funciones básicas, puedes crear más funciones mediante un lenguaje de programación, de scripting, bien sea Python, bien sea Lua, Apple Script, distintos lenguajes de programación. Tú puedes añadir funcionalidad a ese lector de pantallas. Y luego están... los lector de pantallas personalizables que tú puedes modificar casi cualquier aspecto del lector de pantallas o gran parte de la forma de utilizarlo, la forma de responder para que se adapte lo más posible a tus necesidades. Lo ideal, que es la última generación, es que tengan todos estos aspectos. La categoría de básicos, que sea además extensible y que sea personalizable. Actualmente, casi todos los lectores de pantallas, y digo casi porque no todos lo cumplen, son básicos y personalizables. Lo de extensibles todavía no está a la orden del día en todas las plataformas. ¿Cómo empieza esto de los lectores de pantallas? Vamos a empezar un poquito con la historia de los lectores de pantallas. ¿Qué fue ante el huevo la gallina? Pues, por supuesto, fue el sistema de ampliación y de lectura de elementos de display digitales en los años 70, como podría ser el famoso Optacom, que era un cacharro muy divertido que consistía en una especie de cámara con la que, acoplada a un monitor, pues enviaba información a un cacharro que pesaba bastante, que tenía una especie de superficie de elevación dinámica, que mediante pequeños motorcitos, creo que eran 280, podía formar figuras en relieve de forma dinámica. Y entonces las personas ciegas se entrenaban para identificar que esa cosa, de forma triangular, hecha con cuadraditos, era una letra A de una terminal de texto. Eso estamos hablando de principios mediados de 1970. Y con el Optacom también apareció el dispositivo Versabraille, que era un dispositivo autónomo. Todavía no estamos hablando de leer directamente la información de un ordenador, sino mediante un elemento externo. Acceder a la información de un display digital. El Versabraille era totalmente autónomo y permitía la creación de contenidos en Braille y se le podía cargar información y alguna aplicación mediante cintas de casete pequeñitas, como las de los antiguos... Grabadora de periodista, ¿no? Sí, contestadores automáticos de estos de telefonía. Y así, pues, se iban a aprovechar, utilizando todas estas tecnologías. Y no es hasta finales de los 70, principios de los 80, que como suele ser habitual, por desgracia eso ha pasado mucho, que es una gran, muy gran compañía ve una necesidad o oportunidad de negocio, según lo queramos entender, si más o menos cínico, pues... IBM, con el equipo que estaban trabajando tanto del tema de generación de voces como la creación de sus sistemas operativos para sus terminales de la serie 3000, recibían cada vez más feedback de empresas de oye, es que tenemos gente que ve poco, porque son oficinistas que llevan muchos años en la compañía. Entendamos que en los años 70 y los 80, el concepto de trabajo solía ser que tú entrabas en una compañía y lo habitual es que te jubilases en esa compañía. Entonces, tenían gente con problemas de visión y encima oficinistas, que ya lo de la presbicia es importante. Entonces, IBM, pues, con esa tecnología de monitores CRT que en algunos casos terminaban quemando la vista, pues, empezaron a estudiar esta línea de una asistencia para la persona que no viese bien la pantalla y era conceptualmente muy básico. Era un sistema que simplemente leía los caracteres uno a uno de lo que había en la pantalla. En vez de hola, decía H-O-L-A. Claro, esa primera versión del año 78, 79, dijeron, hombre, está bien, es un avance, pero leerte una pantalla de, recordemos, de 80 caracteres por 25 líneas, no. Entonces, mejoraron la síntesis de voz, añadieron más funcionalidad básica para que el lector de pantalla pudiese leer y hacer divisiones por palabras, pudiese entender qué había en todo momento en toda la pantalla, que el usuario pudiese mover ese foco, ese cursor. Quiero leer la primera línea, quiero leer la segunda línea, en qué línea estoy, cosas muy básicas para orientarse dentro de ese mapa de información que se aparece en una pantalla. Pues, poquito a poco, en el año 84, aunque oficialmente en Europa en el 86, aparece el IBM PC Screen Reader, que es el primer lector de pantalla comercial. Y de esas voces de IBM, pues, tenemos algún ejemplo del abuelito del actual Eloquent. Si Arturo lo puede poner, por favor. Madre mía, qué sintético. Pero fijaos el dominio que lo hace en cantar. Pues, esta tecnología de poder cantar ya se hacía en los años 60 en los laboratorios Bell. Estaban ya jugando con sonificación del habla de forma sintética. Mediante osciladores de frecuencia intentaban conseguir imitar el habla humana con mayor o peor éxito. Y ahora veréis lo de peor éxito. Por favor, Arturo, pon el audio de la síntesis de voz para ANSTRA CPC de MHT Ingenieros en inglés. Porque en español no la he podido encontrar. Pero intentad entender lo que dice esa síntesis de voz. Si sois capaces. Ya tenemos el oído muy atrofiado. Pero bueno, es una experiencia muy particular. Hombre, pues, me trae gratos recuerdos esta síntesis. La verdad es que es complicada de entender. Yo perdí la vista en el año 84. Y al poco tiempo, pues, sería el 86-87. No recuerdo cuándo fue exactamente. En una feria de electrónica. Creo que ANSTRA presentaba su síntesis. Y era un poco la atracción de esa feria, ¿no? Bueno, la atracción para mí. Supongo que otra gente tenía otros focos de interés. Y me acerqué con mi padre. Tenías un monitor. Tenías un teclado. Tenías una CPU. Tenías puesto, lógicamente, un procesador de texto. Y tú podías teclear. Y, lógicamente, recibías como feedback esa misma voz que hemos escuchado en castellano y español. Bueno, en no sé qué. Porque realmente detectar un idioma dentro de eso era complicado. Bueno, pues, a mí me emocionó. Porque de no tener absolutamente nada. Y ver a mis hermanos funcionar con sus primeros ordenadores. Y yo, lógicamente, pues, preguntaba. Tenía curiosidad. A ver que lo que yo había tecleado, porque sí que sabía escribir sin vista, se verbalizaba de aquella manera. Pero, bueno, en el fondo, cuando entrenabas el oído y después de escuchar mucho ese sonido, acababas detectando muchos fonemas. Claro, entrenabas el oído. Porque, principalmente, esto lo que hacía es verbalizar vocales y meter ahí entre medio imitaciones de consonantes. Y se iba construyendo el mensaje entrelazando sonidos. ¿Tú lo llegas a entender? Sí. Al principio me pillas un poco, pero me das tres o cuatro segundos que active el modo retro y se entiende. A mí lo que me llama muchísimo la atención es que estos son procesadores de síntesis de voz de 8 bits. Y la calidad es mala. Pero si os fijáis en lo que vamos a escuchar ahora, ya estamos hablando de un procesador de 16 bits que es el del Commodore Amiga que venía integrado en el propio procesador de la tarjeta de sonido. El Commodore Amiga, a diferencia de los PC compatibles, era un ordenador de arquitectura RISC, donde no sólo teníamos una CPU, sino que cada módulo de hardware específico multimedia, la tarjeta de vídeo, la tarjeta de audio, el gestor de memoria, por supuesto el procesador de la unidad, que era un Motorola 68000, cada uno tenía su propio núcleo de procesamiento. O sea, el procesador central le decía a la tarjeta de sonido, oye, hay que reproducir este sonido. Y era la propia tarjeta la que de forma independiente iba a la memoria RAM o al disquete obtenía el sonido y se encargaba de reproducirlo. Eso lo que provocaba al haber total independencia en las tareas totalmente claras de cada sector, pues el procesador estaba muy optimizado porque no se tenía que encargar de tareas que podían hacer los subalternos. Esto permitía que, por ejemplo, una síntesis de voz recordemos integrada en la propia tarjeta de sonido, en un Commodore Amiga estamos hablando de una síntesis de voz del año 86 que era ya coetánea de la que hemos escuchado antes de MHD Ingenieros, pues sonase así de bien. Por favor, Arturo, ponnos el Commodore Amiga. Y coetáneo del Commodore Amiga tenemos al Apple Macintosh de 1984 que era 16 bits no del todo reales, pero estaba muy optimizado también con la síntesis en el hardware y sonaba así de bien. Esto ya es otra cosa, ¿eh? Sí, sí, ya se entiende aunque sea inglés, pero tanto el Commodore Amiga como el Apple Macintosh ya tienen una verbalización, un una construcción de fonemas mediante bifonemas o sea, no es pongo el sonido de la B y luego de la O. Ya tengo un bifonema de voz, o sea, el encadenamiento es completo. Eso en otros sistemas de síntesis de voz no se hacía. Pero en el mundo de los ciegos nos conformábamos con bastante poco porque todo esto era nuevo, los 80s ya fueron la década de la accesibilidad digital para personas ciegas y con baja visión y aquí sí me gustaría que contaseis vosotros la historia del Braille hablado, porque cuando yo llegué a la ONCE en 1995 ya vosotros estabais disfrutando del Braille hablado. Bueno, yo llegué ahí, ahí, pero bueno esto fue una gran revolución fue un dispositivo pequeño, era la libreta pequeñita que mucha gente pues puede llevar en el bolsillo de la camisa con un boli para tomar notas rápidas y no había nada parecido para las personas ciegas, ¿no? Más allá de un punzón y un papel muy grande y gordo y una pauta, ¿no? Y el Braille hablado, el Braille Speak, pues fue un antes y un después. Y para las personas videntes tampoco había mucho esto sería, equivaldría a una notadora, una PDA que se llamaba entonces. Y realmente ahí conseguimos con el Braille hablado de Blasier, cosas muy interesantes. Por ejemplo, mucha autonomía, porque realmente utilizaba muy pocos recursos energéticos. También una agilidad a la hora de y una rapidez a la hora de encenderlo, ¿no? De activarlo. Bárbara, porque realmente no tenía que cargar ningún sistema operativo ni nada. Eso Jonathan probablemente sepa mejor de las tripas de este bicho. Y luego con una síntesis de voz muy interesante, que aunque la podemos oír en inglés, Enrique Varela fue el artificio de que nos hablara en un español maravilloso. Aunque yo tenía gente de mi casa que me llamaba Apaga el chino. Pero sí, que era la voz de la síntesis de voz. Era una síntesis para mí fantástica en aquel momento. Y la verdad que yo he leído libros y todo con el anotador. Aparte de tomar notas y de escribir mucho en este anotador. Así que sí, fue algo disruptor y fue algo que nos puso a las personas ciegas en aquel momento, no sólo a la altura, sino por delante de las personas que tenían visión. Sí, incluso por delante porque ir a clase a un instituto o a una universidad con un ordenador portátil o algo parecido, todavía era impensable en aquel momento para gente que pudiera verlo. Y sin embargo con este dispositivo se podía. Para que veáis la evolución, el procesamiento del habla, la síntesis de voz del braille hablado, era un procesador o un chip de Philips de Arturo nos puede poner al braille hablado hablando por favor. Y años después, en 1992, Philips actualizó su hardware para síntesis de voz, pero el braille hablado, aunque seguía sacando modelos nuevos, seguía utilizando el mismo chip porque ya los ciegos nos habíamos acostumbrado. Tenemos un audio de un reloj despertador que utiliza el chip moderno de Philips que nos va a decir la hora en inglés. Por favor, Arturo. Bueno, muy bien. Veis que tiene bastante más calidad que la síntesis anterior. Pero ahí tienes razón. Sobre el braille hablado, que no hemos dicho que era un teclado braille, no tan como introducir la información. Y luego sí que era esta síntesis que entra y devolvía. Llegamos a un punto de habilidad que no sé cómo llamarlo de otra manera. Que había gente que hacía esta competición de a qué velocidad podía adquirir conocimientos o realizar una lectura. Recuerdo que César Puente creo que llegó a hacer un informe y todo. De a qué velocidad podía poner la síntesis del braille hablado sin que perdiera comprensión sobre lo que estaba pronunciando. Y era una velocidad brutal. No sé cuántas palabras eran, pero era vertiginosa. Y sí que es verdad que hasta detectábamos si la puntuación en los escritos estaba mal. Hoy por hoy todo el mundo aboga por la síntesis natural, pero particularmente, y yo supongo, creo que vosotros también sois un poco del mismo club que soy yo, nos gusta mucho recurrir a la síntesis del antiguo IBM, a Eloquence y esto, ¿no? Porque... Yo sigo con ellas. Sigues, ¿no? Sí. A la hora de leer mucha información de forma muy rápida y aparte que pesa bastante menos en RAM. Y no os dais saltos cuando escucháis que aquí falta algo, han puesto un doble espacio, hay un punto, se nota enseguida. Incluso letras, a veces la B, la V, hay cosas que se pueden apreciar, que alguna falta de ortografía también se puede pillar. Pero solo con estas, me refiero, con las voces naturales No, no, tienen que ser las voces de concatenación, estas que son monofonemas. Con estas voces, con la de Eloquence y la del Braille hablado, se da el fenómeno este de que no estás escuchando realmente la voz, estás escuchando el concepto, ¿no? El concepto que va directamente al cerebro. Es muy curioso, ¿no? Es como cuando lees Braille, dependiendo el caso, tengo conocimiento de los sentidos que cuando leen Braille en su cabeza lo escuchan con la voz de Eloquence, que ya esas para no estar. Pero está muy bien, porque lo demás lo que está emulando es la caja torácica, las respiraciones, las pausas, es decir, la parte de humanidad, o la parte foniátrica que tiene una voz, ¿no? En cambio, realmente un sonido vocal, como puede ser el que produce una síndesis por interrupción de ruido, y por moderación de este ruido, en nuestro cerebro lo entiende perfectamente. Con lo cual, es fantástico que realmente se llegue a ese punto de eficacia. Claro, ten en cuenta que eso es similar a como un cerebro humano que pueda ver puede identificar una escritura a mano alzada, o sea, con un bolígrafo o un lápiz o un pincel. La escritura a mano alzada, cada persona la hace de forma más distinta al resto. Hay quien la A la pone con el rabito más largo, o la O le pone rabito o no le pone rabito. Serifa, por cierto, se llama eso. La L la hace con un simple balote, o la dibuja con su enlazador, y todas las personas que entendemos ese alfabeto, el occidental, podemos leer la escritura más o menos, porque luego hay gente que escribe que para pegarle con la jovilla del váter, porque vamos, la fama de los médicos escribiendo a mano alzada, pues el cerebro entiende esa escritura, ese conjunto de trazos, como un texto. Y lo mismo sucede con la síntesis de voz mediante concatenación de ruido. El cerebro va enlazando ese significado de cada sonido para construir ese mensaje. Es el mismo procedimiento. Y eso que están en zonas distintas del cerebro, las que procesan la información visual y la auditiva. Pero el lenguaje sí se procesa en una zona concreta del cerebro. Se ha escuchado o se ha leído, procesamos el lenguaje ahí. Entonces, de ahí viene también todo el tema de... ¿los ciegos leen o escuchan? Pues no, todos leemos. Seamos ciegos, sordos, cumplamos normativas o no tengamos discapacidad legal reconocida. Todos podemos leer. Si os parece, por último, para dejar ya este tema de la síntesis de voz, podemos escuchar la síntesis de voz que se tenía en los años finales de los 80 y principios de los 90 en los ordenadores PC cuando no tenías acceso a una síntesis de voz por hardware externa como el Ciberbeu o volcando la información a un braille hablado mediante el puerto serie o mediante otros procedimientos más manuales o artesanales, pues empezaba a haber lector de pantalla para otras plataformas y, por ejemplo, para ordenador PC compatible, para los lector de pantalla en japonés, o en francés porque casi todo estaba o en inglés o gente que se llevaba bien con los que fabricaban la síntesis en inglés como eran la gente en español, la gente en francés, la gente en italiano, la gente en alemán, pero, por ejemplo, hasta mediados finales de los 90 no había síntesis de voz para otros idiomas como el holandés o el el ruso el chino tampoco o sea estaba muy occidentalizado todo el tema de síntesis de voz y, por favor, Arturo ponnos el el sonido de la síntesis de voz de una Sound Blaster 8 bits que es lo que se utilizaba como elemento de síntesis de voz ¡Horrible! Hemos vuelto a los años 80 otra vez, o sea ¿Por qué? Porque la Sound Blaster no tenía una zona del hardware específico para generar la síntesis entonces utilizaba el DSP el Digital Sound Processor un procesador de generación de de sonido digital para intentar crear esas ondas que el Brian ha hablado utilizando un procesador específico de Philips conseguía hacer de forma casi instantánea, pues la Sound Blaster siempre iba un par de segundos o tres más tarde y con esa calidad horrible de 8 bits Si os parece, vamos hablando de esta primera generación de electro de pantalla, principalmente para sistemas operativos de terminal como era MS2 o el sistema de consola de AmigaOS en donde era una pantalla de 80 columnas por 25 filas de forma habitual en el que transmitir la información del lector de pantalla era muy sencilla porque el lector de pantalla simplemente leía línea a línea el usuario podía subir y bajar líneas y todo feliz y todo contento Perdíamos información Información, muchísima, porque los ordenadores utilizaban color, tamaño de letra, encima había un cursor que podías mover para resaltar o señalar. Esos, los primeros lectores de pantallas, no tenían acceso. Fueron con posteriores generaciones que además podías consultar el color que tenía el carácter donde estaba el foco del lector de pantallas. De aquí obtenemos también, a finales de los 80, un hardware que se adosaba directamente a la tarjeta de vídeo del PC compatible para obtener esa información. Estamos hablando de la papel media de BAUM, una línea braille que era un mastodonte, era muy grande, muy pesada. Una línea braille es un dispositivo que mediante servomotores suben y bajan púas... de un material para crear caracteres braille de forma dinámica. Normalmente las hay entre 12 y 80 caracteres. Pues esta papel media tenía acceso directamente a la memoria de vídeo del PC y hasta la fecha, lo triste es que era la forma más fiable de acceder a la BIOS de ese pseudosistema operativo de arranque de un PC. Para poder controlar y leer lo que había en la BIOS. Pues después de eso, se abarataron los costes, se decidió pasar toda la funcionalidad del lector de pantalla al propio PC y que se convirtiese en software. Y ahí empezamos con la primera generación real de lectores de pantallas modernos. Porque todo lo que había anteriormente era mediante adaptaciones, intersecciones en la memoria de vídeo, interpretaciones visuales de directamente pegar algo a la pantalla del monitor... Ya aquí tenemos un software, una aplicación que corre junto al resto del sistema operativo y le va preguntando al sistema operativo qué hay en la pantalla. Tenemos en un mismo dispositivo corriendo el sistema operativo las aplicaciones que tengamos en uso y además una aplicación extra, que es el lector de pantallas. Y aquí aparece habla, parla, IBM screen reader... Son los primeros lector de pantallas que al principio todo el tema de síntesis de voz lo que hacían era volcarlo a otro hardware fuera del PC. Bien sea a un braille hablado conectado por el puerto serie, bien sea un ciberbeu, que era una síntesis de voz por hardware fabricado en España. Había la síntesis de Dead Talk, que era un cacharrín monísimo. A mí me gustaba, era cuadradito con los bordes redondeados y la voz no era muy amigable, pero bueno, también la síntesis de MHT Ingenieros, que se conectaba a través del puerto paralelo. Era muy de robot exterminador. Sí, totalmente. Vais a morir todos, vais a acabar. Y entonces, con la aparición en 1984 del primer Macintosh y en el 85 del Commodore Amiga 1000, sucedió algo que cambió la historia de la informática. Dejamos las pantallas solo texto a pantallas llenas de iconos, ventanitas, incluso había ordenadores que tenían un ratón o dispositivo apuntador. Y ahí los ciegos nos quedamos a oscuras de nuevo. Porque no había lectores de pantallas para eso. ¿Por qué? Porque el concepto de ordenación de la información ya no era válido. Ya no teníamos una pantalla de 80 columnas por 25 filas. La pantalla se ordenaba en ventanas, en escritorio, en la barra de menú, en la barra de tareas. Las ventanas se agrupaban por zonas de trabajo, iconos, botones, casillas de verificación, campos de texto, etiquetas de texto. Y entonces lectores de pantalla ahí no había manera. Aparece la siguiente generación de lectores de pantalla. Los lectores de pantalla para interfaces gráficas de usuario. Ahí el primero fue el outspoken. Que hay páginas que dicen que es de 1989. Pero yo sé de buena tinta de que en el 1987 ya había gente utilizándolo en el Apple Macintosh. ¿Qué tenía de especial outspoken? Que lo que hacía era leer lo que se colocaba bajo el puntero del ratón. Entonces estaría moviendo el ratón. A saber qué encontraba. No. Outspoken también proporcionaba atajos de teclado para hacer barridos con el ratón. También el salto por tabulación. Y podías mover el foco del teclado y del ratón a la vez. Entonces más o menos te podías hacer a la idea. No era sencillo de utilizar. Ya digo que no era sencillo de utilizar. Tuve la experiencia en el año 95. Para Comodoro y Amiga. En el 87 teníamos el HTK. Que era no propiamente un lector de pantalla. Pero era un anexo al sistema operativo. Para que cualquier texto en pantalla saliese por la síntesis de voz del propio sistema operativo. Y además pudiésemos estar atentos a ciertos eventos del sistema. Por ejemplo, cuando pulsábamos una tecla se verbalizaba la tecla pulsada. Pero en Comodoro y Amiga. A diferencia de Apple Macintosh. O lo que luego fue Windows 3.0. No teníamos salto por tabulación. Era el gran limitante de Comodoro y Amiga o Atari ST. Digamos los ordenadores personales con interfaz gráfica de usuario. Con respecto a Apple Macintosh. Y yo siempre hago la broma. Que para mí el primer lector de pantalla que yo utilicé cuando me quedé ciego en 1995. Fue una niña de 7 años. Que era mi hermana. Porque yo me quedé ciego de forma muy repentina. Entonces no tenía acceso en ese momento a nada. Y digamos que esos 3 meses mientras me actualizaba en tecnología. A lo que estaban usando los ciegos. Que ya os digo yo. Que en ese momento los ciegos no estaban muy a la última en tecnología. Por las limitaciones de los lectores de pantalla. Estuve utilizando HTC. En Comodoro y Amiga. Porque en el Apple Classic que tenía. No era muy efectivo para trabajar. Entonces ya pasé a Braille hablado. Y con el Braille hablado. Si utilicé lo del volcado del buffer al puerto serie. Pero no con el PC como hacía mucha gente. Para leer la pantalla de MS2. Sino para leer la pantalla del Comodoro Amiga. Porque el Comodoro Amiga daba más información que lo que podía verbalizar. Y me hice un lector de pantallas muy rudimentario para Comodoro Amiga. Y hasta que ya vino el primer lector de pantallas para Windows 3.0. Que todo el mundo pensara que fue Josh. Y no. Fue Virgo de BAUM. Que aquí en España lo conocimos como Tiflowin. Que Tiflowin fue un hijo de Virgo. Una evolución de Virgo. Tenía salto por tabulación. Pero no entre todos los elementos de las ventanas. Sino que solo en aquellos elementos que se podían clicar. En los campos de texto no llegaba el salto por tabulador. Y entonces. Tiflowin te permitía navegar en el árbol de objetos del sistema operativo. ¿Qué pasa? Que esa estructura para la gente que hemos programado. Es muy clara. Muy sencilla. La amamos. Porque está todo ordenado. Y puedes llegar absolutamente a todo elemento que se ve en pantalla. Que eso lo hemos perdido. Porque al intentar simplificar los lector de pantallas para los humanos. Hemos perdido acceso a elementos. Que muchos de esos elementos simplemente son decorativos. O no aportan información. Pero con los lector de pantallas anteriores. Tanto Tiflowin como las primeras versiones de Jaws for Windows. Si podían acceder a eso. La información sigue ahí. Si hubieran querido. Sí. Vale, vale. Sí, sí. Pero por unas decisiones de simplificación. Se optó por reducir esa información. Para no saturar a los usuarios ciegos. Sí. Entonces, luego ya llegó la hegemonía de Jaws for Windows. En Apple Macintosh seguíamos con Outspoken. Una versión más modernizada. Ya existen 7 y existen 8. Que era la versión del sistema operativo de Macintosh en aquella época. El Apple Lisa. Que era el competidor interno del Apple Macintosh. Tenía el mismo Outspoken. Eso significa que el sistema operativo de ambos era muy similar. Si es cierto que el Outspoken yo solo lo vi funcionar una vez. Y iba mucho, mucho, muchísimo mejor en un Apple Lisa. Que en un Apple Macintosh. Lo que pasa es que un Apple Lisa costaba como 8 veces más que un Macintosh. Y ya estamos hablando de unas 300.000 pesetas que costaba un Macintosh. De la época. Entonces, calcula Ricardo. Casi rozando el millón. Una barbaridad. Hasta los clónicos eran caros. Sí, sí. Hablamos que no había a principios de los 90 un ordenador más barato de 80-100.000 pesetas. Un PC compatible. Aunque fuese clónico. Si ya nos íbamos a un Hewlett Packard o un Copa Expresario. Nos podíamos meter en las 200-300.000 pesetas. En lo que serían hoy 600 o 1200 euros. Que lo vemos en euros y nos parece barato. Pero en aquella época una persona que trabajase en una tienda de alimentación con suerte llegaba a las 100.000 pesetas. A los 600 euros. Decidme si digo una barbaridad. ¿Yo pude haber gastado en un escáner de sobremesa HP3 de Hewlett Packard y un Recognita que era un OCR que vendían 100.000 pesetas? Sólo en el Recognita sí. Sólo en el Recognita, ¿no? Más luego lo otro sí. No sé si serían 60 o 70 también. Era caro, ¿no? El escáner también era muy caro. Si tuviera el aventador de hojas, mucho más. Porque eran carísimos. Sí, sí. Eso te iba a decir. Dependiendo del año. Si estamos hablando de antes del 96. Superamos las 100.000 pesetas. 600 euros de ahora. Sí. Y si es después del 96. Con la optimización de las ópticas de Kodak. Ópticas digitales. Bajaron muchísimo los precios de los escáneres. Lo que pasa que. Al intentar meterle características de escáner para oficina. Como el alimentador de hojas. O el sistema para pasar las páginas de un libro. Sí. Pues ahí ya. Misteriosamente metían un cero a la derecha. Sí, sí, sí. Yo tengo esa sensación. De que todo era carísimo. Hasta los accesorios más simples. Bueno. Mucho peores. Había escáneres que solo eran en blanco y negro. Había unos escáneres antes que. Era un aparato. Un aparato que lo ponías encima de la mesa. Tenía unos rodillos. Y tú tenías que ir desplazándolo por encima del fondo. El escáner de brocha. Era mucho peor, claro. Bueno. Si el escáner era bueno. O sea, tenía suficiente peso. Yo tenía un escáner del Commodore Amiga. Con un puerto paralelo. Un Concentronic. Que luego lo podías usar con el Apple Macintosh. O con el PC compatible. Y como pesaba bastante. Me lo regalaron. Era un escáner de 1989. Pesaba muchísimo. Pues aquello escaneaba estupendamente. Con una resolución malísima. Pero eran los escáneres de la época. Pero escaneaba estupendo. Y escáneres de brocha posteriores. Ya del año 97, 98. Pesaban menos. Eran de plástico y demás. Y no arrastraban bien el papel. Era cuestión de peso. Necesitabas una superficie plana. Para poner la hoja. Sujetarla bien para que no se moviera. Irlo deslizando. Con una velocidad más o menos uniforme. El ordenador empezaba a pitar. Si ibas demasiado rápido. Demasiado despacio. Y el tema también está. Que empezamos. En el impuesto a la discapacidad. Los lectores de pantalla. Al principio. Eran gratis. IBM los daba gratis. Outspoken no era gratis. ¿Pero era económico? No. Y ahí hablamos. Nos hemos quejado muchísimo. De que una licencia de Jaws for Windows. Puede costar. Unos 1000 dólares. Por poner un precio redondo. Outspoken en la época. Eran 750 dólares. Estamos hablando. Del año 86, 88. De un lector muy limitado. Sí. Pero es que. Una licencia de Parla. Era el equivalente al habla. Que un habla. Si no recuerdo mal. Y estoy hablando de memoria. Ahí no puedo asegurar nada. En 1995. Un habla. Podría costar unas 15 o 20 mil pesetas. La licencia de habla. Hablas el lector. Que desarrolló Cayetano Meroño. Un tecnicista. Creo que era murciano. Que nos dio. Mucha vidilla. Y no era un precio caro. Dentro del conjunto. Era muy barato. Y además nos puso. En cabeza de la. Adaptación. Tecnológica. A los griegos de España. En MS2. MS2 4.4. Y 5.22. Y lo que hacía habla. Era recoger la información. De la pantalla. De esa terminal de texto de MS2. Creaba un buffer. Una rejilla. De 80 por 25. Y nos podíamos mover. Línea arriba. Línea abajo. Carácter izquierda. Carácter derecha. Preguntar por el color. Y habla era compatible. Tanto con el braille hablado. Como el ciberbeu. Porque utilizaba el puerto serie. Simplemente volcando la información. De forma controlada. No volcaba todo. El buffer de texto. Tu dabas un comando en el teclado. Y enviaba solo el equivalente. Por ejemplo nos movíamos por palabras. Solo enviaba al puerto serie. El texto de esa palabra. El braille hablado pronunciaba esa palabra. Lo curioso de esto es que. Nos permitió a las personas ciegas. Que hasta entonces. Todo este terreno había estado operado. O se había operado con él con mucha dificultad. O asistencia externa. Poder gestionar por ejemplo. Las bases de datos de base 3. De base 4. De forma accesible. También el Wordperfect 5.1. Que fue un procesador de texto. Para mí muy potente. Para lo que había en aquel momento. Y fijaros lo que suponía. Que de forma digital. Pudiéramos escribir nuestras creaciones. Y guardarlas. Y compartirlas. Cuando anteriormente no había nada. Tan cómodo como aquello. Con el batch. Que se llamaba eso. Y hacer nuestros pequeños programitas. Y demás. Y todo eso gracias al habla. No hubiera habido ese mediador. Porque antes estabas hablando. Jonathan. Y cuando dabas la definición del lector de pantalla. Y es que es así. Dentro de lo que supone para nosotros. Es ese mediador. Es ese intérprete. Es ese administrador de la información. ¿No? Que bueno. Que hace todas estas gestiones. Que acabo de nombrar. Que es mediar, interpretar y administrar esa información. Para que desde fuera. Una persona que no ve. La pueda gestionar. Y esto es lo que habla. Habla y los demás. Y eso era cuando empezamos el modo texto. Porque el MS2. El modo texto. Como el Wordpress 5.1. Se podía hacer todo esto. Luego empezó a salir el Wordpress 6.0. Que tenía el modo gráfico. Y otros programas. Que también tenían el modo gráfico. Y ahí no se podía hacer absolutamente nada. No se podía hacer nada. En ese momento ya empezaba. En MS2 se pueden ejecutar programas. En modo gráfico. Utilizando ya las modernas pantallas de la época. De VGA a SuperVGA. Y ahí los lectores de pantalla no tenían nada que hacer. No, no. Ahí se clavan. Ahí es cuando empiezan los nuevos lectores de pantalla. Que aparece un concepto. Que... Es complicado de explicar. Que es el out-of-screen model. Cuando la información que aparece en pantalla. Ya no es texto. Sino que son imágenes. Son conjuntos. Son relaciones visuales. Son elementos que tienen. Un texto, un estado. Un rol. Y un valor. Es más complicado de transmitirle. La información a una persona ciega. En un lenguaje comprensible. Para esa persona. Y ahí sale el concepto del out-of-screen model. Que a ver si lo puedo explicar. El out-of-screen model. Es un conjunto de reglas. Para traducir la información. Que aparece en una pantalla. A un formato. De información comprensible. Para un usuario. Para una persona ciega. ¿Qué hace el out-of-screen model? Pues tomar decisiones. De cómo vamos a navegar. Por la interfaz gráfica de usuario. Por ejemplo de Windows. O de MacOS. O de Linux. Vamos a seguir al foco del teclado. Vamos a tener un foco general. Vamos a tener además. El foco del ratón. O no vamos a tener ningún foco. Y simplemente nos vamos a limitar. A leer toda la pantalla. ¿Puedes describirnos. O definirnos el concepto de foco? Foco es un cursor. Que sigue bien. A los movimientos que hagamos. Por salto o por tabulación del teclado. Pulsando la tecla TAB. O bien moviendo el puntero del ratón. Por la pantalla. Arrastrando el ratón. Y colocándolo encima de un icono. O de un texto. O de un campo de texto. O bien. Utilizando un cursor virtual. Que se mueve independiente. Al del teclado del ratón. Y que nos permite. Explorar zonas de una pantalla. O de una ventana de aplicación. Donde ni el cursor del teclado. Ni el cursor del ratón. Entonces nosotros. Definimos que cursor. Tiene que atender el foco. Y realmente lo que está haciendo el lector. Es prestando atención únicamente a ese foco. Que es la información que nos da. Claro. Normalmente en un sistema operativo de interfaz gráfica de usuario. Tenemos tres focos principales. Que es el del teclado. Que refleja. Que elemento tiene la atención del teclado. Por ejemplo. Cuando pulsamos una tecla. En MS-DOS. Siempre iba a la línea de comandos. Pulsas una tecla. Y la línea de comandos ponía en pantalla. Las letras que habías pulsado. Pero cuando tenemos una interfaz gráfica. Por ejemplo tenemos dos aplicaciones abiertas. Una con un procesador de texto. Y otra con una calculadora. Dependiendo que aplicación. Tiene el foco de atención. Si el foco del teclado está. En el campo de texto del procesador de texto. O en el campo de números. Para introducir un número. Pues cuando pulsemos una tecla. De nuestro teclado físico. Se va a colocar el nuevo carácter. O en la aplicación del procesador de texto. O en la calculadora. Pues ese foco de teclado. Está presente desde el año 84. En todos los sistemas operativos. Con interfaz gráfica de usuario. No en todos los sistemas operativos. De interfaz gráfica de usuario. Tenían el cursor. O foco del ratón. Porque al principio. No todos los ordenadores. Eran compatibles con ratón. Las primeras versiones de Windows. Windows 1.0 aquella cosa. No era compatible con ratón. Aquella cosa. Aquella cosa. Aquello no era un sistema operativo. Era una cosa que se ejecutaba. Por encima de MS2. Y colocaba las cosas muy bonitas. Arturo tú has sido muy optimista. Hablando de VGA. En aquellos tiempos. Teníamos EGA y CGA. Y Hércules. Los monitores de fósforo verde. Y 16 colores. Verde oscuro. Verde muy oscuro. Verde claro. Verde muy claro. Son tarjetas gráficas. Estas siglas que había dado. Tarjeta gráfica. A la par la tarjeta gráfica y el monitor. Los dos tenían que ir de la mano. Dentro de un lector. Al ser para personas ciegas. La gráfica daría igual. Tiene muchísima importancia. Tiene muchísima importancia. Sobre todo en los sistemas operativos. De interfaz gráfica de usuario. Por ejemplo. En Windows 3.11, Windows 95. Y Windows 98. Incluso en XP. Just for Windows. Cambiaba el driver. Del sistema operativo para la tarjeta gráfica. Por el suyo propio. Para poder acceder a la información. De lo que había en pantalla. Ya que Windows. Desde el software. No daba toda esa información. Había que utilizar un sistema. De intercepción de vídeo. Colocarte entre el monitor. Y el ordenador. Para ver que información se estaba enviando. Y si tu tarjeta gráfica. No era compatible. Con el estándar VESA. Podrías haber pagado. Las 150.000 pesetas. Los 900 euros de licencia. De iOS. Y iOS no funcionaba. En aquella época se hablaba. Que Hunter Joyce y Bill Gates. Tenían una amistad personal. Si no ellos sus mujeres. Y gracias a eso. Esto es crónica rosa. Gracias a eso. Él tenía acceso con este driver. A información. Y lo permitieron introducir. Dentro de lo que es el sistema. ¿Tú sabes algo de eso? Hombre. Yo no me voy a meter en la parte rosa. O amarilla. Pero sí decirte que. Freedom Scientific. Hunter Joyce. Siempre iba. No un paso delante de la competencia. Que estaba la gente de Dolphin. Estaba la gente de Thunder. La propia gente de NVDA. En el 2006. Todo el mundo iba. Dos o tres pasos. Detrás de la gente de Jaws for Windows. Y no era normal. Que saliese Windows 2003. Y saliese. Jaws for Windows. Compatible con Windows 2003. Al día siguiente. Al día siguiente no. Es que llegaron a salir un mes antes. De la publicación de Windows 2003. Es que aquí dices tú. Espera. Aquí hay algo que me falla. Era un tema de confianza. Información privilegiada. No muy decente. Pero bueno. Es lo que había. Que hubiera estudiado. Y bueno. También la alternativa. A la intersección de vídeo. Son las APIs de accesibilidad. Que los propios sistemas operativos. Modernos. De interfaz gráfica de usuario. Incorporan una API de accesibilidad. En lugar de tener que preguntar al vídeo. Qué hay. Tú le preguntas a la API de accesibilidad. Qué ventanas hay abiertas. Pues hay tres. Y qué tiene la primera ventana. Pues tiene cuatro contenedores. El primer contenedor tiene un grid horizontal. Con cuatro botones y un campo de texto. Oye. Ese campo de texto. De ese grid del primer contenedor. Pues mira. Tiene una etiqueta de texto asociada. Que pone buscar. Y el campo de texto. Ahora mismo no tiene el foco del teclado. Pero sí. El foco del ratón está encima. Y con toda esa información. Tan abstracta. Tan codificada. Tan estructurada. Que a los ingenieros nos gusta mucho. El lector de pantalla te dice. Campo de búsqueda. Entonces pues. Mediante las APIs de accesibilidad. Se optimiza muchísimo el rendimiento. De un lector de pantallas. APIs de accesibilidad. Hay muchas. Tantas como sistemas operativos. Es más. Por ejemplo Windows. Tiene varias APIs de accesibilidad. ¿Por qué? Porque Windows se ha refrito. Se ha recocinado varias veces. Entonces por cada nueva versión. Las APIs de accesibilidad de Windows 95. Bueno Windows 95. APIs de accesibilidad. Aquella cosa que llamaban APIs de accesibilidad. Y éramos felices. Eran proto APIs de accesibilidad. En Windows 95. Hasta Windows 98 no teníamos una API completa. Luego en. Windows NT. Pues tenía una API. Distinta a la que tenía Windows 98. Luego con XP. Windows XP y Windows 2000. Se unificó. Windows 2000 y Windows XP. Ya tenían la misma API de accesibilidad. Luego en Apple Macintosh. Hasta. En Windows 99. Consiste en 7. No tenemos una API completa. Bastante más completa que la de Windows. En 1998. Curioso. ¿First o second edition? First. Tenemos que entender también. Que cuando la API de accesibilidad. No es suficiente. Lo que hacen los fabricantes de lectores de pantalla. Es sobrecargar las responsabilidades. Del lector de pantalla. Por ejemplo. Just for Windows. Era tan bueno con respecto a la competencia. Porque además de tirar de la información de la API de accesibilidad. Seguía. Interceptando la información de vídeo. Y con eso tenía más información que texto. Por ejemplo. Era habitual que con Just for Windows. Podíamos saber el color de letra. Y el color de fondo en un campo de texto. Pues eso. Dolphin no lo podía hacer. Supernova. Lo pudo hacer. Al final. Pero hacía un procedimiento muy rudimentario. Que era. Hacer una captura de pantalla. En segundo plano. Averiguar en qué posición de píxeles. Estaba el cursor del teclado. Y ahí hacer una consulta de este píxel. De qué color es. Y claro. Si era un campo de texto muy ancho. Como un campo de búsqueda. O una barra de direcciones del navegador. Aquello podía tardar dos o tres segundos. Desde que pulsábamos el atajo del teclado. Para qué color tiene este texto. Hasta que me lo decía. Pues tres segundos allí. Y la criatura de. Voy a hacer la captura de pantalla. Voy a hacer el recorte. Voy a ir mirando píxel por píxel. Y luego con eso hago una media ponderada. De cuántos rojos hay. Cuántos verdes hay. Cuántos azules hay. Con eso saco un color. Y a veces lo daba de. Este color es el 784. Desde tu ala. Del pantón. Totalmente. Entonces teníamos un problema. Este concepto de las APIs es muy interesante. Por el cambio que ha supuesto. Como has comentado. Hemos pasado de que la accesibilidad. Era una pieza integrada. Dentro del sistema. Como las tarjetas de las PaperMayer. O cuando se integraban en MS2. Que estaba ahí muy cerquita. A pasar a ser. Un servicio de accesibilidad más. Dentro del sistema operativo. A la altura de los otros servicios. Hemos ganado. No en todos los sistemas operativos. Con las APIs de accesibilidad. Todavía los lectores de pantalla. No eran servicios del sistema. Todavía no eran aplicaciones. Que corrían con el resto de aplicaciones. Del sistema operativo. Hasta VoiceOver. En el 2008. Para Macintosh. Si no recuerdo. Era MacOS Tiger. O Panzer. ¿Cuál iba antes? Bueno, 2008. Creo que era Panzer. Pues ahí. Fue la primera vez que. Un lector de pantalla estaba pegadito. Al núcleo del sistema operativo. Como un servicio de accesibilidad. Que tenía total prioridad. Y total acceso. A toda la información. Del sistema operativo. Ya no había los límites. Aquí no puedo llegar. Por ejemplo, era muy habitual. Que en las primeras versiones de Windows 98. O Windows 95. Josh o Dolphin. No podían leer los campos de contraseña. Porque ahí el sistema operativo. No le dejaba leer. Entonces no teníamos feedback ninguno. O por ejemplo. Si la ventana. Estaba oculta. Por otra ventana de otra aplicación. Era muy habitual. El sistema operativo. Podía acceder a esa ventana. Y el vidente que lo intentaba asistir. ¿Dónde estás tocando? Y era porque. No estaban sincronizados los cursores. O no había un acceso. De qué ventana está en primer plano. O qué ventana está en segundo plano. Porque era una gestión interna del sistema operativo. Y el lector de pantalla. No tenían acceso. A esos permisos de ejecución. Pues VoiceOver en el 2008. Fue el primer lector de pantalla. Que era un servicio del sistema. Un servicio de accesibilidad. En esa categoría específica. Y además. Fue el primer lector de pantallas. Que venía gratis. De serie. Nada más arrancar la máquina. Todo el mundo hablamos del iPhone 3GS. Del 2009. Pues no. Ya en el 2007-2008. Porque estoy haciendo memoria. Yo creo que fue al final. Ya teníamos un lector de pantallas. De serie. Apple que al principio decía. Que no quería hacer calidad. Pero luego vio negocio. Vio tanto negocio. Como que si no, no vendía la administración. Ni un solo Apple. Ese es el negocio. Eso es la ley 508-512. De Estados Unidos. Donde la administración está obligada. A comprar dispositivos. Funcional y a contenido. A todos los trabajadores. Con y sin discapacidad. Y así fue como. Este hombre se doblegó. Por la pela. Porque no hay otra historia. No hay ningún acto altruista. Ni filantrópico. Simplemente negocio. Pero tú fíjate que también la pela. Provocó la aparición del. Mayor competidor de Just for Windows. Y fue en el 2006. Michael Curran. Con otro compañero australiano. Dijo yo ya estoy cansado. De palmar pasta. A enter choice. A Dolphin. Vamos a hacer una alternativa. Gratuita para Windows. Y con Python. Se hicieron un electro de pantalla. Mucha gente nos acercamos. Colaboramos. Luego lo que pasa en los proyectos de open source. Cada uno tiene su opinión. Y también tiene su voluntad. Algunos siguen. Otros no siguen. Y actualmente. Dependiendo del país. Es el electro de pantalla. Más utilizado en Windows. O incluso es el único. Electro de pantalla utilizado. Porque a diferencia de Jaws. O Supernova. O Dolphin. Da acceso a todos los idiomas. Disponibles según la síntesis de voz. Incluso hacer traducciones. Está disponible. La traducción para Jaws. Pasa por sus fabricantes. Creo que estás hablando de él. Y no has dado su nombre. Pero lo voy a dar yo. Es NVDA. Non Visual Desktop Access. Pues NVDA. En el 2006. Empieza muy poquito a poco. Era bastante inestable. Es un electro de pantalla. En Windows. Todos los electro de pantalla. Salvo narrador. Se ejecutan. Como aplicaciones de primera prioridad. O sea. No llegan a ser servicios de accesibilidad. Pero están muy cerca. Ya en Windows 11. Hay una categoría de ejecución. Que ya reconoce. Este tipo de servicios. De este tipo de aplicaciones. Para tratarlos como servicios. Pero lo interesante es que. NVDA. Para muchas personas ciegas. Cuando Josh se atascaba. O se colgaba. Arrancabas NVDA. Y podías intentar superar el problema. Así comencé utilizándolo yo. De hecho sí que cabe destacar. Antes lo has dicho Jonathan. Porque yo sé que tú también has estado muy implicado. En este proyecto. De la comunidad hispana. NVDA en español. Que hay detrás del proyecto. Que hoy lo utilizamos. Y pensamos que eso se ha hecho solo. Y ha habido un trabajo de años. De muchos años. De mucha revisión. Y desde aquí os pedimos. Que bicheis por internet. Pongáis comunidad en NVDA español. Y si podéis apoyar. De todas las formas posibles. Lo hagáis. Es un proyecto que aunque sea de software libre. Hay mucha gente trabajando. Yo personalmente. Como empecé al principio a colaborar con ellos. Fue con la versión inglesa. Pero. Sigo utilizando NVDA. En español y en inglés. Y la comunidad de NVDA. Y con. José Manuel Delicado al frente. Y hay más gente implicada. Es un proyecto que recibe donativos. Porque. El propio proyecto. Publica libros. Publica tutoriales. Da asistencia con su sitio web. Para ofrecer información. Hace las traducciones. Congreso. Componencias. Es un proyecto muy interesante. ¿Y otros sistemas como Linux? Te van a llevar a la horca. Totalmente literal. Te voy a llevar a la horca. En sistemas. Linux. Si es la terminal. De texto. Teníamos. VRLTTI. Que era el equivalente. Al PaperMayer. Pero como servicio. De captura de información. Que lo trasladaba. A un display braille. Siempre externo. Y también. Teníamos. Speakup. Es un detrás de pantalla. Muy parecido. A lo que fue habla. Pero todo por software. Y utiliza síntesis. En speak. Que es muy parecida. A la voz del braille hablado. Pero generada. En el propio software. Es una voz muy ligera. Y soporta más de 100 idiomas. A diferencia de las voces. De más calidad. Que como mucho. Están en 27, 28 idiomas. Y eso para terminal. Tenemos otros lectores de pantalla. También de terminal. Como el SR. También había. Un lector de pantallas holandés. Que a mí me lo enseñaron un momento. Me pareció interesante. Pero. Teniendo speakup. No. No aportaba mucho. Y. Para el. IVMLSR. Que tampoco terminó. Porque lo abandonaron a medio cocer. Y luego. Tenemos lector de pantallas. Según el escritorio. En Linux es todo modularizable. Hay gente que se crea su propia distribución de Linux. Esto ya es mejor para otros. Porque esto tiene telita. Pero digamos que para. Genome. Tenemos Orca. Que también es un lector de pantalla. De. San Microsystems. Luego se ha afiliado directamente al proyecto Genome. Con William Walker. En la comunidad. Estuvimos trabajando ahí. Con Javier Dorado. También colaborando en el proyecto. Estuvimos mucho. Pero el problema es. Que a diferencia de Mac. Que si algo es inestable. Se cuelga ese algo. Y el resto sigue adelante. En Linux. Dependiendo quien tenga problemas. Se cae solo. O arrastra todo lo que tenga alrededor. Muchas veces nos quejamos. Los usuarios de Linux ciegos. Que Orca es malo. Orca tiene un mal apoyo. Para ser estable. En muchas ocasiones. El problema no es Orca. El problema es o la síntesis de Vox. O el puente entre la síntesis de Vox. Y el lector de pantalla. O el puente entre el lector de pantalla. Y la información visual. O la propia API de accesibilidad. Que no está bien instalada. Porque tú te instalas un escritorio. Puede ser Genome. Y eso son cientos o miles de paquetes. Y a veces. El orden de instalación afecta. Y creo que ya se solucionó. A partir de Genome 36. Pero antes. Si tú instalabas Genome. Y instalabas antes. El paquete de accesibilidad. De la API de accesibilidad. Que era ATSPI. Pues no iba la accesibilidad. Porque instalabas primero la accesibilidad. Y luego el soporte gráfico. Que dirás tú es lógico. Primero la accesibilidad. No. Pues tenía que instalar primero el soporte gráfico. Y luego la accesibilidad. La complejidad era demasiado elevada. Y eso todo provocaba inestabilidad. Desde el lector de pantalla. Que sigue hasta hoy. O sea. Yo personalmente utilizo más Linux. Desde líneas de comando. Mediante un puerto SSH. O levantando. La terminal. En el propio dispositivo. Y lanzando VRL TTI. Y pinchando una línea braille al puerto USB. Porque Genome. En muchas ocasiones. No llegas a la información. O el foco del teclado. Se vuelve tonto. Porque voluntario o involuntariamente. Has movido tú. O el propio sistema operativo. Ha movido el puntero del ratón. Y Orca no sabe decidir a quién atender. Hay cosas ahí. Pero bueno. Yo tengo esperanza con las últimas versiones de Fedora 42. A ver si por fin. ¿Y otros entornográficos? ¿El KDE? El KDE dicen que son accesibles. Pero son accesibles para gente que tenga resto de visión. Entonces los ciegos en KDE. Hoy por hoy todavía. No tenemos acceso. O sea. Puedes usar un parche. Como utilizábamos en Windows 3.11. Con el pack de Sound Blaster. Para leer todo texto que aparezca en pantalla. Me lo lees. Pero en KDE a lo mejor te lees. La barra de sistema con el reloj. Luego te lees la ventana del procesador de texto. Te lees todo el texto que has escrito. No puedes cortar ni moverte. Y a lo mejor también te lees. La ventana que está en segundo plano. Que tienes ahí una página web. O sea. Cómo discriminas tú toda esa información. Porque te va leyendo de izquierda, de derecha, de arriba, de abajo. Por bloques. Uno detrás de otro. Si alguien me dice KDE tiene accesibilidad. KDE tiene accesibilidad. Menos para ciegos. Que cambien el futuro. Sé que la comunidad de KDE está trabajando. Pero tienen un problema. Que la API de accesibilidad es bastante más pobre. Que la que hay en Gnome. Y si la API de accesibilidad es pobre. Pues tenemos cosas. Como nos pasó en Android. Al principio. Que hasta Android 4.1. El lector de pantalla era una idea. No era una realidad. Porque aquello leía cuando podía. Y cuando podía no podía leer. Porque se había atascado. Y por eso hay una total dependencia. De las APIs de accesibilidad. En los sistemas operativos modernos. Porque el lector de pantalla. Para poderse ejecutar como servicio. O una aplicación cercana. Al núcleo del sistema. No puede ser muy pesada. Por lo que comentas de Android. Me das pie. A decirlo que no es un lector de pantalla. Por ejemplo esto de Android. Al comienzo era una especie de máscaras. Que consensuaban. Algún tipo de información. Y algún anclaje a elementos. Y permitían. Moverte por algunas partes. Del sistema y algunas partes. De una aplicación. Eso no es un lector de pantalla. Eso es algo. Algo que media con la pantalla. Pero no tiene. Esa disposición. Que tú comentaste antes de interactuar. Claro ten en cuenta que Android. Sus primeras versiones. Antes de que Google la comprase. Era un sistema operativo. Que iba a competir con Blackberry. Era un sistema operativo. Para ser utilizado en dispositivos. Con cursor y teclado físico. Y hasta Android 1.8. Perdón 1.6. No empezó a tener soporte de pantalla táctil. Completo. Tú podías hacer clic en ciertas zonas. Porque había botones. Que siempre se colocaban en ciertas zonas. Como en los Nokia. Los dos botones de menú. Que siempre estaban abajo. A la izquierda y a la derecha. Antes de Android. Nos metemos en Symbian. Y Windows Mobile. No. Yo quería seguir hablando. De lo que no es un lector. Y que tiene efecto de lector. Y son muy familiares. Y los utilizamos muchas veces. Y decimos esto tiene lector de pantalla. Y no es cierto. Por ejemplo todo lo que es el etiquetado. De elementos de un menú. Con etiquetas de audio. Que lo que tú haces. Es desplazarte. Y recibes un feedback de audio. Grabadora de sonido. Dispositivo. De por ejemplo. iPod Shuffle fue el primero. Sistema Rockbox que era un sistema libre. Que leía el texto. Lo convertía a síntesis de voz. Y le ponía la etiqueta de audio. Las propias grabadoras maravillosas. Zoom Essential utilizan este sistema también. El otro día estuvimos. En uno de los episodios. Hablando con Miguel González. Y nos enseñó. Un walkie talkie chino. Que tenía un sistema. Y permitía. Dígito a dígito escuchar. Números de frecuencia y todo eso. Pero eso no es un lector de pantalla. Eso es un sistema de accesibilidad. O un sistema de asistencia. Pero no es un lector de pantalla. Porque no hace una interpretación de lo que hay en pantalla. Simplemente reacciona. Al movimiento del cursor. Que además de actualizar la información visual. Hace que se reproduzca. Un audio pregrabado. O reproducir un buffer de audio. De una síntesis de voz limitada. O algunos intentos de accesibilidad. En videoconsolas como Playstation 3. O la Xbox. Creo que la 360. Utilizaban todos. Sistemas pregrabados. Aquello no. Yo te digo yo que no. Y también. Cajeros automáticos. Algunos. Máquinas de vending. Sí, sí. Una guía de voz. Ahí está. Es que es eso. No es un lector de pantalla. Es una guía de voz. Por ejemplo. Muchos audioguías para museos. Lo que tienen los televisores. Llega en alguno de ellos. Es lector de pantalla. Sí. Android TV. A partir de Android TV 3.6. Seguro. En la versión 4. Ya lleva. Tanto top back. Para Android TV. Como el lector de pantalla propio. Que hayan hecho la gente de Samsung. O la gente de Sony. Para Sony Bravia. Tenemos lector. Que es muy parecido a top back. Pero lee la información más concentrada. Top back lee muchas veces. Información que no está bien estructurada. Y lector sí. Llega un poquito más allá. Cuando la aplicación es de Sony. Samsung también tendrá. Voice assistant. Creo que se llama. Android TV. En Tizen. Tenemos un casi lector de pantalla. Porque sí es cierto. Que se utiliza una síntesis de voz. Y se hace una lectura. De lo que hay en pantalla. Y hay un out screen model. Pero sí es cierto. Que no es lector de pantalla completo. Porque no admite. Todas las funciones del dispositivo. O sea. Lector de pantalla no cubre todos los casos. Out screen model está muy limitado todavía. Entonces. Ya si nos vamos al sistema operativo. Como webOS. Pues. No hay lector de pantalla. Hay una guía de voz. Preguntamos antes si volvíamos a Symbian. Mencionarlo. Decir lo que es sí. Porque fue importante. Sobre todo para los lectores de pantalla. En telefonía móvil. Pues allá año 2003. Hegemonía de Symbian. En los teléfonos móviles. Que desde 1998. Los teléfonos móviles eran asequibles. Aunque existían de antes. Del final de los 80. Llevaba teléfonos móviles. Pero eran como cuatro licencias de Josh. En el año 87. No eran asequibles. ¿Quién más vendía la Nokia? Motorola. Nokia. Siemens. Marcas chinas. No llegaban. El gran fabricante era Nokia. El segundo siempre Motorola. Y luego pues. Algún Samsung ya. En el 2006. Pero bueno. Ya estamos ahí. Hablando del consorcio Symbian. ¿Qué es Symbian? Es un sistema operativo para. Teléfonos móviles. De tecnología GSM. Estamos hablando de. Tecnología. De llamadas telefónicas. No lo que era aquí en España. Moviline. O llamadas de radio telefonía. Sino ya telefonía GSM. O sea llamada antena y a satélite. Vale. Pues Symbian. Fue un consorcio de los grandes fabricantes. De teléfonos móviles. Ahí estaba Nokia. Estaba HP. Motorola. Siemens. También Erison. Que luego fue adquirida por Sony. Y decidieron utilizar. El mismo sistema operativo. Porque aquello era. Una feria. Tenías que sacar un servicio. O una aplicación. Y tenías que programarla entera. Para cada fabricante. Con Symbian se unificó. Todo el mundo usaba el mismo sistema operativo. Y programabas utilizando. El Java J2 ME. Que era el software development kit. El kit de desarrollo de software. Que se utilizaba en la época. Y gracias a ello. Por supuesto. Hasta el año 2002-2003. Los ciegos lo que hacíamos era. Aprendernos de memoria. Que para llegar a la agenda. Era tres veces abajo. Una a la izquierda. Y Manolita estaba cinco veces abajo. Y le dabas al enter. Así utilizábamos los teléfonos móviles. Y sabíamos dónde estaba. Colgar. Llamar. Apagar. He conocido unos ciegos. Que cuando habían contado mal. Cinco veces abajo. No sé si llevó cinco o seis. Lo que hacían era apagar el teléfono. Y volverlo a encender. Hay una cosa que es. Le das tres veces al botón de colgar. Y te vuelve al escritorio. O al screen screen. De Symbian. Entonces pues. Era muy rudimentario. Entonces. La accesibilidad en Symbian. Aparece de dos formas. Mediante un entorno cerrado accesible. Mobile speed pocket. Mobile accessibility. Sí. Mobile accessibility. Ya era el entorno de pantalla. No era. Era una guía de voz. Esa máscara que hemos hablado antes. Pues tenemos ese entorno cerrado. Que era una guía de voz. Con acceso a 6, 8. De las 15, 30 funciones del teléfono. Y los ciegos lo veíamos felices. Pero aparece TOX. T-A-L-X. Que sí. Ya era un lector de pantalla. Con la voz de Eloquence. Que en aquel entonces no era Eloquence. Era via voice. IBM via voice. Y se ejecutaba. Como una aplicación más del sistema operativo. Pero con autoarranque. Y privilegios de servicio. Eso hacía que. Fuese bastante estable. Lo que pasa que si teníamos TOX. Y arrancábamos una aplicación grande. Como podía ser. MSN Messenger para Symbian. Pues TOX. Se arrastraba más que una babosa. O sea iba mal. Porque estábamos hablando de teléfonos. Que tenían la friolera. De un mega o dos megas de RAM. Si repetimos. Un mega. No giga. Y esos eran los de gama alta. Eso te iba a decir. Que había modelos de Nokia. De 256 kilobytes. Por cierto. La síntesis. De MST Ingeniero. Se ejecutaba. En 23 kilobytes. Para que tengáis un concepto. La síntesis de Apple Macintosh. Con la calidad que tenía. Ocupaba la friolera. De 250 kilobytes. O sea un cuarto de mega. Y ahora tenemos voces. En Windows y Mac. Que ocupan un giga o dos gigas. Habían seis voces. De esas seis ejecutables. En un disque de 1,4. Sí. Y tenía un combo de ruedas. Que tenía discos de doble densidad. Entonces eran 740 kilobytes. Pero bueno. Sinvian. Sigue su hegemonía Nokia. Tox sigue evolucionando. Hasta que llega Sinvian 9. Y aparecen los teléfonos táctiles. De aplicaciones resistivas. A Tox le pasó lo mismo que a Habla. Que a Josh for MS2. Y a otro lector de pantalla de terminales. Allí ya no ve nada. Porque la pantalla táctil ya no tiene. Cursor de teclado. Los teléfonos son táctiles. Y aparece también un competidor. Que era Windows Mobile. De la propia Microsoft. Que era una adaptación. A pantalla táctil. De Windows C. Windows C es. Una adaptación de Windows 3.0. Para dispositivos empotrados. En vez de devices. Un dispositivo empotrado. Es un dispositivo que aparentemente. No tiene un ordenador dentro. Pero en realidad se lo tiene. Como puede ser un cajero automático. Una máquina para pedir. Los productos en el McDonald's. Todo ese tipo de elementos. Son dispositivos empotrados. Ahí Windows C. Ha sido el rey durante muchos años. Las pantallas de anuncios. De que vuelos salen en los aeropuertos. Ahí detrás hay un Windows C. Más moderno, más antiguo. Pero siempre hay un Windows C. Que luego se han ido abaratando los costes de Microsoft. Y te vende un Windows 8. Y te dice que es un Windows C. Coger un Windows 8. Le quita paquetes que no se van a utilizar. Y te lo deja. Más ligerito. Porque encima esos ordenadores que gestionan. Las pantallas de aviso. En estaciones de trenes o aeropuertos. Tampoco tienen. Mucho rendimiento. Windows Mobile. Dispositivo táctil. Ahí es Cold Factory. Los fabricantes de ese Mobile Speak. Y Mobile Accessibility. No era una guía de audio. Se inventan un concepto. Muy interesante. Las esquinas son botones. Y podemos hacer pulsación simple. Pulsación larga. O doble pulsación. Y las PDAs. Que eran los dispositivos móviles. Que ejecutaban Windows Mobile. Solían tener un cursor de 5 posiciones. Arriba, abajo, izquierda, derecha. Enter. Y con eso podíamos hacer cosas muy chulas. Yo en el 2006. He llegado a estar un día entero. Trabajando en la calle. Tirando de conexión. Ni 3G. Era GPS. Leer mi correo. Navegar con Internet Explorer. Para Windows Mobile. Rellenar una hoja Excel. Y... ¿Era sencillo utilizar Mobile Speak Pocket? No. No. Era... Como decimos muchas veces. Un verdadero coñazo. Era bastante confuso. Porque he pulsado dos veces. Pero como estaba la PDA un poco lenta. Solo leía una vez. Luego escribir en ese teclado. En pantalla era horrible. La pantalla era resistiva. Eso significa que cogías. Un lapicero sin punta. Y no era tocar la pantalla. Tenías que apretar. Para que se reconociera la pulsación. iPhone 3GS. Y una curiosidad. Creo recordar. Si no me corregís. Que también Talks. Sacó una versión para pantallas táctiles. Las pantallas táctiles en móviles. Fue un poco como los entornos gráficos. En los ordenadores de escritorio. Que hubo un antes y un después. Y hubo uno de los primeros móviles con pantalla táctil. Que era de Nokia. Y hubo una versión de Talks. Que también soportaba esa pantalla táctil. Igual con esa filosofía. De dividir la pantalla en cuatro zonas. Para adelante y para atrás. Aceptar y cancelar. Y con esas cuatro cosas. Claro, pero eso era Symbian 9. Y Talks hizo una adaptación. De lo que hacía Mobile Speed Pocket. Pero mal. Porque Symbian no gestionaba igual que Windows Mobile. Los eventos de pantalla. No funcionaba bien. No funcionaba. Nos quedamos en el 2009. iPhone 3GS. Aparece VoiceOver. Aparecen los gestos de Flick. Cambia todo el concepto. De cómo una persona ciega. Utiliza el lector de pantalla a través de una pantalla táctil. ¿Qué pasa? Que todos los demás. Bada, Android. El propio Tizen para dispositivos móviles. Los lector de pantalla. O intentos de lector de pantalla. Que hubo para esas plataformas. Imitan a VoiceOver. Mejor o peor. Lo hemos superado. Y hasta hoy en día. Que incluso los ordenadores de escritorio. Y ordenadores portátiles. Con pantallas táctiles. O TrapPads. Imitan o adoptan los gestos. De TopBack. Que es el lector de pantalla oficial para Android. O de VoiceOver. Que es el lector de pantalla para iPhone. Los adaptan para que podamos utilizar. Un ordenador de escritorio o portátil. Utilizando los mismos gestos que el lector de pantalla. Del teléfono móvil. Que esperan a los lectores de pantalla. Pues el futuro de los lectores de pantalla. Es muy esperanzador. Porque desde el 2014-2015. Hubo un estancamiento. No había. Los que habían llegado al máximo. Como eran. Jaws. Fue NVDA. Fue VoiceOver. No había nada nuevo. Y entonces. Se empezó a ver. El crecimiento. Del potencial. De la inteligencia artificial. Ya en el 2018-2019. Empezaron tímidamente. A incorporar funciones. De inteligencia artificial. Para recorrer más rápidamente. El árbol de objetos. Y la API de accesibilidad. Esa información. Para ordenarla. El load screen model. Utilizaba inteligencia artificial. No lo que vemos ahora. De chal GPT. Sino procesos de deep learning. Y aprendizaje profundo. Para hacer optimizaciones. Para que el lector de pantalla. Fuese mejor. Empezaron a meter OCR. En el lector de pantalla. El lector de pantalla empezaba. A beneficiarse de otras tecnologías. Para personas ciegas. E incluso a incorporar tecnologías. Que no son para personas ciegas. Como es el tema de la interpretación. De lenguaje escrito. Para que el lector de pantalla. Entienda si lo que está leyendo. Es un contenido de una página web. O un mensaje de error. Eso lo estamos. Empezando a ver. Cuando aparece una ventana. Emergente en Windows. O Mac. Que incluso cambia. La entonación de la voz. Para darle esa notificación de urgencia. De que haya aparecido. Algo importante. En el lector de pantalla. Ya no sólo utilizan. La síntesis de voz. O el braille únicamente. También han incorporado sonidos. Es bastante habitual. Desde el 2009 para acá. Que tanto NVDA como VoiceOver. Utilicen sonidos. Para aportar más información. De lo que está sucediendo. Y esa evolución. Nos va a llevar también. A utilizar otros elementos. De notificación de información. Como puede ser. Los futuros auriculares con vibración. Que más tarde o más temprano. Tienen que salir. Porque es un canal de información. Que estará ahí pendiente. Y cuál es la gran barrera. De los lectores de pantalla. Que esperemos que no nos pase. Como nos pasó. Cuando pasamos de los teléfonos móviles. De botones a pantallas táctiles. O de los ordenadores de pantalla de texto. A interfaz gráfica. Es la realidad virtual. O realidad aumentada. Ahí el auto screen model. Tiene que dar un salto muy importante. ¿Por qué? Porque actualmente los lectores de pantalla. Solo les interesa saber. Si es arriba, abajo, izquierda, derecha. Si está en una ventana. Si está en un contenedor. O es un elemento padre. Un elemento hijo. Con los entornos virtuales. Es importante si está delante o detrás de ti. Si está arriba, abajo. Si está en primer plano. O hay algo que lo obstaculiza. Hay todo el tema de sonido espacial. Que está investigando mucho Apple. Y la propia Meta. Para sus MetaQuest. Todo el tema de entender. ¿Qué está mirando el usuario? ¿Qué cree estar mirando una persona ciega? Que no tiene ojos funcionales. Toda la interpretación del lenguaje corporal. Porque todo el tema de visores de realidad virtual. Hacen interpretaciones. La interpretación de los gestos que hacemos con los dedos. Con los brazos. Con el cuerpo si nos agachamos. El propio cuello. Pues todo eso van a definir los nuevos métodos de entrada. Para los lectores de pantalla del futuro. Pues mira Jonathan. Si te parece. Y te hacemos una propuesta. En tu mano está aceptarla o no. Dado que hemos tocado este tema tan interesante. Ahora al final. Y de forma tan rápida. ¿Qué te parece si nos emplazamos. Para un futuro episodio. Donde no sólo hablemos de estos componentes. O nuevas tecnologías. Que se incorporan a los lectores. Sino también. De lo que va a suponer la realidad. Aumentada como posible traba. Y por otra parte. Parece ser que se van a imponer. Los interfaces vocales. Dentro de lo que son los agentes de inteligencia artificial. Y eso va a ser también. Una forma de interactuar. Con el lector de pantalla también. Con esos entornos. ¿Qué te parece si hablamos de todo eso? En un futuro episodio. Me parece bien. Es algo que no está en el presente. Estamos hablando que se está fraguando ahora. Va a ser un capítulo de hipótesis. Correcto. Pero hay que tocarlas también. Por lo menos plantearlas. Muy bien. Hacemos un rápido resumen. Contamos un poco lo que hemos ido hablando. A lo largo de este extenso. E interesante episodio. Hemos hablado de la historia. De que es un lector de pantalla. Que es un producto de apoyo. Hemos contado los orígenes. El por qué. Hemos escuchado las vocecicas. De las primeras síntesis. Vocales. Tan curiosas. La evolución de los lectores de pantalla. Su categorización. Su límite. Su dependencia del sistema operativo. Que es un lector de pantalla. Y que no es un lector de pantalla. Y lo que se nos viene encima. Hemos recorrido también. Los lectores de pantalla. En los distintos sistemas operativos. No hemos profundizado mucho. Pero sí que hemos hablado también. De muchos lectores de pantalla. Y su comportamiento específico. En cada uno de ellos. Sus ventajas. Sus inconvenientes. Sus límites. Y bueno. Hemos recorrido también muchos dispositivos. Como son televisores. Como son terminales móviles. Y como también estos lectores. Se comportan en ellos. Ventajas. Inconvenientes. Hemos hablado del pasado. Del presente. Y del futuro. Y del futuro vamos a hablar más. Porque hemos hablado muy poco del futuro. Y parece ser que el futuro sí que se presenta. Muy interesante. Y al mismo tiempo. Pues también. Por definir. Y eso es lo que hablaremos con Jonathan. En un próximo episodio. Mil gracias Jonathan. Un placer. Muchas gracias por estar con nosotros. Una vez más. Y seguiremos escuchándote. Nuestros medios de contacto Ricardo. Pues nuestro correo electrónico es. gafotas arroba cgatos punto es. Y nuestro WhatsApp. Para mensajes de audio o de texto. En el más 34. Pues mil gracias. Una vez más por llegar hasta aquí. Y os emplazamos a un nuevo episodio. Muchísimas gracias. Podéis escribirnos. Podéis criticar todo lo que queráis. Podéis pedirnos cosas. Sugerirnos. Todo lo que queráis. Mil gracias. Y chao. Adiós. Adiós. Así de. A mí bien así, ¿no? No se me escucha. No, no, te escucha bien. A ti se te escucha bien. Vale, pues ahora el hijo de puta del jardinero se ha puesto a... yo qué coño sé que se ha puesto. Bueno, está con la reducción de ruido, entonces creo que no va a entrar nada. Ah, pues eso es lo que ha habido yo, que yo también tengo oído de perro. Se ha puesto justo ahora, Ricardo. Lo que escuchaste antes sería un gas. ¿Y si tengo oído de perro premonitorio? ¿Qué me ibas a preguntar? Mamón, yo os iba a mandar estos que estoy utilizando yo ahora. Mira, ahora yo los envío otra vez. Yo también. No, no, lo que había escuchado es esto, que he tocado el brazo del micrófono. Me ha salido como un sobre láser. Sí, es la que tiene la espada láser, la tienes cargando. Ah, yo siempre la llevo cargada, tonto. Ya, ya, que la fuerza te acompañe, venga. Bueno. ¿Qué? Se oye, se oye el ruido ese, horroroso. El sobre láser, el sobre láser de Johnny. No, no se oye. No es vibración eléctrica, no es vibración por tocar el brazo del... Pues, ¿qué hacemos? Oye, ¿lo estáis oyendo ahora? Es fritura, es fritura. Yo lo oigo. No, ha sido, yo lo he oído un momento, ha ido, le he oído como un sobre láser, como que... Ah, pues, no sé si era mío, pero... A mí ahora me oigo, yo oigo ahora la fritura. ¿Ahora lo oyes también la fritura? Ahora no. Pues no sé, ¿qué hacemos? No, no, si no, si no, es tolerable, pero inquietante, yo estaba oyéndola, pero... No, eh... Yo creo que es subsanable, ¿eh? No, que es una cuestión, pero era por saber dónde se podía estar. Es que yo no, yo escucho de fondo el pitidito ese, pero no lo he hecho cuenta, entonces no sé quién es el culpable. A mí me quedan 30 cuchillos por afilar y no creo ahí que voy a... Cuando acabe de afilarlos, os digo que tengo que comer de algo, ¿vale? Vale, vale. Pero no, yo me refería al otro. Bueno, esperad, vamos a organizarnos un poco, porque si no, solo va a hablar Jonathan. Claro. Si queréis, empezamos con la historia. Mira, mira, mira. ¿Habéis oído? No. Yo lo oigo yo solo, en ocasiones veo muertos. Vamos a tener mucho material para las tomas falsas. Hostia, es hostia la verdad. No me acordaba que Arturo no puedes hablar aquí. A ver, te meten las tomas falsas. Bueno, que sepas que te voy a llevar al abogado. Si te atreves en las tomas falsas. Bueno. Bueno. Puede identificar una escritura a mano alzada. O sea, con un polígrafo, un lápiz o un pincel. No cantando el caro al sol, ¿no? No, simplemente que cada uno... No, por lo de mano alzada. Ya, ya, ya. Es que voy a ignorar... No voy a ignorar el mal humor, pero bueno. A ver, no son muy buenas horas, así que hay que... Bueno, disculpe. Ya, ya. Bueno. Pues... Pues una niña de siete años, que era mi hermana. Porque yo me quedé ciego de forma muy repentina, entonces... No tenía acceso en ese momento a nada y... Digamos que esos tres meses, mientras me actualizaba en tecnología a lo que estaba... Usando a los ciegos, que ya os digo yo que en ese momento los ciegos no estaban muy a la última en tecnología por las limitaciones de los lectores de pantalla. ¿Explotaste a una menor? No, porque como era en familia, no hay explotación de menores que valga. Entonces, además, el dinero que me gasté yo en chuches para ella, ahí quedó. La sobornaste. Desde luego te estás condenando en cada comentario. Pues ahora... Pues... Tiflouin fue un hijo de Virgo, una evolución de Virgo. Y se navegaba... Mejor evolución que hijo, porque llamándose Virgo, ¿no? Sí, dejémoslo en evolución. En Windows... ¿Cómo se llamaba el anterior? Vista. No. A mover. Para mí Windows Vista es como Indiana Jones 4, nunca existió. Vamos a dejarlo ahí. Para mí también, pero creía que era ese el que preguntabas. No, no, no. Windows NT. Word Station NT. Windows NT. Windows NT.
Gafotas, cegatos y sus aparatos #22
Fecha: lunes, 2 de junio de 2025, a las 00:00:00
En este episodio exploramos, de la mano del Comandante Ignacio Nieto, el fascinante mundo de las Operaciones Electromagnéticas, una disciplina clave en la guerra moderna y cada vez más relevante también en el ámbito civil.
Temas destacados:
-Qué son las Operaciones Electromagnéticas y cómo abarcan todo el espectro, desde señales de radar hasta acústica submarina.
-Su aparente invisibilidad… ¿mito o realidad?
-Funciones estratégicas: vigilar, defenderse y atacar dentro del espectro.
-El impacto en el mundo civil: interferencias en GPS, uso militar de tecnologías como Starlink y más.
-Casos reales que marcaron historia: Malvinas, Ucrania, y el dron Sentinel capturado por Irán.
-Tecnología avanzada: drones con reconocimiento facial o sistemas que detectan conversaciones por vibraciones.
-Desafíos presentes y futuros para España y la OTAN ante amenazas emergentes.
Un episodio esencial para entender cómo lo invisible puede marcar la diferencia en la seguridad global y en nuestra vida diaria.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
ARTÍCULOS Y ENTREVISTAS
1. Los anhelos de superioridad en el espectro de los Estados Unidos.
2. La necesidad de un Centro de Operaciones electromagnéticas en las FAS.
3. La capacidad de disuasión estratégica de las operaciones electromagnéticas.
4. Los anhelos de superioridad en el espectro de los Estados Unidos.
5. El papel de las Fuerzas Armadas en la zona gris.
6. La capacidad de disuasión estratégica de las operaciones electromagnéticas.
Instituto de Estudios Estratégicos.
7. Letalidad distribuida. Vuelta a la guerra electrónica
8. Electromagnetic Operations in Gray Zone conflicts.
Joint Air Power Competence Center.
9. El entorno electromagnético y los Global Commons.
10. Navwar. La guerra eficaz del menos poderoso.
Revista General de Marina
11. Las operaciones electromagnéticas.
Revista General de Marina.
12. The electromagnetic environment and the global commons.
Joint Air Power Competence Center.
13. La Guerra Electrónica y el MEWGA.
14. El valor estratégico de las operaciones electromagnéticas.
Sistema LORAN – Sistema de navegación por radio de largo alcance (tecnología obsoleta)
CHAMP – Arma de pulso electromagnético no letal desarrollada por la USAF
Stuxnet – Malware avanzado utilizado para sabotaje industrial.
RQ-170
Sentinel – Drone furtivo de vigilancia de
EE.UU.
Sistema Krasukha – Sistema ruso de guerra electrónica.
TACTAS – Sistema de sonar remolcado (Towed Array Sonar
Proyecto MUNIN – Barcos mercantes autónomos sin tripulación
(proyecto de la UE)
INDRA – Empresa española especializada en defensa, electrónica y sistemas de guerra electrónica.
Ley Patriótica de EE.UU. (Patriot Act)
Informe de London Economics sobre GPS y su impacto económico.
Mando Conjunto del Ciberespacio (MCCE) – EMAD.
Créditos:
Duración: 01:56:07
Descripción detallada del logo de Episodio 22. Operaciones electromagnéticas: dominar lo invisible, una ventaja durante el combate
La imagen es una ilustración en blanco y negro con un estilo que evoca los carteles de propaganda de mediados del siglo XX. En el centro de la imagen, hay un hombre de pie, con una postura firme y decidida. Lleva un uniforme militar que incluye una camisa de manga larga con bolsillos en el pecho, pantalones y botas. El uniforme tiene un diseño clásico y está sombreado para dar una sensación de volumen y textura. El hombre tiene un bigote grueso y lleva gafas de sol redondas, lo que le da un aire de misterio y autoridad. En su cabeza, lleva una gorra con un símbolo de interrogación en el frente, y unos auriculares grandes cubren sus orejas, sugiriendo que está aislado del ruido exterior o que está escuchando algo importante. En sus manos, sostiene un gran imán en forma de herradura, que está orientado hacia la izquierda de la imagen. Del imán emanan líneas curvas que representan ondas magnéticas, indicando que está activo y ejerciendo su fuerza. Estas ondas parecen estar atrayendo varios drones que vuelan alrededor del hombre. Hay al menos cinco drones visibles en la imagen, cada uno con un diseño similar pero en diferentes tamaños y posiciones. Los drones tienen cuatro hélices y cuerpos compactos, y están dibujados en diferentes ángulos, como si estuvieran siendo arrastrados hacia el imán. La disposición de los drones y las líneas de movimiento sugieren que están siendo atraídos con fuerza hacia el hombre y su imán. El fondo de la imagen está lleno de líneas diagonales que irradian desde el centro, creando un efecto dinámico que enfatiza la acción y el movimiento en la escena. La combinación de estos elementos visuales da una sensación de energía y poder, centrada en el personaje y su imán.
Transcripción de Episodio 22. Operaciones electromagnéticas: dominar lo invisible, una ventaja durante el combate
Episodio 22. Operaciones electromagnéticas. Dominar lo invisible, una ventaja durante el combate. Pues tú mismo lo vas a comprobar y los oyentes. Creo que mucho mejor. He recuperado mi micro de origen. Realmente ya funcional. Así que lo que yo pensé que eran unos drivers que iban mal, resultó ser un cable. Un cable del micro, vamos. Del micro a la interfaz de audio. Lo he cambiado y esto ha vuelto a la vida. Fenomenal. Hemos tenido ahí unos días un poco agobiados con el micro, pero bueno, ya volvemos otra vez a la normalidad. Y además que tenemos un tema súper interesante. Sí, vamos a hablar de operaciones electromagnéticas, que dicho así a lo mejor no sabemos lo que es, dentro del entorno militar y civil. Y bueno, vamos a saber si realmente este campo electromagnético o este tipo de operaciones son visibles o invisibles. A priori, pensamos que son invisibles, pero ¿serán visibles? Eso nos lo va a tener que decir nuestro experto. Bueno, pues vamos a hablar de las operaciones electromagnéticas. Esto que en principio parece un tema así un poco árido, un poco complicado. Puede asustar en estos términos. Pero para ello tenemos hoy un invitado muy interesante. Tenemos el comandante capitán de navío Ignacio Neto. Muy buenas, ¿cómo estás? Buenas tardes. Bueno, muchas gracias por invitarme y espero que el tema no sea tan áspero. Espero hacerlo a tránsito. Muy bien. Bienvenido, comandante. Yo espero también que nos aclares todo esto porque realmente a estas alturas no sabemos si el espectro electromagnético dentro de lo que es el área que tú te ocupas es visible o es invisible. Entonces, pues bueno, a ver si entre otras cosas conseguimos hoy desvelar esto. Y bienvenido. Muchas gracias. Tres frikis y sobre todo Ignacio que tiene una gran pasión por este tema. Pues yo creo que podremos transmitir algo interesante. Si te parece, para empezar por el principio, cuéntanos qué es esto de las operaciones electromagnéticas. Las operaciones electromagnéticas la verdad es que son las herederas de la guerra electrónica. Guerra electrónica es un término que no es muy bien percibido por sociedades occidentales sobre todo porque lleva la palabra guerra. Y además porque todo lo asociado con la electrónica o lo electrónico, que tiene dos vertientes, pues es áspero de entender. Y además hay otro componente que también que se ha dejado mucho en desuso, que es la magnética y que es relevante, por ejemplo, para los submarinos nucleares rusos. Se detecta muchas veces por la variación del magnetismo. Total que nacieron las operaciones electromagnéticas. Centrada en el uso del espectro. Y así como la guerra electrónica estaba circunscrita en unas determinadas parcelas del espectro, las operaciones electromagnéticas no, de tal forma que se encargan de todo el espectro. Incluso, por ejemplo, en Rusia abordan también la acústica submarina. Es decir, que las operaciones electromagnéticas, o ellos todavía no han hecho esa transición, pues abordan también del espectro. la acústica submarina es decir que las operaciones? electromagnéticas o ellos todavía no han hecho esa transición, pues agordan también del espectro. Desde la Guerra Electrónica a la Guerra Acústica. Nosotros la tenemos separada y solo entendemos el espectro de otra maléfica o lo que es el éter, pero también se podría considerar el agua, el océano o la mar. Y para decirlo de forma clara y resumida y que todo el mundo lo entienda, se encargan de todo aquello que pulula por el espectro o que viaja por el espectro. Por el espectro viajan muchísimas señales, luego ya hablaremos más en detalle, pero con todo lo que ocurre en el espectro se pueden hacer siempre tres cosas. Se puede comprender lo que ocurre, se puede atacar a las señales que te dan cierta comprensión de lo que está ocurriendo y se puede detener. Se puede defender. Los militares somos bastante básicos a la hora de ejecutar nuestra misión y lo hacemos así en todos los dominios. En el dominio aéreo también tenemos esos tres pilares. Comprender, defender y atacar. Entonces, eso es lo que hacen las operaciones electromagnéticas. Sí, Ignacio. ¿El espectro concretamente es el campo, el medio donde se mueven las ondas electromagnéticas? Sí, Ignacio. El espectro concretamente es el campo, el medio donde se mueven las ondas electromagnéticas. Correcto. Bueno, las ondas electromagnéticas o cualquier tipo de vibración que ocurra en el espectro, por ejemplo, una fulguración solar y ahora tenemos el caso muy reciente del apagón de España, pues una de las líneas de investigación fue o pudo ser una fulguración solar que produce una variación del campo magnético. Pues una de las líneas de investigación fue o pudo ser una variación del campo magnético. Nada tiene que ver. Aunque, como sabemos, el magnetismo y la señal electrónica van sobre un mismo canal, desfasadas. Pero bueno, esto fue una línea de acción. Y para que veáis, los Estados Unidos tienen declarado como una de las amenazas más fuertes el sol. Porque una fulguración sí que deja, puede hacer caer un condensador. O sea, que si todo lo que esté en el espectro, en el éter, pues es susceptible de ser usado por las operaciones electromagnéticas. ¿Y cuál es el concepto de lo que hemos comentado de vigilar, defender, atacar y que se cruza o cuál es la intercesión con el mundo civil? Claro. Bueno, este es un punto extraordinariamente interesante. Y ahora yo creo que lo entenderéis. Porque... Ahora mismo, como son los conflictos actuales, pues a nadie se le ocurre plantear, por ejemplo, un combate convencional a las unidades de la OTAN o a Estados Unidos. Por un simple cálculo de la inversión en defensa, Estados Unidos ha pasado los 900.000 millones de dólares y un país que todos identificamos como amenaza, Rusia, pues tiene 60.000. Inversión en defensa. Con lo cual... Ha sido así durante 20, 25 años de forma sostenida. Esto, claro, da una superioridad al efecto convencional. La OTAN, pues también, ¿no? El 80 y pico por ciento de presupuesto de defensa lo gastan países de la OTAN. Con lo cual, a nadie, en su sano juicio, le apetecería un combate convencional contra unidades occidentales o pertenecientes a la OTAN. Sin embargo, lo que ellos buscan, ¿no? Es hacer... buscan el ratio de mayor eficacia a la hora de hacer daño a las sociedades, ¿no? Y, por otra parte, no arriesgarse mucho, ¿no? Porque siempre está el artículo 5 de la OTAN, que ya hablaremos luego. Y para eso han encontrado el espectro, ¿no? Los militares, nosotros, o la seguridad nacional, se basa en tres pilares. La seguridad pública, que es lo que vosotros entendéis como fuerzas y cuerpos de gobierno del Estado. La acción exterior, que la soporta el Ministerio de Seguridad Social. Los asuntos exteriores. Y la defensa, que la soporta el Ministerio de Defensa. Y la clave de todo eso, del sistema de seguridad nacional, es cómo se entrelazan esos tres ministerios. Es decir, cómo en ocasiones, si así lo establece el gobierno, pues, se puede apoyar a la sociedad civil con capacidades militares. Lo digo porque gran parte de esa amenaza que yo desvelaba, que puede ejercer la Federación rusa contra España, pues está adscrita en el sistema de seguridad nacional. Y también está adscrita al mundo civil. Por ejemplo, unos drones contra la central nuclear. Por ejemplo, un ataque, una perturbación o denegación de servicio del GPS. Hay muchísimo corolario de acciones que son muy fáciles de llevar. Y que debilitarían mucho la seguridad del país. Y ante eso, hay que establecer unos mecanismos de cooperación entre las dos áreas. Porque esas mismas capacidades aparecen en los conflictos y ahora se utilizan contra el personal civil. Unos maestros de esto, que lo sufren diariamente, son todos los países nórdicos y bálticos. Ellos sí que tienen una penetración de las capacidades militares o una permeabilidad en uso, para su uso por parte de la sociedad civil. De hecho, este tipo de ataques, de rupturas... En Rusia ya se han llevado a cabo, ¿no? En Finlandia y demás. Sí. La verdad es que hay una cosa muy clara. Porque ahora mismo los conflictos antes se circunscribían sólo al ámbito militar. Con independencia de que luego las víctimas fueran militares o civiles. Pero se empleaban masivamente capacidades militares. El conflicto de Ucrania, por ejemplo. Dos capacidades que realmente estaban a la vanguardia del conflicto. La capacidad de Starlink, por ejemplo. O la capacidad que le han proporcionado los stakeholders de ciber. Google, las grandes compañías. Han sido las que le han dado un nivel de protección a las fuerzas de Ucrania tremendo. O sea, casi más que las propias capacidades militares. Ahora mismo, uno de los grandes retos de la OTAN es cómo conseguir poder utilizar y poder defender capacidades civiles desplegadas en la zona de operaciones. Y con respecto a lo que dices de Finlandia. Bueno, Finlandia. Todo esto cogió mucha fuerza en el 18. En los ejercicios de la OTAN. Los rusos hicieron bastante perturbación a los aeropuertos. Y al GPS. Y GSM. Y se vio la debilidad de la sociedad civil. Que no está preparada. Para que, por ejemplo, el sistema GPS. Que es un sistema muy frágil y muy débil. Pues se le perturbe. Se ha construido toda una arquitectura para soportar el estado de bienestar. Sobre una base muy débil. Que es el sistema de posicionamiento global de Estados Unidos. El GPS. Has dicho algo que resulta interesante. Dices que en los nuevos conflictos bélicos. Aparte de todo el armamento militar. Que se pone en escena. También han sido disruptores las colaboraciones de empresas civiles. Como puede ser Starlink. De Elon Musk. Y otras. Europa. Tiene también este tipo de industria. De apoyo. A las fuerzas armadas. O para cualquier conflicto. Que pueda surgir. Como lo tiene Norteamérica. Que parece ser. Que tanto en la exploración espacial. Como en los temas de industria militar. Y todo esto. Es decir. La impronta civil tiene un peso bastante importante. Bueno. Las sociedades europeas occidentales. Entienden la seguridad. De forma diferente. A como la entiende Estados Unidos. En su concepción. Primigenia. O sea que. No es bueno comparar. Una sociedad como. Estados Unidos. O una sociedad como. Europa. En Europa. Pues tenemos una. Fragmentación de la industria de defensa. Que hace. Muy difícil. Ser eficientes. A la hora de proporcionar. Capacidades militares. Y por otra parte. Muchos países de Europa. Pues tampoco. Ven con buenos ojos. Una convivencia. Cívico militar. O por supuesto. Por ejemplo. Poner capacidades civiles. Bajo. Mandato. Del instrumento de poder militar. Que no olvidemos que se utiliza. Bajo la dirección. Del nivel político. Estados Unidos es diferente. Estados Unidos tiene una industria de defensa. Que soporta su estado de bienestar. Ellos tienen claro. Que. A través de defensa. Ellos. Son más ricos. Y por lo tanto. Apoyan más. El estado de bienestar. Tienen una lógica. Más. Inversión en defensa. Pues es mejor. Para el país. Y luego. Tiene una visión. Un poco. Apocalíptica. Y mesiánica. De que son los que. Tienen que. Salvar el mundo. Eso. Se ha ido. A partir de Obama. Se ha ido debilitando. Los primos. Sí. Siguen considerándose. No digo yo. El árbitro. Porque el árbitro. Intenta ser. Un poco imparcial. Y ellos. Claramente. Son parciales. Pero sí. El pastor. Que cuando. Te vas. Del rebaño. Pues te. Te. Golpean. Ellos. Han construido. Esa sociedad. No. Y. No olvidemos. Que hay elementos. Aquí. Como el Patriot Act. El Patriot Act. El acto patriótico. O lo que pasó. En Guantánamo. No. Es decir. Que son una sociedad. Que. No ve. Con muy malos ojos. La aplicación. De la violencia. Que es. La piedra. Angular. De la utilización. Del instrumento militar. Es decir. Que ellos. Sí. Que entienden. Que puedan. Utilizar. El instrumento militar. No. Y por tanto. Sí. Que entienden. Que. Una. Industria. Civil. Pues. Por supuesto. Debe de apoyar. Los objetivos estratégicos. Del país. De todas formas. Elon Musk. Varias veces. Se volvió. Bastante disco. De hecho. Cuando entraron en Belgorod. No tenía claro. El Ministerio de Defensa de Estados Unidos. Qué es. Lo que iba a hacer. Con Starlink. Recordemos. Que Starlink. No es como GPS. O sea. Starlink. Sí que te permite. Delimitar. Con decenas de kilómetros. La señal de posicionamiento. A quién se la vas a dar. Y a quién no. Es cuando las fuerzas ucranianas. Entraron en Rusia. En ese momento. Elon Musk. Les dejó. De proporcionar. La señal. Con lo cual. Se quedaron. Ciegas. Y no fueron tan eficaces. En su avance. Ahí. Estados Unidos. No tenía tan claro. Qué iba a hacer. En Elon Musk. Pero. De todas formas. Ellos son bastante. Contundentes. Y. Yo diría. Violentos. Contra. Alguien. Que vaya. En contra. De sus intereses. Estrategicos. Está clarísimo. Hombre. Lo que ocurre. Es que. Tienen. Cierta. Lógica. En tener. Este comportamiento. No estoy yo. Aquí. No sé. Cómo se comportó. Alemania. En la. Segunda. Guerra. Mundial. Pero. Si os dais cuenta. O por lo menos. Yo lo veo. Así. El tener. Esa. Ese tipo. De. Funcionamiento. Conjunto. Con la. Sociedad. Civil. Es muy interesante. Porque. En el momento. Más grave. Del conflicto. Bélico. Y cuando hay una. Exigencia. Una llamada. A la guerra. No. De tu país. Si. Todo. La sociedad civil. Se pone a disposición. De apoyar. Ese conflicto. Entonces. Si está más entrenada. Es mucho mejor. Lógicamente. Si nosotros. Nos basamos. En otro tipo de. Preceptos. Y queremos. Diferenciar. Todo esto. Bien. Particularmente. Parece ser. Que somos. Un poco más. Más débiles. En ese sentido. Es decir. No. Nos costaría. Reaccionar. No. En el momento. Que tuviéramos. Que poner. A toda la sociedad. Civil. En marcha. Porque va. Hace como. Un camino. Al margen. Pero bueno. Es una visión. Muy muy. Particular. Mía. No sé. Yo. Bueno. Cada uno. Entiende. Su seguridad. De forma. Diferente. Eso es. La complejidad. Que reside. En las organizaciones. Internacionales. Como. La Unión Europea. O como. La OTAN. La verdad. Es que. Es. Muy difícil. Llegar. A un consenso. Sobre. Cuestiones avanzadas. En materia. De defensa. Cuando tienes. Que aplicar. La valianza. Ahora mismo. Los suecos. Por ejemplo. O los polacos. Claro. Tienen una visión. Completamente. Diferente. Es decir. Que. El polaco. Ha sufrido. La inversión. Rusa. Y está. Convencido. De que va a tener. Otra invasión. Es decir. Supongo. Que una persona. Mi suegro. Pues. Nació. En. La Polonia. Alemana. Supongo. Que esa persona. Si. Ahora. En la actualidad. Pues. Supongo. No. Que lo garantizo. Pues. No. A. Que es. Tal. Como. Sí. Pero. Es que. Es que. Una. No. Con. Son. El. Ejército. Y. Creo. Mucho. ...de ocurrir lo que le ha pasado a Ucrania. O cualquier otra cosa. O sea, que después de la segunda armonía, o aquel mundo de Berlín, que se creía que las fronteras ya nunca iban a cambiar, pues resulta que sí, pueden cambiar. Para ponernos un poco también en contexto, ¿cómo te dio Ignacio por estos temas? ¿Y qué pasó en las Malvinas para que, de repente, te diera por todo esto? Me dio porque, la verdad es que cuando ocurre un conflicto, ¿no? Se extraen consecuencias. Hacías las lecciones aprendidas realmente curiosas, ¿no? El conflicto de Malvinas, el conflicto entre Argentina y Reino Unido, ¿no? Dejó unas lecciones aprendidas, ¿no? Porque tú puedes entrenarte muchísimo. Al final, nosotros en Mitreades decimos que ningún plan soporta el primer minuto del combate. Y es así, ¿no? Y ahí en Malvinas se demostró algo que ya se venía diciendo, ¿no? ... La importancia de controlar el espectro electromagnético. En este caso era la importancia de defenderse ante un misil Exocet básico, un MM40, que es muy básico, que tenían los aviones Super Etendard argentinos. Y cómo atacaban a los barcos. En este caso hablábamos que de los tres pilares hay uno que es defender. Bueno, en la Granada de las Malvinas, todos los barcos que lanzaron Chaffetz... Chaffetz es una nube de laminillas que dan un eco radar similar a un barco. El misil se engancha... ese misil se engancha sobre el eco más grande. Entonces, cuando lanzaban los misiles, los argentinos, que hacían un vuelo bajo, subían y cuando detectaban la flota, tiraban los misiles y se volvían. Porque si no, les veían los ingleses y los derribaban. Entonces lanzaban el misil al tuntún. El misil navegaba y entonces abría la cabeza que se llama Seeker, que es el buscador, que es un radar. Y intentaba buscar al primero que encontrara. Si encontraba un barco que había lanzado Chaff, el misil se iba sobre el Chaff. Y aquel que no lanzaba Chaff, por ejemplo Sheffield, que no lanzó Chaff por las cuestiones que fue. Pues se hundió, no le dio el misil. Lo digo que ahí se dio visibilidad de que una fuerza aérea muy inferior era capaz de hundir barcos. Y de que un sistema bien entrenado, que podría parecer un poco rudimentario, como lanzar una bengala IR o esas laminillas, pues era muy efectivo. También se comprobaron las decepciones. Una decepción de comunicaciones es muy difícil de contrarrestar. No es tan sencillo. Es difícil. En esa época había muy pocos circuitos cifrados. O sea que, básicamente, el que tuvo quizás el protagonismo mayor fue el espectro electromagnético y la incapacidad de la Fuerza Naval del Reino Unido de ganar ese combate. Luego, claro, se dieron otras circunstancias, como la Babel Sound que crearon. En fin, era imposible. Pero había una franca superioridad que al final quedó disminuida por ser incapaz de controlar el espectro y de detectar esos aviones. Y contrarrestar esa amenaza. De ahí me vino mi pasión en guerra electrónica. Para un marino la guerra electrónica es capital porque el barco vive del espectro. Detecta el espectro. Se comunica a través del espectro. Para un marino todo es el espectro. No tenemos un cable. Bueno, el cable ya hablaremos, pero el cable también es espectro. Pero bueno, no tenemos un cable para enchufarnos a tierra. O sea que todo para nosotros es el espectro. Somos detectados a través del espectro. Por firma infrarroja, por firma magnética, por radárica, por interceptación de algunas comunicaciones... Por sonórica también. Sí. O sea que... y sonido también en el éter. O sea que... en fin. Luego ya hablaremos de lo que yo llamo la gran oreja. Porque puedes escuchar por encima del nivel ruido y también por debajo. Si sabes bien la frecuencia de resonancia. Ejemplo que me ponías tú antes. Hay gente que tiene más sensibilidad y es capaz de escuchar otras cosas que las personas normales no escuchamos. Cuando hablábamos de colocalización. Claro. Algo que para ti te parece imposible. Al final la gente se cree que más potencia implica más alcance. Bueno, la potencia es un cuarto de la distancia. O sea que realmente... Porque inviertes en potencia no consigues nada. Por mucho que le pegues más pildonazo de energía no consigues nada. Consigues con la sensibilidad de la recepción. Es decir, la antena de... de... Adhesivo de... Ahí en Centroamérica. En Puerto Rico. Pues es capaz de escuchar ruidos que llegan... Son despreciables. O sea, realmente no existen. Pero lo detectan. Luego hablaremos de la escena de GPS que también es un caso genial. ¿No? Eso es lo que hay que comprender. O sea que es mejor siempre apostar por la sensibilidad. Y eso me llevó a una fascinación por la guerra electrónica. Y ahora... La OTAN ya se dio cuenta en el 2007. Pero ahora es capital porque... No sólo para la ejecución de operaciones militares sino que nuestra debilidad... Nuestra debilidad fundamental en algo que luego hablaremos que es la zona gris... Son ciber, información y guerra electrónica. Esa es... Esa es la debilidad... Fuerte de las sociedades occidentales contra países revisionistas. Porque ellos tienen más... Trabajado y han profundizado más en todo este tipo de... Instrumentos. Sí, porque... Cuando... Cuando llegó en el 2000 Vladimir Putin al poder... Pues se dio cuenta que tenía unas fuerzas armadas... Bueno, pues como las tenía... Rusia acababa de... Colapsar, ¿no? Entonces tenían fuerzas armadas... Chechenia, por ejemplo. Un desastre. Incapaces de... Hacer prácticamente nada, ¿no? Tenía una buena fuerza aérea y una buena fuerza submarina. Eso siempre lo ha mantenido, ¿no? Pero tenía un presupuesto de defensa ridículo. Incapaz de sacar adelante. Pero se dio cuenta que... Invirtiendo en la guerra electrónica... Podía cerrar ese cap tremendo que había entre las capacidades convencionales... Y las capacidades... Las capacidades convencionales de occidente y las suyas, ¿no? Me refiero que hay un vídeo... En internet del... 2011 que habla... Esto es antiguo ya, ¿no? Que habla... El general americano jefe de... De los marines, ¿no? Y dice... En Siria es imposible utilizar nuestras capacidades... Debido al nivel de perturbación... Que tienen los rusos, ¿no? Es decir... Una perturbación es bastante sencillo de realizar, ¿no? O sea que... Los rusos se dieron cuenta... Y así ha pasado en Ucrania... Que si tú inviertes en guerra electrónica... No es muy caro... Es relativamente barato, ¿no? Y en cambio... Inhibes... El... Uso del instrumento de militar... Por parte de los países... Occidentales... Incluso... Con una... Estupidez... Como es... La perturbación de GPS... Estupidez digo... Porque la puede hacer cualquier ciudad... Pues se consiguen efectos... Realmente curiosos... Realmente curiosos... Y hacen que... El instrumento de poder militar occidental... Le cueste... Mucho trabajo... Codificar eso... Tan curioso... Es como que... Casi los invalida... Es decir... Todo lo que te ha costado... Esos... Esa sensorización... Esa capacidad... De ubicación... De detección... Claro... Todo eso... Eso queda fuera... No... No te distingue nada... Claro... De lo que has hecho... Hay un informe... Que... De London Economics... Que causó bastante... No sé... Perplejidad... ¿No? Que es un informe... Que lanzó esta compañía... En... Reino Unido... Que hablaba... De lo que se pierde... Por cinco días de... Inhabilitación del GPS... ¿No? En la industria marítima... Se pierden mil cuatrocientos... Millones de dólares... ¿No? De libras... Pero... Ese informe es público... ¿No? Y también... De los Estados Unidos... O sea que... Realmente... El señor Putin... Sabe que si hace eso... Es muy difícil... Defenderte... Contra eso... Es decir... Contra una perturbación... De GPS... ¿No? Es muy difícil... Es realmente difícil... Luego... Ya hablaremos... Y lo comprendes... Muy fácilmente... Pero... Es difícil... Defenderse... ¿No? Y... Contra cualquier cosa... Que amenace... La sociedad civil... Que normalmente... No construye... Capacidades... Ruggerizadas... Es... Es muy difícil... Porque son muy caras... Claro... O sea que... La ruggerización... Y la redundancia... De sistemas... Es muy cara... Y si no tienes amenazas... Pues... No tienes por qué hacerlo... A baratas costes... Y... Ya está... ¿Qué es ruggerización? La ruggerización... Es... Hacer el sistema... Más robusto... Es decir... O más resiliente... Es decir que... El Galileo... Por ejemplo... Pues... Tiene unas... Tasas de resiliencia... De soporte... De una perturbación... Mucho más... Que el GPS... El Galileo... Es el sistema... De posicionamiento... Global... De la... De la... Europea... Después de caerse... Una semana... Completa... Ya... Sí... Sí... Sí... Bueno... La cuestión es que... Si tú... Por ejemplo... Si... Si tú estuvieras... Cerca de los... De los rusos... O si tú sintieras... Una amenaza... Sobre tu sistema eléctrico... Seguramente... Decidirías... Eh... Poner sistemas... Que lo hicieran... Más robusto... Que fuera... Bueno... Esto en los desarrollos... Profesionales... Lo sabéis perfectamente... Se estudia... ¿No? Y se... Y al final... Se suele decidir... Por lo que se llama... El riesgo... ¿No? Un balance... De... De amenaza... Y... Probabilidad... Y sueles decidir... No hacer nada... La cuestión es que ahora... Eh... Pues Rusia se ha dado cuenta... Que utilizando... Rusia... Y todos aquellos países... Revisionistas... Es decir... No olvidemos que... Eh... Lo que ha conseguido Rusia... Es que todos miren... Lo que... Cómo él utiliza... El espectro electromagnético... De tal forma que ya... Eh... Se convierte... Eh... Porque es muy barato... ¿No? En una herramienta... Que puede utilizar... Casi todo el mundo... En la guerra... Eh... De... Nábaro Karayá... Eh... Pues se vio... Que el uso... Masivo de... De uvas civiles... ¿No? De... Drones civiles... Pues era... Determinante... Para... Y nadie... Bueno nadie... No me dice que a él... Se lo esperaba... Pero un uso tan... Profundo... Y... Profuso... Del uso de UAVs... No era algo... Y hay que darse cuenta... Que un UAV... El 98... El 99%... De las frecuencias... De los drones... Gracias a la gestión de espectro... Pues... Es la misma frecuencia... Y casi todos... Vienen de la misma madre... Que China... Es decir... Con una perturbación... De esa frecuencia... En Ucrania... Se tiran... Más de 10.000... Drones... Al mes... Eh... Y se tiran... Por guerra electrónica... Es decir... Que las frecuencias de control... Eh... Es la misma frecuencia... Si inhibes esa frecuencia... Si la perturbas... El dron se cae... O... O... Intenta orbitar... ¿No?... Eh... Pero al final... Termina cayéndose... Si no sabe... Dónde tiene su referencia... Pues el dron se cae... ¿No?... Si lo desorientas... Y ya no sirve para nada... Lo desorientas... Si combinas eso... Con perturbación de GPS... Eh... Por eso los rusos... Han creado... El dron filo guiado... Ha creado... No... Han apostado por el dron filo guiado... Porque cuando tú perturbas... Al adversario... Te perturbas a ti... Claro... No hay un sistema que diga... No... Entonces... Son los drones esos... Los operadores... ¿No?... Y los ven... Eso es que sale... Bueno... Internet está lleno de vídeos... Son drones filo guiados... Que son... Eh... Claro... Muy... Eh... Robustos... O sea... Eso es no... Las perturbaciones... No... Y... Y son un cable que es... Muy largo... Son... Eh... Kilómetros de cable... O sea que... Eso ha sido uno de los grandes aciertos de... De... Rusia... Eh... Contra Ucrania... Pregunta de ingenuo... No... En el sistema eléctrico hemos... Visto que... Una radio... A pilas... Como las antiguas... Decimos... ¿No?... Es así... O... Un hornillo... De gas... O... Un hornillo de carbón... O... Todo lo que no estaba implicado con el... Sistema eléctrico... No se ha venido muy bien... Eh... Por lo que tú ahora comentas, la perturbación... Lógicamente... Del espectro... Eh... Inutiliza los... ...de los instrumentos del atacado, pero también del que ataca. Es decir, ¿dentro de la industria del armamento y de este tipo de instrumentos se están generando algún tipo de armas e instrumentos a la vieja usanza que no les afecte el espectro? Bueno, claro que sí. Y algunos parecen extraordinariamente ridículos. Vosotros no sé si lo conocéis, pero el Loran era un sistema de posicionamiento que ya no se utilizaba cuando entré en las Fuerzas Armadas. Es decir, que en el 89 cuando yo entré, pues había un sistema de posicionamiento que se llamaba Loran. Pues cuando empezó a ocurrir todo esto, de las perturbaciones del sistema de posicionamiento global, se intentó recuperar esos sistemas. Pero la protección contra esto es dual. Es decir, existen ya... Existen ya sistemas, ¿no? Por ejemplo, en el caso de los posicionamientos, ¿no? Existen sistemas ya bastante fiables, ¿no? Que te garantizan un posicionamiento, ¿no? De días con un error de metros. O sea, a los dos días tienes un error de un par de metros. O sea, que ya se está trabajando en sistemas... La tecnología ya te ofrece giroscopos atómicos y muchos sistemas que funcionan muy bien. Y aparte, se ha vuelto también, ¿es verdad? A sistemas clásicos. Yo he puesto el ejemplo de los drones filogueados que estaban abandonados. Nadie se podía imaginar hacer un dron filogueado con un cable y ahora ha vuelto. Y es verdad que mucha dependencia del espectro te hace muy débil, ¿no? Pero también es verdad que es muy difícil saber dónde te va a venir al país, ¿no? ¿Dónde le va a venir? ¿Por dónde le va a venir? ¿Dónde le va a venir la amenaza? Sobre todo un país, la estrategia se dice que eres prisionero de tu geografía. Si miras dónde está España y cuáles son las amenazas del mundo occidental, ¿no? Pues a lo mejor vivimos en una pequeña burbuja de seguridad en este área, ¿no? En el área... o parece que vivimos en una burbuja de seguridad en el área de una potencial amenaza electromagnética o incluso una potencial agresión a nuestro territorio nacional. Y has participado en programas formativos, ¿no? De la OTAN, liderando posteriormente, pues, la creación del primer curso oficial de las operaciones electromagnéticas en España. ¿En qué situación estamos tanto en España como en la OTAN? ¿En qué nivel estamos? Bueno, es verdad que yo entré en la Art School de Open Macao en 16. Y ahí recuerdo que en la Syndicate Room, en una habitación, pues nos reunimos tres personas. Malte, Eric Bamford y John. Y diseñamos un poquito todo esto, ¿no? Nos llevó bastante tiempo, ¿no? Pero al final no éramos noveles a la hora de diseñarlos porque ya la OTAN había dado varias directrices en operaciones electromagnéticas. Ya lo había hecho en el 2007 y en el 2009. Entonces creamos el primer curso de operaciones electromagnéticas y yo también daba clase de gara electrónica. En concreto, daba tres cursos de gara electrónica, tres iteraciones al año, ¿no? Y luego sacamos este curso y luego hicimos otros asociados con gara electrónica, como supresión de defensas aéreas enemigas y otras cuestiones, ¿no? ¿España cómo está? Bueno, España siempre ha estado bastante bien posicionada en gara electrónica. Es decir, nosotros... ahora ya no está tan bien, pero volverá a ser puntero, ¿no? El Ejeto del Aire era puntero. Era uno de los pocos países que tenía capacidad de hacer supresión de defensas aéreas enemigas o hacer perturbación, ¿no? Y también teníamos bastante capacidad de obtener señales o de capturar señales de espectro. La Armada siempre ha tenido, gracias a Indra, unos equipos de gara electrónica bastante buenos. Y Tierra, pues ha avanzado muchísimo en los últimos años, ¿no? En adquisición de capacidades. O sea que somos un país... yo no voy a decir... no sé muy bien si estamos... a la vanguardia o no, pero dentro de la OTAN somos un país bastante respetado en gara electrónica, ¿no? A la NATO School, a mis cursos, yo creo que éramos el tercer país que más nutría cursos de gara electrónica. Tenemos unidades bastante avanzadas en gara electrónica dentro de Europa. O sea, y Indra, yo tengo que decir que es un buen operador de... de gara electrónica, ¿no? Creo que es un... una industria, una compañía ejemplar. Para bien o para mal, yo creo que la gara electrónica es invisible y es totalmente transversal. Tierra, mar y aire, ¿no? Eso no sé si es bueno o malo a la hora de articularlo. Y de... pues en la práctica tiene que ser más complicado, ¿no? Claro. La cuestión es que... y ahora hablábamos de por qué es tan eficaz, ¿no? La gara electrónica, ¿no? La gara electrónica o las operaciones electromagnéticas no son visibles al ojo humano. Nosotros los militares hacemos uso de la violencia bajo unos determinados preceptos y uno de ellos es tener claro que realmente te han atacado y quién te ha atacado. Claro. Y eso lo hacemos en el terreno visible, es decir, he visto que ese barco me ha lanzado un misil, lo he visto yo. O lo he visto con los prismáticos. Por ejemplo, en guerra antisubmarina, para lanzar un torpedo sobre un CERSAB, sobre un submarino incierto, lo tenía que ver un operador experimentado. ¿Qué pasa? Que la gravedad atónica no es visible. Entonces, ya tienes que depender de un equipo de gravedad atónica cómo interpreta lo que está recibiendo. Al final, es curioso que diga esto aquí, somos muy dependientes de lo que vemos en el instrumento militar. Y cuando no lo vemos, entonces nos cuesta trabajo utilizar la violencia. Nos cuesta mucho trabajo. En cambio, esto es un factor de ventaja para los países revisionistas, porque pueden utilizar, por ejemplo, un rayo láser, que es muy eficaz. Y hace mucho daño, igual que un obuso o un proyectil. Sin embargo, seguramente nosotros no sepamos cómo comportarnos. ¿Y por qué? Porque a nosotros se nos da un corolario de reglas de juego que se llama reglas de enfrentamiento, que son muy estrictas. Es decir, el uso del instrumento militar por parte de los países occidentales es extraordinario y excelso. Es decir, es muy difícil. No se suelen cometer problemas. No se suelen cometer errores cuando estás utilizando el instrumento militar. Eso es porque está soportado por reglas de enfrentamiento muy estrictas. Y que son muy difíciles de materializar en aquellos tres ámbitos que os decía yo. La guerra electrónica, la guerra de la información o la ciberguerra. El ciber es igual. O sea, jamás conseguirás o es muy difícil conseguir lo que nosotros denominamos atribución. Es decir, esto ha sido este país. Eso en ciber no existe. En guerra electrónica es muy difícil que tú al final afirmes esta acción ofensiva ha sido llevado por este. Eso no suele ocurrir. Y en la guerra de la información pues ya entran otros parámetros, ¿no? Pero en los marcos de trabajo en los que trabajamos los occidentales es muy difícil tomar una acción ofensiva. Lo militar con lo civil, ¿no? Cuando Rusia, por ejemplo, intervino pues la señal del GPS en el aeropuerto de Noruega o de Kyrgyzstansk en 2018 u otros muchos ejemplos, ¿no? Pues esto al final puede afectar a civiles y puede haber vidas por medio. Claro, esto es un debate que, como dije antes, las sociedades, sobre todo las del norte, ¿no? Que son las que más amenazadas se encuentran, ¿no? Pues es un debate que siempre... os voy a contar, por ejemplo, un ejemplo que lo entenderéis muy fácilmente. Cuando un país ve que su seguridad está en peligro, lo que hace es llama a los militares y los militares siempre proponen lo mismo, que es militarizar ese dominio. Os hablaba de la bubble zone que crearon en Malvinas. Es decir, una burbuja de 200 metros. Millas, 300 millas, donde ahí no podía entrar nadie. Y si entrabas, pues no. Cuando tú tienes un problema en la mar, lo que haces es lo militarizas. Pues pones barcos y dices, por aquí voy a ejercer el control del mar. Y no va a pasar nadie que no tenga yo perfectamente controlado. Espacio aéreo, pues también, ¿no? Haces un bloqueo aéreo, controlas con fighters, pues todo lo que quieras. En los tres dominios, tierra, mar y aire, nosotros... o el estado siempre hace eso. Pero claro, el espectro siempre hace eso. El espectro realmente es complicado. Porque el espectro está en manos de la sociedad civil. Los noruegos ya han sacado un concepto bastante avanzado que es la militarización del espectro. Es decir, el uso del espectro hay que garantizarlo a la sociedad civil. Porque si la sociedad civil no puede utilizar el espectro, pues realmente colapsan muchos servicios básicos. Con lo cual, tiene que intervenir el ejército para... para garantizar que eso, que todo el espectro, se va a poder utilizar por parte de la sociedad civil. Y eso es un reto muy importante. Por ejemplo, este señor que os decía, Eric Banford, él hablaba sobre el riesgo que se asumía en un campo de fútbol, ¿no? Con todos los teléfonos móviles que hay, ¿no? A la hora de las potenciales señales que se podían mandar, ¿no? De forma perfia, ¿no? Que podían generar alarmas, ¿no? Y al final, un campo de fútbol, si se produce un ataque de pánico, es terrible, ¿no? O sea, se va a morir muchísima gente. Y los teléfonos móviles, pues están plenamente a disposición de cualquier país pérfido que quiera ser. Y entonces ellos proporcionan la protección, la burbuja de seguridad, ¿no? En ese caso, ¿no? Los militares. Es decir, que hay todo un corralar de acciones para garantizar que el espectro lo pueda seguir utilizando la sociedad civil sin ningún problema, ¿no? El desarrollo de capacidades militares tiene un retorno de 1 a 3. Eso hay informes de la Unión Europea, que no creo que sea una organización que se lo pueda acusar de promilitar, ¿no? Y ya hablan. Los informes se llaman... El gasto en... O cómo gastar mejor. Y hablan de eso. 3 a 1. Estados Unidos, yo creo que tiene ese reto también. Un euro inviertes en defensa. Tres obtienes de beneficio la sociedad civil. No olvidemos que Internet y el GPS fueron desarrollados por los militares. Es decir, que es verdad que es caro invertir en defensa, pero luego siempre hay un retorno hacia la sociedad civil. Sobre todo en modelos como los occidentales, ¿no? Donde los desarrolladores... Donde los desarrolladores de capacidades militares siempre están presentes los civiles. O sea que... Que sí. Es curioso porque, aunque no estés en el campo de batalla, dentro de lo que es un ataque, el atacar a la población civil con un arma invisible, como tú decías antes, como puede ser la parte cibernética, o puede ser la parte electromagnética, realmente genera... vamos... No implica porque no puedes demostrar que el atacante ha sido el que ataca a tu país o a tu organización y realmente genera un caos brutal. Es decir, sería un ataque redondo porque para cualquier tipo de estado tener incómoda y pasándolo mal a su población es el peor de los escenarios, ¿no? Entonces es una situación muy delicada. Y al hilo de esto... Bueno, esto es lo que pienso yo, ¿eh? Pero al hilo de esto... El apagón del otro día, entre las hipótesis que se están manejando, ¿podría haber habido un ataque cibernético o electromagnético? Hablo de ataque, ¿no? De erupción solar y nada de esto. Bueno, yo no soy experto en la red eléctrica nacional, ¿no? Pero bueno, la verdad es que ciber está al alcance... O sea, puede alcanzar casi cualquier sistema, ¿no? A través de la red ciber, ¿no? Stuxnet, por ejemplo, fue hace mucho tiempo. Fue en el 2010 o antes, no me acuerdo. Y fue sobre una red independiente. Un ataque ciber sobre una red independiente no conectada a internet a través de un dispositivo de un pendrive. Me refiero a que yo no soy muy experto, pero yo creo que sí. Lo que sí... Te digo es que es más sencillo un ataque electromagnético que un ataque ciber. Es decir, hay un artículo que tengo por ahí publicado que se llama la ciberletalidad del terrorismo. Y bueno, es verdad que a través de ciber puedes hacer muchas cosas, pero es muy complicado hacerlo. Es decir, esto no está al alcance de casi cualquiera. O sea, hay muy pocas naciones que puedan hacer un ataque ciber. Si no, los terroristas lo harían. Eso no hay ninguna pega. Pero sí que está demostrado que ciertas agresiones electromagnéticas son fáciles de llevar a cabo y te dan mucho rédito. Porque es verdad lo que tú dices. Y aquí me gustaría apuntar una cosa. Nosotros tenemos un sistema de seguridad que cuando ocurre una crisis, una crisis es exclusivamente un apartamiento de la normalidad. Cuando se aparta algún sistema de la normalidad, hay un Consejo de Seguridad Nacional y se reúnen los ministros de los diferentes departamentos. Y ellos, y el Ministerio de Defensa también, aportan las capacidades para mitigar los riesgos derivados de esa crisis. O a lo mejor de las amenazas que ya están teniendo lugar. Y los militares ofrecen sus capacidades como los otros ministerios. De ahí que la Directiva de Defensa Nacional habla de que ningún problema de seguridad es exclusivo de defensa y defensa debe participar en todos los problemas asociados a la seguridad. Esos modelos son más robustos y funcionan mejor que los modelos autárquicos de decir vamos a dejar la defensa a un lado y que no participe en nada de esto. Además, son sistemas que... en los segundos, que al final duplicas. Porque, al fin y al cabo, los drones, hay drones militares y drones civiles. Y la protección de los drones tendría que ser única. Tanto en la parte civil como en la parte militar. Es decir, que no tenemos por qué duplicar el sistema de protección del espectro electromagnético en el uso de los drones. Porque entonces gastaremos mucho más dinero. Hay que recordar, por ejemplo, que Amazon, dentro de poco, ya tendrá el sistema implementado de un Zeppelin que reparte paquetes a través de drones. Son drones gobernados por GPS. O un sistema de posicionamiento que tiene sus señales en el espectro. Imaginaros el tremendo desastre que sería inhabilitar ese sistema. Los sistemas civiles están muy poco... Pero el Zeppelin como nave base o nodrita, ¿dónde lanzan los drones? Sí, se aproba en Estados Unidos y funciona. Y además, no hay quien lo pare. O sea, los sistemas autónomos, eso no lo va a parar nadie. Ya hay mercantes grandes de porte importante que ya han hecho navegaciones Londres-Bergen sin dotación. Estoy hablando de sistemas que a lo mejor llevan 400 contenedores. Barcos con 400 contenedores sin ningún tripulante. O sea, que son gobernados completamente a través del espectro. Correcto. Los pioneros fueron los colombianos con 200 kilos de coca dentro de un submarino, ¿no? Sí, sí. Bueno, me refiero a que estos barcos están sujetos a una... Claro, porque aquí, con las nuevas tecnologías, es muy difícil garantizar que siempre va a haber... Lo que tú hablabas antes, vamos a lo tradicional, ¿no? Es muy difícil. Pero este proyecto se llama Mooning, de la Unión Europea. Está ya muy avanzado, ¿no? Al final, la sociedad civil se rige por criterios mercantilistas, por criterios de beneficio. Y, al final, pues es muy beneficioso no tener dotación, ¿no? Porque, al final, los costes se abaratan muchísimo. Pero vuelvo a decir lo mismo. Se abarata muchísimo, pero aparecen muchas vulnerabilidades y mucho riesgo, ¿no? Entonces, las sociedades occidentales enseguida entran en, lo digo con cariño, en histerismo. Enseguida son muy consumidoras de seguridad. Y cuando ven erosionada su seguridad, se ponen muy nerviosas. Y lo que tú decías antes, eso siempre deriva en que el nivel político quiere apaciguar ese... Claro, porque te han puesto el zorro en el gallinero. Se pone la gente muy nerviosa. Es así. Hay otro aspecto que también me gustaría decir, que la guerra en sí, o la crisis, es muy cara. Es tremendamente cara. O sea, que nadie la quiere. Y los militares son los primeros que sentimos desprecia ante la guerra. Porque somos los que más vemos lo que causa la guerra o los conflictos. La operación que más me ha impactado en el mundo fue Somalia. Y la verdad es que es terrible lo que ves. En cambio, sí que había un dicho. No pongo en pie quien lo decía. Pero estaba relacionado con magnates y con la industria, con grandes empresarios, que decían que donde veían los mayores beneficios es cuando escuchaban cañones y no violines. Es decir, que en sí el conflicto bélico, para ciertas élites y cierto círculo de personas en el mundo, también es un negocio. Sí, sí. Está claro. Yo lo decía antes. O sea, la industria de defensa de Estados Unidos es el motor económico. O sea, que está claro que sacan un beneficio pingüe. Nosotros, en cambio, tenemos una industria de defensa mucho más moderada. Bueno, al español no lo critico. No le suele gustar invertir en defensa. Es una perversión tan grande generar conflictos y guerras para dinamizar el mercado de la venta de armas. Es terrible. Es terrible que estemos en una sociedad así. No lo digo por nosotros, por Europa, ni nada de esto. Pero por cualquier país del mundo que realmente haya optado a esta situación. De hecho, por ejemplo, Rusia o Turquía, que ahora es pionera en los drones, el dependoso este pacto allá. Cuando generas un conflicto como Siria o como Ucrania, el avance que tienes en el desarrollo de capacidades militares y su potencial de implementación en la sociedad civil se multiplica por cien. Es decir, que tú puedes inventar un misil y probarlo en el campo y para lo que tú quieras. Que hasta que no lo lleves al combate, no serás capaz de... O sea, la capacidad de evolucionar y de innovar de las fuerzas armadas rusas es tremenda. Es mucho mayor que la sociedad occidental. Porque lo lleva probando tres años, o cinco años, o diez años desde Siria en el 2011. Es decir, es un campo de pruebas extraordinario. Es el mejor campo de pruebas. No olvidemos que hacer pruebas en campos de experimentación es muy caro. En cambio, si lo haces en la realidad, pues bajas. Esto pasaba mucho con los submarinos rusos, que no pasaban las pruebas y tal. Los sacaban a la mar y luego, bueno, se variaban algunos, pero bueno, ya se acababan muchas lecciones y se avanzaba muy rápido. Pero bueno, habían dejado por el camino. Eso en las sociedades occidentales es imposible de comprender. Entonces, su sociedad, su industria de defensa sí que es clara. Es capaz de vender porque evoluciona e innova muy rápido. Mucho más rápido que la nuestra. Eso hace Elon Musk, ¿no? Que lanza los cohetes y prueba a ver si funcionan o no sobre la marcha. Si no ha explotado, pues a lo mejor funciona. Y si no, pues el siguiente lo haremos un poco mejor. Sí. Elon Musk la verdad es que es un paradigma de... Pero le sale a cuenta, ¿eh? Realmente perfecciona al final el sistema. Estremando todo mucho. Entre ellos también el trabajo y la tranquilidad. Y la paz de los propios trabajadores. Pero bueno, al final consigue objetivos y progreso. Sí, sí. Hay que darse cuenta que Starlink, que es un sistema extraordinario. Garantiza una señal permanente con un nivel de resiliencia extraordinario a lo largo de todo el mundo. Y una... Capacidad de... Tiene un lóbulo que es... A los rusos le costó mucho llegar a perturbarlo, ¿no? Pues al final muchos países ya han entrado en negociaciones con Starlink. Para el uso de Starlink. Si tienen que utilizar la capacidad militar. Porque ya os digo yo que no es tan fácil que te garanticen una cobertura de comunicaciones a lo largo de todo el mundo y todo tiempo. Y a ver quién te la garantiza. Porque que tengan capacidad satelital hay muy poquitos países en el mundo, ¿eh? Muy pocos. Esto me recuerda que tuvimos a un compañero colaborador experto hablando de GPS en un otro episodio. Y salió una historia, bueno, concretamente un episodio que ocurrió entre Pakistán y la India. En un conflicto que tuvieron hace muchos años. Y utilizaban GPS y como tenía una posición clara Estados Unidos. ¿A quién tenía que apoyar? A la otra... al otro país en conflicto. Le apagó el GPS y lo dejó fuera de órbita, ¿no? Creo que fue a la India, ¿no? Creo que lo dejó sin GPS. Entonces, bueno, lo que estás comentando es así. Te da una ventaja en este caso competitiva. Competitiva de llegar al conflicto, ¿no? Yo voy a poner un ejemplo de Ucrania. No sé si os acordáis el Azovstal, ¿no? Es la fábrica esta de hierro, ¿no? Que los ucranianos resistieron ahí durante semanas, ¿no? El acoso era una fábrica que yo creo que tenía longitud 14 kilómetros. Era inmensa, como unos túneles muy difíciles. Entonces, claro, la gente decía, ¿cómo pueden resistir estos hombres ahí debajo? Bueno, es que la verdad, los hombres salían, miraban a través del sistema Starlink, ¿no? Y en tiempo real, los americanos le proporcionaban lo que estaban viendo 300 metros más al norte. O sea, realmente, el ruso no veía nada. No veía, por ejemplo, entre una posición y otra, si tiene un muro, pues no lo ve. Pero el ucraniano veía lo que estaba detrás del muro. Entonces, salía del túnel, veía dónde estaban las fuerzas rusas, y entonces utilizaba todas las armas para batir a los blancos que estaba viendo, porque a través de Starlink le daba las imágenes. Era bastante sencillo de hacer. Por eso, estas capacidades que le da Estados Unidos y a la sociedad civil, o Starlink, por eso el ratio está en torno a 3-4-1. Es decir, caen 3-4 soldados rusos por cada ucraniano que cae. Es un ratio inaceptable. Pero bueno, realmente, como el señor Putin tiene desprecio por la vida humana, pues le da igual que hayan caído 800.000 como si caen 1.000 y medio. Por eso se ha convertido en una guerra de atrición. A ver quién pone más carne en la balanza. Rusia es capaz de poner más. Son 144 millones de habitantes. Aquí se daría una situación delicada, ¿no? Es decir, yo soy el que gestiona Starlink y entran dos países, país A y país B, en conflicto. Y ambos me solicitan mi tecnología, porque estamos hablando de que es una venta de tecnología civil a países para uso militar. Y yo tendré que decidir o qué. O se la vendo a los dos. Claro. ¿Puedo hacerlo? Por eso es muy importante comprender la importancia de, como Estado, ¿no? Posicionarse adecuadamente en los intereses de seguridad y defensa incluidos. Es decir, que a la hora de ver que Starlink es una capacidad que es decisoria en los conflictos, nosotros tenemos que mirar nuestra estrategia de seguridad nacional y ver aquellos escenarios en los que Starlink nos podría hacer daño con nuestros potenciales adversarios. Y entablar negociaciones con Starlink y decirle que en todas las negociaciones de capacidades militares esto se hace. Es decir, que... cuando Estados Unidos trae una capacidad militar, ya te pone lo que llamamos los caveats para que no lo puedas utilizar en caso de un conflicto, por ejemplo, con Israel. Si te damos este avión, no lo vas a poder utilizar. Y eso el Estado lo afirma. Son como los traspasos de los futbolistas de un equipo a otro por la temporada, pero no te puedes enfrentar contra mí, ¿no? Eso siempre... y luego además también las capacidades militares, muchas de ellas, por eso es importante tener autonomía. Estrategia en el desarrollo de capacidades. Muchas veces las capacidades ya vienen con algún sistema que ellos son capaces de inhibir su uso o deteriorar su uso. Esto de Estados Unidos es bastante buen anillo. O sea que... Ojo si tú no eres autónomo con lo que compras, ¿no? Por ejemplo, muchas empresas nacionales, pues... estratégicas, pues compran la ciberseguridad a otros países que a lo mejor no es... o la gestión de aeropuertos, los radares tal, a lo mejor no son tan fiables a la hora de que se desarrollara un conflicto, ¿no? Y a lo mejor no te van a apoyar de forma tan clara y visible. Hay un concepto también interesante que es el de letalidad distribuida, ¿no? Que hoy en día se confía en la descentralización precisamente pues para ser menos vulnerables. Sí, este es un concepto que ya lo inventaron otros almirantes americanos. Y es que, claro, al final si tú vas... el concepto de Estados Unidos de fuerza naval, ¿no? Pues es el tradicional que conocéis todos, ¿no? Portallones, fragatas, submarino debajo, no sé qué, la cortina... Bueno, todo esto, en fin. Todo esto al final... Desde el punto de vista electromagnético es como una gran banda sonora, ¿no? Ahí que la oyes desde el otro lado del mundo, ¿no? Y entonces es muy fácil batirla, ¿no? Porque tú acordaros lo que dije yo del argentino, ¿no? O sea, tú puedes hacer unos sistemas súper complicados. Cuando tienes un misil en vuelo y te va uno con dos match, es bastante difícil defenderse de eso, ¿eh? O sea, que un misil roza olas, ¿no? Tiene segundos solo para defenderte, ¿no? Y a ver cómo te puedes defender, ¿no? Entrando en un barco. O sea, que es muy difícil. Entonces, estos americanos dijeron, mira, aquí esto hay que tener otro concepto. Y crearon un concepto de hipersensorización del campo de batalla. Es decir, en vez de tener barcos todos juntitos, ¿no? Tenemos menos barcos, ¿no? Con más sensores, ¿no? Trabajamos con la información que proporcionan los sensores, que de forma automática, ¿no? Se suba a la nube, ¿no? Y la nube se opera desde alguna estación base de Estados Unidos. Con esa información, nosotros somos capaces, como hacía el niño del triciclo de Ricardo, o de Arturo, no sé quién era. Y podremos triangular perfectamente desde todos los adversarios, ¿no? Y con eso podemos llegar al siguiente paso, que es el lanzamiento de salvas. Es decir, de forma descentralizada, ¿no? Empezar a hacer lanzamientos de salvas según un objetivo que se ha determinado electromagnéticamente. Esto, al final... Nosotros hemos estado mucho tiempo confiando en políticas de misión activa. Es decir, que necesitamos el radar transmitir para verlo. Y ahora se ha cambiado totalmente el paradigma. Y ahora son políticas muy restrictivas de transmisión. Casi nulas, ¿no? Se aboga por el silencio, se aboga por modos como los LPI, ¿no? Radares que están por debajo de la cifra, que son muy difíciles de detectar. Es decir, que la molécula naval, ¿no? En general las fuerzas navales suelen decantarse por estar en silencio, ¿no? Porque esto yo siempre lo asimilo a un hombre que está con una linterna y una pistola en una habitación. Y sabe que en esa habitación hay un amigo que tiene una linterna y una pistola y dos enemigos. Son dos a dos. Tienen también una linterna y una pistola. Tú utilizas otros sensores, ¿no? Como puede ser el oído, ¿no? Las orejas y tal, no sé qué. Hay ruidos y puedes triangular. Tú, en cuanto tomes una acción ofensiva, dices, bueno, este estoy seguro que está en esta demora. En cuanto tomes una acción ofensiva, has desvelado ya tu posición. O en cuanto digas, bueno, voy a poner la linterna, voy a transmitir con el radar, voy a transmitir comunicaciones. Y enciendas la linterna, es verdad que tú tienes una pequeña ventaja porque ves y puedes lanzar, puedes pegar un tiro. Pero el otro ya te ha visto. El otro ya te ha visto. Y inexorablemente te podrá atacar. Y tú ya no te podrás defender. Porque el otro ya te ha lanzado y seguramente, como estás sobre un objetivo, no puedas ver el otro. Eso es un poco la letalidad distribuida. Es decir, hipersexualizar el campo, distribuirlo mucho, ¿no? Y luego hacer fuego sobre salva sobre todos los datos que sobre una nube, la famosa nube de combate, estás gestionando en otro país. Y lo puedes hacer incluso en tiempo real. Esto que Estados Unidos, no digo que lo tenga plenamente implementado, pero está trabajando en ello, hace que tenga una superioridad en el espectro muy importante a la hora de detectar. A la hora de detectar. Porque no olvidemos que todo el mundo transmite. O sea, un barco siempre transmite. Un barco siempre tendrá puntos de calor. Un barco siempre tiene una onda magnética. Rompe el campo magnético. Un barco siempre se ve. Una estructura metálica muy potente. Claro. O sea, un barco... hay pruebas que se hacen en España, por ejemplo, de todo el campo electromagnético, la firma electromagnética de un barco. Pues eso es. Y recordemos que lo que importa es la oreja que tengas. Es decir, los submarinos nucleares o los submarinos... La película esta que... Es un poco exageración, ¿no? Pero es verdad. El sonido se transmite, no te digo yo indefinidamente, pero todo depende de la oreja que tengas. Teníamos unos sistemas acústicos en España que se llaman tactas, que eran americanos, ¿no? Que eran unos remolques muy, muy grandes de kilómetros, ¿no? Que eran capaces de coger señales completamente insignificantes. Os voy a poner un ejemplo. Los satélites GPS están a 22.000 kilómetros de la Tierra. Están muy lejos. Están, caramba, lejísimos. Bueno, la señal que llega aquí está a unos 60 dB por debajo de la cifra de ruido. Y recordemos que 3 dB es potencia mitad. Es decir, que estamos hablando de una potencia que no existe. O sea, realmente es imposible escucharla. Está a 60 decibelios. 3 decibelios es potencia mitad. Por debajo de la cifra de ruido, del ruido gaussiano que provoca la propia Tierra, ¿no? De todos lados. O sea, que es imposible de escuchar. Sin embargo, hay unos aparatitos que se llaman GPS que te los venden por 20 euros. Que resulta que sí lo escuchan. ¿Por qué? Bueno, porque al final los ingenieros hacen cosas maravillosas, como una radio, ¿no? Tú mueves el dial y las ondas electromagnéticas de todas las radios del mundo están presentes en todo el éter. Tú coges y cuando mueves el dial estás moviéndolo a lo largo de la cifra. Y la longitud de antena de esa radio. Si tienes resonancia sobre la longitud de onda de esa frecuencia de esa radio, escucha la radio. Lo cual es maravilloso. Pues si haces eso en 60 dB, por debajo de la cifra de ruido, pues escucharás en GPS. Si yo soy capaz de tener muy claro la frecuencia de tu voz y discriminarla sobre... Porque la frecuencia de tu voz es única. Pues entonces podré escuchar tu voz muy lejos, lejísimos, ¿no? Aunque esté muy atenuada, aunque esté 60 dB. Si yo sé exactamente cómo modulas tú el sonido, ¿no? Podré meterme en el espectro, abrirlo, ¿no? Y encontrar tu señal, ¿no? Esto, pues claro, te da una superioridad, ¿no? Porque al final todo el mundo tiene señales que transmiten, ¿no? Lo que tú me dijiste del coche... Pues estoy seguro de que hay una señal ahí que a lo mejor se produce como... Pues como los murciélagos. O como tú al avanzar eres capaz de esa... No sé si habéis visto el ejemplo de un niño cuando pega al mar. El niño pega al mar, se generan esas ondas. Si un niño al otro lado hace lo mismo y están desfasadas a 180 grados, las dos olas se anulan. O viceversa. Si el otro niño están sincronizadas, la ola es más grande. Realmente tú has movido el aire, ¿no? Y a lo mejor te ha vuelto esa señal insignificante, pero tú eres capaz de percibirla, ¿no? Cuando tú avanzabas, ¿no? Que produces una deformación del éter. A lo mejor has tenido un retorno de ese coche y eres capaz de percibirlo. Bueno, todo esto es tremendo porque hay un desarrollo de capacidades. El efecto Habana, por ejemplo, tan famoso en la embajada de Cuba, ¿no? Pues era una perturbación de unas determinadas frecuencias para que el cerebro de los trabajadores de los Estados Unidos, de la embajada de Habana, terminara muy cansado. Y entonces se cansaban mucho, se saturaban y, en fin, les estaban como calentando el cerebro. Porque no olvidemos que el cerebro también se rige por ondas. Que era una microonda o algo como... Sí. Le lanzaban microondas y entonces tenían muchos dolores de cabeza, muchas jaquecas. Bueno, todo esto, claro, al final, casi todo... son señales. El color son señales. Es decir, que a través de la televisión puedes enviar determinadas señales al cerebro humano para que el cerebro las codifique de forma negativa, a pesar de que el consciente vea cosas positivas. Es decir, que tú puedes modular ese mensaje a través del espectro electromagnético. Vibración, frecuencia, intensidad de onda, todo eso. Claro. Y al final, tú puedes hacer que el otro acabe, después de ver una película de amor, pues acabe realmente muy cabreado y no sabes muy bien por qué te ocurre. Pues eso puede ocurrir. También, incluso, puedes modificar colores. Los rusos también son capaces de hacerlo. O puedes, por ejemplo, hacer el famoso mito de la sábana transparente que te hace invisible. Eso hay vídeos en internet que es real. Es decir, que tú te ocultas sobre ella y no se te ve. Es decir, un sistema infrarrojo que parecía que era imposible porque siempre hay calor humano. Pues hay vídeos de rusos que se meten debajo de eso. Y hay imágenes de camiones que desaparecen a través de... porque quieres que no, son señales que se mandan a través del espectro. Por lo tanto, pueden ser decepcionadas. Al final, todas son ondas electromagnéticas, ¿no? Al final, todas son ondas. Algunas las podemos ver, otras las podemos oír por el ojo o por el oído humano. Otras, no tanto, ¿no? Incluso se podría, lo que has comentado, se podría bloquear o se podría neutralizar a una persona utilizando estos sistemas. Sí, sí, sí, sí. Lo que pasa es que las sociedades occidentales, esto... La línea roja para nosotros. En vez de antidisturbios, eso sí que lo utilizan, ¿no? En algún sitio... Bueno, antidisturbios, por ejemplo, hay un sistema que es americano, ¿no? Que yo creo que sería muy efectivo aquí en España, ¿no? Que es un sistema que te produce, te lanza una onda electromagnética y te produce un cosquilleo. Lo digo que es un sistema que no te va a hacer daño, ¿no? Solo te produce cosquilleo, ¿no? Y inhibe que tú, por ejemplo, tomes una acción agresiva contra la policía. O te quieras subir a una valla. O porque al final no puedes hacerlo porque te entra como un cosquilleo permanente, ¿no? Pero no lo puedes hacer porque te partes de risa o del cosquilleo o porque realmente... No, no lo puedes hacer porque esos sistemas todavía no están desarrollados en la Unión Europea. Los tienes ahora en Estados Unidos, además de control de masas. Es decir, que cuando viene... Hay un problema que tenemos los militares que cuando nos dicen que actuemos contra... Por ejemplo, en control de masas. Pues nosotros... Nos cuesta mucho trabajo porque nosotros tenemos armas. No tenemos... No tenemos los sistemas que tiene la policía, la Guardia Civil. Entonces, como tenemos que hacer... No aquí en España. En control de masas. Pues cuesta mucho trabajo. Pero en Estados Unidos sí está bastante avanzado en eso. Sobre todo por los escenarios en los que tuvo que ir. Entonces, esencialmente así las tienen. No son herramientas que lanzan pulsos y la población se queda... La sensación entiendo que será como un hormigueo. Sí, un hormigueo. Que te... Que es lógico. Es como un preámbulo de una descarga o algo de eso. Pero es un supuesto que ya te ponen alerta y te paralizas, ¿no? Pero es una decisión consciente del que está recibiendo el impacto, ¿no? O realmente te paraliza. No, no te paraliza. Hace que no seas motriz. Que no puedas subir una escalera. Vale, correcto. Porque te vuelve... Yo no las he utilizado. Pero he visto muchos vídeos y la verdad es que hace como que te entra la risa y te entra no sé qué. Luego hay otros más avanzados. Los que se utilizaron contra los piratas, por ejemplo, por parte del Reino Unido, esos sí que te calentaban. Es decir, que para no matar al pirata, pues sí que te pegaban una descarga, pero eso sí te hacía daño. Te bronceaban un poco y ya está. Te bronceaban un poquito y ya está. Pero, hombre, eso es mejor que no pegarle un tiro, ¿no? Porque, claro, te pegas un tiro con 12,7 y lo partes con alguien. Claro. Entonces es mejor calentarlo un poquito. Eso lo probaron los Reino Unidos. El que tenga el control sobre el espectro, pues al final tiene ese gran poder. ¿Incluso se podrían provocar efectos meteorológicos adversos? Eso no lo sé. Yo eso nunca he trabajado. Lo que sí sé es que efectos meteorológicos, por ejemplo, los Estados Unidos... Aquí tenemos una persona que es una investigadora de la Universidad de Alcalá de Henares que es una referencia mundial. Se llama Amparo Ocid. Y esta mujer sí que ha hecho unos estudios muy curiosos. Sobre cómo afectan las diferentes anomalías solares a la señal de, por ejemplo, la de HF. O a la señal satelital. A la propagación. A la propagación. Es decir, que ya Estados Unidos promulga cada día... ¿Dónde vas a tener anomalías en HF o HF? ¿Satelital? ¿La televisión? Esto lo llaman el Meteor Weather. Las condiciones meteorológicas, igual que vosotros veis la del telediario del sol y la lluvia y todo esto, pues hay una que es solar. Y eso a nosotros nos ocurrió una vez que perdimos en Canarias su enlace satelital durante cuatro horas. Y era debido a una denegación de la señal satelital por parte del sol. El sol había hecho una... Había evitado la propagación satelital de la señal. Y nos quedamos cuatro horas sin... ¿Podría pasar esto que se comenta de vez en cuando? De que podría venir una llamarada solar y freír todos los sistemas electrónicos y volver a las cavernas y estas cosas. Bueno, en tan amplio espectro no lo sé. Pero una fulguración solar está garantizado que sí que los transformadores los echa abajo. Claro, esto es un riesgo que ya lo ha detectado Estados Unidos. Ya se produjo en San Francisco en 1906 creo. Lo que pasa es que allí solo había válvulas. Entonces el impacto no fue tan grande. Porque una válvula es resistente a una variación de campo magnético profunda. Pero los transformadores no. Entonces... Y se repite. No lo he tenido yo con asiduidad. Pero sí que hay pruebas. Los tenéis en internet de casos de que transformadores se han venido abajo. Si se produjera... Lo más curioso es que este observatorio de Alcalá de Éveres lo detecta... Fijaros lo curioso. La señal visible se lleva, cuando llega a España, a la Tierra, se lleva dos días de ventaja con respecto a la señal electromagnética. Porque una viaja a la velocidad de la luz y otra mucho más lenta. Entonces tarda unos dos días. Entonces cuando se detecta visualmente que viene la perturbación electromagnética, tienes dos días para reaccionar. Es decir que con dos días de antelación ya te están diciendo... Vas a sufrir una perturbación solar. Y es difícil predecir qué te va a ocurrir. Pero sí que puede ocurrir una inhibición. Os voy a contar otra herramienta que es maravillosa. Que se llama CHAMP. Que está en internet. Esto es... La tiene desarrollada hace mucho tiempo ya. Es una herramienta que lo que hace... Yo os hablaba de que lo importante es la discriminación de la frecuencia. Para que sobre esa misma frecuencia... Tu lanza es un pulso de energía. Y cuanto más centres la frecuencia, más eficaz eres con menos energía. Todo es, al final, que tú centres bien la frecuencia. Bien. Los procesadores tienen un rango de... Las cucarachas de los ordenadores también resuenan. Es decir que dentro hay transistores. Es decir que hay variaciones de voltaje y todo eso. Hay una herramienta. Una arma que se llama CHAMP. Que cuando pasa por los edificios produce unos... Es inocua para el ser humano. Pero a las cucarachas las fríe. Es decir, está muy centrada en la frecuencia de resonancia de los procesadores. Y al final hace que un calentamiento muy pequeñito las deja inhabilitadas. Esto hace que... En el vídeo se ve. Pasa por un edificio y todos los ordenadores se caen. Claro, si tú haces esto... En tu casa... Bueno, no pasa mucho. Se te rompen todas las cosas. Si lo haces en aeropuerto de Barajas... Seguramente... Seguramente España tenga una pérdida económica descomunal. Imaginaos que se caiga un avión. Pues ya eso bloquearía a España. Y me haría que perdiera en una semana un proyecto de reclutón. O imagínate que lo hace en la estación de Renfe. ¿No? O en Madrid. Lo que pasa es que en la guerra electrónica un efecto derivado de Stutsnet fue que al final... Que fue sobre Irán. Que al final se volvió Irán potencia mundial. Ciber. Las herramientas... Las armas electromagnéticas no se quieren enseñar. Porque si no... Producirían un desarrollo de un papel adversario y una defensa sobre ese arma. Entonces... Todas las herramientas que... Todas las armas que estoy comentando avanzadas... Pues al final no se suelen utilizar. Porque no se necesitan. Por ejemplo, no se acceden a Ucrania. Se utilizan a lo mejor de forma muy controlada en escenarios como Siria. Que es un escenario muy... Extremamente caótico. Donde es muy difícil ver lo que está ocurriendo. Pero estas se desarrollan. Y se quedan ahí sin utilizar. Y ahora que has nombrado a Irán. También me gustaría comentar el caso del dron Sentinel. De Estados Unidos. Que fue capturado precisamente por Irán. Esto también es maravilloso. También ocurrió en el 2011. Y esto... Yo cuando daba clase siempre le preguntaba a los ingenieros americanos. Que venían a cursos de arquitectónica. El dron Sentinel era el dron más avanzado de los Estados Unidos. En aquella época. Que estaba operando en Afganistán. Bueno... El dron... Pues lamentablemente... Chupaba la señal de GPS. ¿Qué pasa? Que el dron se perdió. Estados Unidos declaró. Que el dron se había quedado sin combustible. Y se había caído. Bueno esto es muy difícil que le ocurra a un dron. Un dron siempre tiene controlado el nivel de combustible. Y a las malas pues vuelve a base. Es decir que el dron. Tiene sistemas de verificación y de aviso. Un dron no se cae bueno. Sobre todo ese dron que es un dron estratégico. Con una capacidad de autonomía brutal. Bueno. Ese mismo día. Lo que ocurrió es que. Irán. Mostró al mundo como. El Sentinel aterrizaba en su aeropuerto. Es decir que había sido seducido. Por las señales aerodinámicas. Es decir. El dron más avanzado de Estados Unidos. El Sentinel. Había sido. Seducido. Había sido robado. A través del espectro electromagnético. Por una nación. Que es irrelevante. En las capacidades militares. Como es Irán. Esto. Habla de cómo se cierra el cap. Ese. Entre. Capacidades. Brutales. Convencionales. Como es el Sentinel. Y luego. Con el uso de la electrónica. Cómo te pones a su nivel. Esto derivó. Y además está en internet. Es muy gracioso el vídeo. Derivó. En que al día siguiente. Fueron los rusos y los chinos. Hicieron ingeniería inversa. No es tan fácil. Hacer ingeniería inversa. Pero bueno. La cuestión es que ellos. Generaron decenas de. Ingeniería inversa. Gemelos. Que no serían. Gemelos. Pero. Parecen. Iguales. ¿Esto qué pasa? Que al final. Tu país. Cuando lo presentas. Como lo presentaron. Con el. El líder religioso. Iraní. ¿No? Al final. El pueblo. Cree. Que tú estás. Al mismo nivel. En capacidades militares. Que Estados Unidos. Con lo cual. Es un. Es un aliciente. Una propaganda. Muy interesante. Interna. Claro. A la gran electrónica. Una. Seducción. De un sistema. Abierto. De señal. Es. Muy sencilla. De hacer. Bien de GPS. O de señal de control. Eso te lo hace. Un ingeniero. Dos o tres ingenieros. Pero vamos. No tiene ningún problema. La seducción. De un sistema. De. Posicionamiento. En la mar. De referencia. De. Dónde están los peligros. A la navegación. El famoso. Ice. Este. ¿No? ¿No? Pues. Es. Muy fácil de hacer. Eso. Creo. Hay. Un. Vídeo. Y un. Y un libro en internet. No. Que. Por. 500 euros. Lo puedes hacer. Es decir. Estoy. Diciendo. Que sobre las. Boyas. Que tienen. Una señal. Electromagnética. Para que. El barco. Que entra. En una. Canal. Sea consciente. De dónde. Están los peligros. A la navegación. Puede ser. Decepcionado. Por. Por una persona. Que se quiera gastar. 500 euros. Los sistemas. Están replicados. O sea. Que. Supongo. Supongo. No. Estoy seguro. Que el mercante. Tiene. Otro sistema. De navegación. Y se daría cuenta. O no. Una curiosidad. Ignacio. En el anterior. Episodio. Hemos estado hablando. De la radioafición. De cara. A lo que son. Las comunicaciones. Concretamente. Las comunicaciones. En este caso. Habladas. O escritas. Antes. Has nombrado. Pues. Distintas. Ondas. No. Que. Cuando hablabas. De. Las investigaciones. De. Amparo Gil. Y. Bueno. Del reflejo. De. Bueno. De la emisión solar. Y todo esto. Hoy por hoy. Para comunicarse. Dentro. De lo que es. Un conflicto. Si utilizan. Siempre. Como. Los satélites. No. Como vas. Allá. A partir. Te comunicas. O también. Hay. Otro tipo. De comunicaciones. Por frecuencia. Electromagnética. Que. Que no. Tienen. No dependan. De los satélites. Porque. Eso. Nos comprometería. Mucho. Claro. Siempre. Hay una. En. La. La fuerza militar. En esto. Es bastante robusta. Tiene una. Duplicidad. De sistemas. Que. Es magnífica. No. Pero. Nosotros. Siempre. Por. Por lo menos. Los barcos. No. Siempre. Solemos. Tener. El sistema. Redundante. Utilizamos. El satélite. Y también. Somos. Capaces. De utilizar. La señal. De HF. Lo digo. Que son. Los de más larga distancia. Los satelitales. El sistema. HF. Pero también. Utilizamos. Otros sistemas. De. De comunicación. Y los sistemas. Tienen cifra. Casi todos los sistemas. Militares. De comunicación. Tienen cifra. Lo primero. Que hicieron. Los americanos. En Ucrania. El caso. De Ucrania. Es un caso. Muy curioso. Porque. En el 2014. Los americanos. No tuvieron. La preparación. Suficiente. Pero. En el 2014. Llegaron al convencimiento. De que. Iba a haber. Otro primer. Entonces. Empezaron. A distraer. A. Una de las áreas. De adiestramiento. Fue. Bueno. Lo primero. Que hicieron. Con. Zelensky. Y con sus. Piezas. Claves. Es darles. Un teléfono. Cifrado. Satellita. Fue lo primero. Que hicieron. Porque saben. Que los rusos. Tenían. Todo el sistema. De comunicaciones. Violado. Hackeado. Lo primero. Que hicieron. Es un sistema. Le dieron. Un teléfono. Militar. Cifrado. Contra eso. No puedes hacer nada. O sea. La cifra. De esos sistemas. Incluso. La cifra. De los sistemas. Ingles. Es muy. Difícil. Romperla. Es muy difícil romperla. A corto plazo. Luego. Si entras. En el laboratorio. Señales de laboratorio. Final. Pues ya. No es tan difícil. Con estos sistemas. Actuales. De. La inteligencia. Artificial. Y las redes. Que. Bueno. Ya. Ya. No es tan difícil. Romper. Una señal. Civil. Una militar. Por eso. Los militares. Cambiamos la cifra. A muy poco tiempo. O sea. Bueno. Como cambias tú la contraseña. Es decir. Te pones allá la contraseña. Pero necesitas tiempo. Y si tú la vuelves a cambiar. Ya es. Bueno. Hace poco. Bueno. Hace poco. Un par de años. Creo que. Había una empresa. Que vendía este tipo. De teléfonos. Encriptados. Y los utilizaba. Lógicamente. Todo el crimen. Todas las. Mafias. Y demás. Y. Por alguna razón. Pues consiguieron desencriptarlo. Claro. Fue una. Para las. Las. Las. Policías. Fue. Magnífico. Porque consiguieron. Desmascarar un montón. De gente. Con la cual. Claro. No son infalibles. No. No. Esto. Eh. Siempre ocurre. Es decir. Que. El ser humano. Comunica. Siempre. Siempre. Y es una vulnerabilidad. Tremenda. En escenarios como el de Somalia. Claro. El pirata. Tiene que comunicar. Porque. Porque el pirata no sabe muy bien a dónde va. Tiene un esquife ahí. Él tiene que comunicar. Y los teléfonos satelitales, los Tura Llamas son muy baratos. Y entonces comunica a través de eso. El problema de todo esto es cuando tú tomas una acción, cuando tú enciendes el internet. Si el pirata aprecia que de repente, después de llamar, a las tres horas tiene una fragata encima, pues eso se mosquea. Dice, ¿cómo puede ser? Somali Basin, que es un área tan grande como toda Europa, dos horas después, llevo aquí dos meses y nunca ha venido un barco. Y de repente llamo y a las dos horas tengo un helicóptero encima de mí, apresándome. Entonces, cuando ya... esto pasa lo mismo con los narcotraficantes. Que los sistemas de detección, pues cuando tú, voy a contar, por ejemplo, un caso de... se pasó una información a un país vecino y resulta que el país vecino utiliza esa información para apresar el barco con mucha antelación, demasiada antelación. Estaba a 400 millas de costa. Entonces, el barco no es tonto. Entonces, el sistema automáticamente, el narcotraficante, pues compra otro teléfono, otra cifra y otra vez tienes que estar... seis meses, ocho meses o un año intentando romper esa cifra. Porque ellos, a lo mejor es solo apretar un botón, pasar de cifra uno a cifra dos y ya es otra señal. Hay que darse cuenta que una... no un cifrado, una modulación compleja o una codificación de la señal es muy difícil romperla. O sea, tardas semanas y a un cifrado tardas meses y tienes que poner mucho empeño. Y mucha gente trabajando detrás de eso. Pero fíjate, un experto en inteligencia artificial que también interviene en nuestros episodios nos dijo que las criptomonedas que parecían también que eran infranqueables con los cálculos cuánticos, que parece que algunos países empiezan a hacerlo, comienzan a desencriptarlas. Es decir, esto también podría comprometer todo lo que estamos hablando de la encriptación. Siempre, ¿no? Quien va a hacer daño va por delante... Eso lo tengo claro. El que va a hacer daño siempre va a conseguirlo. Sobre todo porque suele invertir más en eso. Porque le da más rédito. Y luego, siempre, robustecer o rugerizar las capacidades es muy caro. Y siempre, a los ojos del desarrollo industrial, parece poco rentable. Por ejemplo, cuando yo era joven... Bueno, ahora soy muy joven porque tengo 56 años. ¿Cuándo eras más joven? Yo estaba en una corbeta y teníamos un procesador, que era de señal aparate, que tenía 256K. Nos parecía que era una barbaridad. Era muy grande, que era una media habitación. Y vino una empresa que se llamaba Tecnovid y quitó ese armatoste, que le diría 4x4, y puso tres cucarachas. El tío puso tres procesadores ahí. Bueno, el sistema de combate se revolucionó. Todo iba mucho más rápido, todo era... Pero claro, te puso ahí esas cucarachas, que al final, hay que ver... O sea, el procesador duraba toda la vida. Toda la vida. Y era extraordinariamente caro. Esas cucarachas no duraban toda la vida. Y cuando se levantaban de mal humor, pues se quedaba el sistema de combate bloqueado, ¿no? Que las otras no... Claro, un procesador, ese de 256K, se había pasado tanto... Tantas pruebas, ¿no?, que era indestructible, con sus 256K. El otro que puso 4 megas, va llevando mucho más rápido, pero el sistema, a los tres años, no había más que bloquearse. Siempre se dice, ¿no?, que la NASA y todos estos sistemas críticos, claro, que llevan equipos muy antiguos, ¿no? A lo mejor un 386, un... Ordenadores muy antiguos, que están más que probados, y sabes que eso funciona, ¿no? La febrilidad es más alta. Claro. Claro. Nosotros teníamos en las fragatas un procesador que se llamaba Luikas 7 y Luikas 20. Claro. Nosotros teníamos en las fragatas un procesador que se llamaba Luikas 7 y Luikas 20. Y tú los veías y decías, madre mía, y tal. De hecho, hablábamos antes, ¿no? Las válvulas eran muy robustas, ¿eh? Muy robustas. Pero claro, el abaratamiento de costes es tan masivo, ¿no? Y al final es una vulnerabilidad, ¿no? Y la guerra electrónica, o las operaciones electromagnéticas, puede atacar esos sistemas con mucha facilidad. Hay mucha documentación de esto, de lo que se llama una EMI, ¿no? Que es una interferencia electromagnética provocada. Es decir, que tú, si sabes la frecuencia de resonancia del sistema de control de motores de una fragata, al final es un ordenador. O sea, que si tú le puedes lanzar un pulso y inhabilitarlo, consigues que la fragata se quede sin propulsión. Y curiosamente, nadie sospechará de ti. Porque como no se ve, pues el sistema dejará de funcionar. Supongo que le darán unos cuantos porrazos, ¿no? Y lo apagarán y encenderán muchas veces. Porque nadie ha detectado nada raro, ¿no? Lo primero, cuando te hacen un ataque ciber, lo primero que haces es apagar y encender el ordenador. Que te crees que se te ha roto, ¿no? Y a lo mejor te están... Pues esto igual, ¿no? Entonces es muy difícil, vuelvo a lo de antes, es muy difícil protegerse ante... o reaccionar ante un ataque electromagnético. Y es muy fácil, muchas veces, ejecutarlo. Y muchas veces llega más allá de la imaginación, ¿no? Hay sistemas que en una red Wi-Fi, por ejemplo, de casa, pues puedes saber cuántas personas hay en la habitación donde está el router Wi-Fi, por ejemplo. O por el tritineo de una lámpara LED o de una bombilla LED, pues puedes saber incluso la conversación de las personas que está ocurriendo en esa habitación. Sí, hay otro sistema que los americanos son... estos son geniales, ¿no? Y vuelvo a lo de letalidad distribuida, ¿no? Pero la hipersensorización del campo, es decir que... Sí. Si tú al final eres capaz de desplegar tus sensores, ¿no? Y estoy hablando, por ejemplo, de moscas muy pequeñitas, ¿no? O sistemas autónomos que son muy pequeños que tienen mucha carga de sensorialización. Y los colocas en determinadas partes de una población, por ejemplo, maliense, ¿no? Y ellos te dan capacidad de cámara, de movimiento, de tal cual, y te dan toda esta serie de sensores, ¿no? Pues tienes totalmente controlada la población. Tú lo que ve el ser humano son piedras, por ahí hay piedras, ¿no? Colocadas por ahí. O moscas, ¿no? Muertas por ahí. Y al final tienes toda la población perfectamente controlada, ¿no? Luego todas las conversaciones, las escribas con inteligencia artificial, ¿no? Las traduces automáticamente porque ahora los traductores automáticos hablan mejor que los seres humanos. Y al final tienes todas las conversaciones de una pequeña población o de una gran población. Esto en Estados Unidos está teniendo mucho debate sobre... Por ejemplo, por los aeropuertos, ¿no? Es decir, cuando una persona llega a un aeropuerto, electromagnéticamente lo puedes identificar con mucha antelación. Y puedes identificar si esa persona tiene un billete comprado. Es decir, hay unos sistemas, Estados Unidos los tiene, que son unos pequeños drones minúsculos, ¿no? Que sobre la interpretación facial tuya, ¿no? El reconocimiento facial tuyo. Si ven que eres tú, pues se lanzan contra tu cerebro y te lo perforan. La... El reconocimiento facial es perfecto. Perdón. Perdón. A ver, ¿puedes repetir? ¿Eso es literal? Eso es literal. O sea, ellos lanzan un enjambre de drones pequeñitos que tienen una capacidad de permanencia muy alta. Estoy hablando de días. Se quedan ahí, flotando. Y ellos escanean las caras que ven en la población. Tú no los ves porque para ti son... Son como el tamaño de cinco moscas o un poquito más. Entonces, tú no los ves. Cuando tú sales de casa, él te mira y hace el reconocimiento facial. Te identifica. Y una vez que te ha identificado como Ignacio Nieto, se lanza sobre tu cerebro. Y se lanza a una velocidad descomunal y te penetra el cerebro. Es decir, eso es muy difícil. Muy difícil... De contrarrestar, ¿no? De contrarrestar. Esto, fíjate tú, la capacidad tan fuerte que tú le podrías vender a un país que está sometido a un grupo terrorista, ¿no? Si tienes todos los reconocimientos faciales de los terroristas. Te explica esos sistemas que no son muy caros. Y al final, pues, se carga a todos los terroristas uno por uno. Y el reconocimiento facial es perfecto. Es decir, yo tenía en mi anterior destino el reconocimiento facial y nunca se equivocaba. Siempre. Ya podía llegar dormido, con gafas, sin gafas. Siempre me reconocía. ¿Sabes qué son? No sé si son cientos de señales que toma. Biométricas. Biométricas. Estos sistemas existen, ¿no? Y luego, lo que vosotros habláis de la voz, pues también. O sea, ahora hay sistemas que te dicen sobre fonología. Te dicen si estás mintiendo. Prefiero que en una negociación, si tú utilizas bien el espectro, ¿no? Y ves al otro hablar, ¿no? Tú puedes determinar. A través del lenguaje no facial o de cómo se expresa él y lo que está diciéndolo. Puedes determinar si está mintiendo o si no está mintiendo. Y se lo puedes decir a tú. Claro. Y ahora con las sillas bien adiestradas. Eso ya es una locura lo que puedes conseguir. Claro. Y esto son pruebas judiciales. Es decir, que la fonología y el lenguaje no verbal, los microgestos, son pruebas admitidas en el juicio. O sea, que son bastante fiables. Claro, tienes que tener detrás un respaldo. Pero bueno, me refiero a que no circunscribamos las operaciones románticas solo a las señales radáricas. Sino que, como dije antes, se abre todo un campo de posibilidades. Incluso el ámbito cognitivo, ¿no? Que es tremendo. Si tú controlas las señales que hay en el espectro, tienes una superioridad en todos los terrenos. Que es tremenda. Hay una estrategia que es de Estados Unidos. Dice un artículo que lo llamaba los anhelos de superioridad. El espectro electromagnético de Estados Unidos. Porque al final es muy difícil controlar todo el espectro. Pero si tú consigues controlarlo, destrozas al enemigo. Porque para empezar, lo que hablábamos antes de las comunicaciones, te puedes meter en sus comunicaciones. Es decir, que es muy fácil. Ahora mismo en Ucrania, por ejemplo, un ejemplo que os voy a poner. Que es muy sencillo, pero es demoledor y contundente. Es decir, si tú coges todo esto que dice que en Ucrania no hay teléfonos. En Ucrania hay teléfonos. Porque tú le quitas el sueldo al teléfono y lo matas. Entonces, en Ucrania hay teléfonos. En Rusia hay teléfonos. Es la primera línea de frente. Claro, cuando un chaval recibe, o un soldado recibe en su teléfono propio, en su WhatsApp de turno, o en el sistema VK que tenga ruso de red social, recibe una imagen de su mujer con la cabeza cortada que se ha hecho con inteligencia artificial. Pues vuelve loco. No le quedarán muchas fuerzas para eso. Y luego eres capaz de inhibir el teléfono de su mujer y que él no logre comunicar con la mujer. El texting a través del espectro magnético es brutal y masivo. Lo primero que hacen los rusos cuando llegan a conquistar la zona es coger todas las señales de los teléfonos. De hecho, los rusos, cuando te encuentras con ellos en la mar, lo primero que intentan hacer es cogerte todas tus. Por eso, muchas veces, en alta mar, que no hay señal de GSM, cuando llega un ruso, él cariñosamente te proporciona su señal. Y entonces la gente dice, qué bien que tengo señal. No cojas esa señal que le estás dando todo tú. Y entonces te chupan todo. Lo digo que el reconocimiento del espectro es lo primero que hacen los rusos. Y ahora contaré una cosa que seguro que os resulta interesante, que es qué es lo que ocurrió en la debacle rusa cuando entró en Ucrania. Bueno, realmente la gravedad histórica no es que se viniera abajo. Es que la gravedad histórica necesita hacer un reconocimiento. El reconocimiento del terreno. Tarda para ello semanas. Es decir, tú no puedes poner un krasuka en una zona y que se ponga a trabajar el primer día. ¿Por qué? Porque él primero tiene que conocer el espectro. Tiene que saber qué señales hay en el espectro. Y una vez sabe eso, recordar que lo primero es conocer. El primero es si tú es en Agones. El primero es saber qué es lo que hay para luego poder atacar o defender. Pero si tú no conoces lo que hay, el sistema es tonto. O sea, no es capaz. Necesitas una base de datos refinada de emisores. El gran fracaso de Putin cuando se adentró en Ucrania es que creía que sus sistemas de gravedad histórica iban a ser capaces de responder en horas. Y no son capaces. Y la movilidad de un equipo de gravedad histórica tampoco es... Por eso, hubo una noticia que generó mucho eco, que fue la pérdida de un krasuka, que es el sistema de gravedad histórica quizás mejor de los rusos. Y fue porque no es tan fácil mover un equipo de gravedad histórica y no dejaron perderlo. Y otra de las bazas de Rusia, que es extraordinaria, es que Rusia ha sido capaz de poner equipos de gravedad electrónica de apoyo a casi cualquier función de combate en todo el rango de frecuencia. Es decir, que no se circunscribe solo al régimen radárico, al ancho de banda radárico o al ancho de banda de comunicaciones, Perturbar señal de GPS, bien porque sea un repetidor, bien porque sea un sensor, bien porque sea un equipo de electrónica. Al final, Ucrania ha demostrado que si tú quieres conducir de forma satisfactoria el combate, necesitas desplegar miles de equipos de guerra electrónica en apoyo a ese concepto que veíamos antes de hipersensorización del campo de batalla y ser consciente de lo que te está ocurriendo. ¿Y aquí tenemos en España algún tipo de centro o algún sitio donde el tema de operaciones del espectro electromagnético...? Sí, claro que sí. Y tengo que decir, bueno, yo cuando llegué de la AtoSchool me llamó el Teniente General Fernando López del Pozo para que implementara esta capacidad en el nivel operacional, que es el mando de operaciones, que trabaja en el nivel operacional. ¿Y por qué digo en el nivel operacional? En el nivel operacional es muy importante, porque debajo del nivel operacional está el nivel táctico, que es lo que vosotros entendéis como los dominios, ¿no? Los Tierra, Mare, Aire y Ciber. Tierra, Mare, Aire y Ciber trabajan en sus respectivos dominios, aunque son capaces también de hacer en muchos dominios, pero al final el que integra, prioriza y sincroniza los efectos de los específicos de Tierra, Mare, Aire es el nivel operacional. Tierra, Mare, Aire es el nivel operacional. Por eso creamos un centro de operaciones electromagnéticas que era el que daba apoyo a la conducción de las operaciones electromagnéticas. Este centro creció bastante, la verdad es que estaba bastante bien considerado. Valga como ejemplo que fue visitado por determinados países, por ejemplo Noruega, que creemos que está muy por delante, pues Noruega nos vino a visitar. Y también viene a ver que hay otros países del norte, que siempre... Francia, por ejemplo, nos pidió que le instalaran un sistema similar. En su ejército. O sea que el mando de operaciones tiene un centro de operaciones electromagnéticas que goza de bastante buena salud y que es capaz de hacer algo que persigue las operaciones electromagnéticas, que es coordinar el esfuerzo o la acción en el aspecto de la automatización. Coordinarla, es decir, comprenderla e intentar disponer las otras capacidades defensivas o ofensivas en beneficio del objetivo. operacional que se persiga. Eso es lo que hace el centro de operaciones. Y todo esto es capital saber cómo es el entorno electromagnético. Es decir, todos los dominios tienen su conocimiento del entorno. Una vez se llama Real Maritime Picture, la visión de todos los barcos del mundo o la visión de todos los aviones del mundo. Todo eso es necesario también trasladarlo al espectro electromagnético. Ahí se configura algo que es... Tiene superioridad sobre los otros conocimientos del entorno. ¿Por qué? Porque si tú tienes una oreja gigantesca adaptada a todas las frecuencias, seguro que sabes el posicionamiento y conoces la información de todo el adversario en todo su espectro. Y esto te da una superioridad, claro, tremenda. Y una última pregunta. Me parece muy interesante el debate sobre la fiabilidad que has comentado. Tiene muchas aristas. Uno de ellos puede ser como... ¿Cómo garantizar el objetivo desde un punto de vista militar? ¿Hasta qué punto se puede o no se puede garantizar ese objetivo? Porque claro, si no se puede garantizar también es un problema. Incluso otro punto de vista, otro arista, es que desde un punto de vista militar, por ejemplo, la fiabilidad, la precisión del GPS, seguro que es muy superior a la civil. Cuando también en un ámbito civil, ya con la precisión que tenemos actualmente, es muy importante económicamente y todavía una precisión mayor desde un punto de vista de accesibilidad. Porque eso nos diga si poder localizar un paso de cebra, que hoy en día todavía no es posible, pero sería súper importante, ¿no? Claro. Bueno, la cuestión... El sistema GPS cuando nació tenía un error inducido que se llama disponibilidad selectiva de los 100 metros de terrenos. Esto cuando pasó la primera guerra del Golfo para que las tropas americanas pudieran desplegar todas sus capacidades, se quitó. Y luego ya no se pudo recuperar porque la asociación civil exigía que el sistema GPS... que está por debajo de los 10 metros de precisión, que es lo típico de las veces, ¿no? pues... que le llega a casi todo el mundo. El problema es qué pasa si en el ínterim del lanzamiento de un misil te perturba. Un misil que normalmente, para abaratar costes, pues los retomazos de la primera serie dependían del GPS. Cuando lanzó el Strike de Estados Unidos, de 65 misiles sobre Siria, ¿no? Bueno, 32 de ellos se perdieron. Un misil no se pierde. Un misil se cae o abate el blanco. Y para tirarlo, seguramente lo hayan tirado con equipos de guerra electrónica. Estas son cuestiones que nunca se saben, pero se cree que fue un gran impacto para Estados Unidos, que un sistema tan fiable como el Tomahawk, que puedes meter un Tomahawk dentro de la ventana de una casa, pues al final resulta que por un equipo de guerra electrónica se te caigan tantos Tomahawks. Eso llevó a hacer sistemas más resilientes a la pérdida de GPS, por ejemplo, el mapeo del terreno. Pero sí que es verdad que en toda esta hipersensorialización que sirve para el lanzamiento de armas o de salvas, siempre hay una preocupación constante, porque las sociedades occidentales, en contra de otras sociedades, pues los daños colaterales nos hacen mucho daño en la ejecución de la guerra. Es decir, que siempre miramos muy mucho el riesgo a través de una función que se llama la de targeting, miramos muy mucho el riesgo de un daño colateral y, por la general, no lo asumimos. Y el espectro electromagnético, la verdad es que es un quebradero de cabeza para esa precisión. Ahora, la sociedad civil o los desarrollos comerciales cada vez son más baratos, más vulnerables, pero mejores, de cara a sociedades que no tengan amenazas. O sea que yo creo que, en breve, no sé el Galileo en las últimas ocasiones qué capacidad, qué precisión tiene, pero supongo que podrá satisfacer esa necesidad que tenéis vosotros, las personas ciegas. O sea que sí, es un quebradero de cabeza muy grande para los militares, la pérdida o la degradación. Eso se llama libertad de movimiento en el espectro. O sea que cuando no la tienes, pues te genera mucha ansiedad. Pues vamos llegando al final, porque ya nos estamos quedando. Sin tiempo, podemos hacer un rápido resumen de un poco de todos los puntos que hemos tocado. Hemos comentado qué son las operaciones electromagnéticas, hemos hablado de la guerra electrónica, qué es, los orígenes, la situación actual. Hemos comentado en qué situación se encuentra actualmente el ejército, tanto España, Europa, la OTAN, un poco en el mundo. Incluso las guerras, hemos comentado algunas de las guerras actuales. Hemos conocido la presencia y la importancia de las operaciones electromagnéticas en los nuevos conflictos. Es decir, tienen ya una preponderancia al mismo nivel o superior que otras de las estrategias tácticas o esto que se llevaban a cabo. Hemos visto ejemplos de cómo se ha utilizado, para bien, para mal. Hemos visto la implicación que tiene tanto en... lo que es el entorno militar como en el entorno civil y cómo se puede utilizar para bien y para mal también. Bueno, yo lo que resumiría es que las operaciones electromagnéticas son capaces de cerrar el gap tan grande que hay en armamento convencional entre los países occidentales y los países denominados occidentales. Revisionistas. Y lo hacen porque aparte de cerrar ese gap, son capaces de amenazar algo que está escrito en la defensa nacional que dice que los militares deben de procurar el bienestar de la sociedad. Y como estos países tienen muy claro que atacando ese bienestar degradan el nivel de seguridad nacional y generan pánico, ¿no? Pues son capaces de utilizar el espectro electromagnético para amenazar a esas sociedades, ¿no? Y que lo que tenemos que hacer es profundizar en esos sistemas de colaboración público militares, ¿no? Y también asumir esa capacidad de defensa de ese estado de bienestar a través de las organizaciones internacionales. Especialmente la OTAN, ¿no? Haciendo eso, pues protegeremos mejor, ¿no? De una amenaza que se ha demostrado muy efectiva, ¿no? En tres conflictos como el de Crimea, como el de Ucrania o como el de Siria. Y que hace que con poco dinero seas capaz de ser muy efectivo en violentar o halar la seguridad de otro país. Pues muchísimas gracias, Ignacio. Ha quedado todo muy claro. Lo has expuesto de forma muy clara. Ha quedado muy amena. Y te lo agradezco un montón. Muchas, muchas gracias, Ignacio. Que sé que estás muy ocupado y tienes poco tiempo. Muchas gracias por habernos dedicado este rato para estar con nosotros. Sí. La verdad es que Rusia da trabajo a destajo aquí desafortunadamente. La verdad es que aquí donde estoy, que estamos en la parte este de... Nuestra área de responsabilidad es la parte este de Europa. Y la verdad es que es un quebra de la cabeza... impresionante. Pero estoy convencido de que lograremos salir aerosos de este envite tan importante. Pues suerte. Muchas gracias. Gracias. Terminamos con nuestros medios de contacto. Ricardo. Pues sí. Nuestro correo electrónico es gafotas arroba c gatos punto es. Y nuestro WhatsApp para mensajes de audio y de texto en el más 34 644 6406. Pues muy bien. Muchas gracias a todos por llegar hasta aquí. Como decimos siempre. Y nada. En el próximo episodio nos volveremos a encontrar si queréis. Tenéis nuestros medios de comunicación para enviarnos propuestas, críticas y todo lo que queráis. Así que muchísimas gracias. Hasta luego. Gafotas de Gatos y sus aparatos podcast. Gafotas de Gatos y sus aparatos podcast. Que si tenemos alguna duda sobre la visibilidad del entorno electromagnético, seguro que tú nos la aclaras. Y ahora voy a hacer una pausa. Stop. Estáis haciendo, creo que es Ignacio, ruido con el micrófono. ¿Yo? Sí. Alguien lo está haciendo. Yo lo estoy percibiendo. Yo creo que es al respirar. Sí, yo lo estoy percibiendo. Entonces, os lo digo porque ahora estamos a tiempo de... ¿Y ahora hay más ruido? Al menos. Puede ser la respiración. ¿Estás con un micrófono de diadema? Sí. ¿Auriculares? Vale. Pues creo que lo tenías a la altura de la nariz. Disculpa que seamos tan pejigueros. Claro, claro. ¿Qué tenéis? ¿Tenéis un oído? Ricardo tiene un oído de perro. Bueno, me lo pongo abajo, entonces. Ricardo dice que tiene un oído de perro. Se te escucha mejor. Eso lo tiene Jonathan. Y tú tienes los oídos de madera. Yo de madera. Yo puedo llevar las gafas, nada más. Bueno, pues... Ahora mejor, ¿no? Sí, sí. Muchísimo mejor y con más brillo, además, la voz. Es que me he puesto la cámara, pero claro. La cámara no es de igual. Eso no es de igual. Aquí sales muy bien. Aquí estás estupendo. Te he hecho cuatro capturas para guardarte ahí en el Dropbox. Los 56 casos. El otro me puso cuatro megas. Me ha llevado mucho más rápido en el sistema. A los tres años no había más que bloquearse. El primero sería código máquina y aquello funcionaría fenomenal. Y el otro ya tendría algo de Microsoft detrás y ya estabais vendidos. No, de seguro. Bueno.
Gafotas, cegatos y sus aparatos #21
Fecha: viernes, 23 de mayo de 2025, a las 00:00:00
Episodio 21.Tecnoconocimiento Accesible: desarrollando tutoriales y buen software para todos.
En este episodio nos sumergimos en el universo de la Comunidad Tecnoconocimiento Accesible (TCA) de la mano de Peter Reina y Héctor Benítez, dos desarrolladores ciegos que no solo crean herramientas accesibles, sino que también comparten su conocimiento y su tiempo, con una entrega admirable y un propósito muy claro: que ningún usuario con discapacidad visual se quede atrás.
Temas destacados:
- Orígenes de TCA: Peter nos cuenta cómo nació esta comunidad allá por 2014 como un simple blog de audiotutoriales, sin apenas medios técnicos ni económicos, pero con una visión muy poderosa: compartir soluciones accesibles y prácticas, pensadas desde las necesidades reales de los usuarios ciegos.
- Software accesible y usable desde el inicio: Reflexionamos sobre la importancia de que las aplicaciones sean accesibles desde su diseño. Porque como bien dicen nuestros invitados: “la accesibilidad no está reñida con la estética, ni con la usabilidad”.
- Catálogo de aplicaciones TCA: Hablamos de una enorme batería de herramientas prácticas como:
-TCA Media Downloader (descarga accesible desde más de 2.000 webs, incluyendo reproducción, playlists, comentarios de YouTube, y más).
-TCA ConvertDoc, TCA Audio Converter, TCA Renamer, TCA CleanApps, TCA Video Creator, TCA Boot Manager...
-TCA Transcribe, la nueva joya basada en Whisper para transcribir y traducir audios y vídeos sin coste alguno y de forma local.
-El simpático TCA TTS Timer, un reloj parlante accesible para todo el mundo.
-Y muchas más utilidades portables y sin instalación que no dejan rastro en el sistema.
- Complementos para NVDA: Conocemos las herramientas que Héctor ha desarrollado para el lector de pantalla NVDA, como Z Audio Cinemateca, Z Tienda NVDA, Z Traductor Avanzado, y el mítico Z Backup, que permite restaurar una copia del sistema en caliente, sin salir de Windows.
- La experiencia de programar sin ver: Compartimos los retos técnicos, las limitaciones autoimpuestas, y cómo la inteligencia artificial se ha convertido en un aliado clave para acelerar procesos, diseñar interfaces y aprender nuevas tecnologías.
- El impacto de la IA en el desarrollo: Desde pedirle a la IA que diseñe una interfaz funcional hasta utilizarla para traducir, generar código comentado, describir visualmente elementos o simplemente ahorrar tiempo, Peter y Héctor nos muestran con ejemplos prácticos cómo la IA les está dando alas para llegar más lejos.
- La comunidad y sus luces y sombras: Desde los agradecimientos más emocionantes hasta las críticas injustas e incluso amenazas legales por software altruista. Nuestros invitados comparten sus vivencias con honestidad, incluyendo el desgaste emocional y la importancia de los apoyos sinceros.
- Proyectos futuros: Nuevos desarrollos como una herramienta basada en VirusTotal, la mejora del TCA Video Creator, y una prometedora línea de software con modelos de IA ligeros que puedan ejecutarse en ordenadores domésticos para tareas como traducción simultánea y descripciones en tiempo real.
- Y por último, una joyita más: Héctor también nos presenta su primer juego accesible para personas ciegas: Rumbo Ciego, un divertido experimento con gran acogida entre la comunidad.
Un episodio inspirador, técnico y humano, que muestra el valor de la colaboración, la autonomía digital y el compromiso con una accesibilidad práctica y real. Si alguna vez has querido entender cómo trabajan los desarrolladores ciegos o cómo la inteligencia artificial puede cambiarlo todo para una comunidad, este episodio es para ti.
Escúchalo ya en todas las plataformas de pódcast y en nuestra web:
Intervienen:
Enlaces a Sitios referenciados en el episodio:
WasapiRecording1.1: Graba Voz y Sonido sin Mezcla Estéreo – Héctor Benítez.
Rumbo Ciego - Juego de Laberinto Accesible– Héctor Benítez.
Sitio web de AudioCinemateca (accede a una colección de películas y series con audiodescripción).
Créditos:
Duración: 01:47:26
Descripción detallada del logo de Episodio 21. Tecnoconocimientoaccesible: desarrollando tutoriales y buen software para todos
La imagen tiene un estilo gráfico retro, con un esquema de colores en tonos azul y beige. A la derecha, hay un personaje masculino que parece un profesor o presentador. Tiene un bigote prominente y lleva gafas de sol redondas. Su cabello está peinado hacia atrás con un estilo clásico. Lleva auriculares grandes sobre las orejas, lo que sugiere que podría estar escuchando algo o transmitiendo información. El personaje está vestido con un traje formal, que incluye una chaqueta y una camisa con corbata. Está usando un puntero largo en su mano derecha, que utiliza para señalar la pantalla que tiene delante. Su mano izquierda está levantada, con la palma abierta, como si estuviera explicando algo. A la izquierda de la imagen, hay una pantalla rectangular que parece ser un monitor de computadora. En la pantalla, se muestra un fragmento de código escrito en el lenguaje de programación Python. El código está estructurado de la siguiente manera: 1. La definición de una función llamada "func(x)". 2. Dentro de la función, hay una declaración condicional "if" que verifica si "x" es menor que cero. 3. Si la condición es verdadera, la función devuelve el valor absoluto de "x" usando "return abs(x)". 4. Si la condición es falsa, la función devuelve "x" multiplicado por 2 con "return x * 2". 5. Después de la función, hay un bucle "for" que itera sobre un rango de 10 números (de 0 a 9). 6. Dentro del bucle, se imprime el resultado de la función "func(i)" para cada valor de "i". Debajo de la pantalla, hay un cartel con las letras "TCA" en mayúsculas. El fondo de la imagen es de un color beige claro, lo que resalta el diseño en azul del personaje y la pantalla. La imagen en su conjunto tiene un aire nostálgico, evocando la estética de los años 50 o 60.
Transcripción de Episodio 21. Tecnoconocimientoaccesible: desarrollando tutoriales y buen software para todos
Episodio 21. Tecnoconocimiento accesible. Desarrollando tutoriales y buen software para todos. Muy de programación, que me encanta. Y con mucha variación. Sobre todo es muy interesante dejar una cosa clara al principio. Nosotros somos grandes defensores de que todo tipo de software sea accesible desde su inicio y que sea software genérico, el mismo que utiliza todo el mundo y demás. Pero eso, desgraciadamente, no es así. Mucho del software que utilizamos no se comporta de forma elegante, precisa y ágil con nuestros lectores de pantalla. Entonces, es importante que hayan personas y que hayan sitios y lugares donde se trabajen varios aspectos. Uno, que el software se lleve mejor con nuestros lectores de pantalla. Otro, que existan unos tutoriales adaptados que, lógicamente, con los temas de YouTube y demás, la gente pone mucho gráfico y una persona ciega no es capaz de seguir lo que es el paso a paso. Y tres, que se desarrollen hasta aplicaciones, que, verdaderamente, no solo se lleven bien con los lectores de pantalla, sino que se lleven extraordinariamente bien y sean maravillosas. Y, bueno, un poco de eso es de lo que queremos hablar hoy. Sí, eso es. Lógicamente, dentro de la comunidad de personas ciegas, si un usuario de lector de pantalla hace un programa, lógicamente va a ser accesible desde el inicio, al menos para lectores de pantalla. También sería lo suyo, sería ideal que, además de ser accesible, para usuarios con lector de pantalla, pues que, incluso visualmente, pues también fuera atractivo a la vista. Esto lo tenemos más complicado, sin ayuda, lógicamente, porque si no vemos, pues difícilmente vamos a poder hacer una interfaz visual agradable. Pero, bueno, es un inicio, ¿no? Lo suyo. Es un propósito, además, que los desarrolladores ciegos lo tienen en cuenta. Y yo creo que, día a día, aparte de las herramientas que ya tienen con la inteligencia artificial, el buscar colaboradores, que habitualmente se suele hacer, lo van a encontrar para darle una estética y una imagen al software, es importantísimo y creo que se tiene en cuenta. Nosotros ya sabéis que somos antiguetos, pero sí que es verdad que es todo bueno, que sí que somos prosuavizante, es decir, no nos gusta que nos raspe la ropa, tampoco nos gusta que nos raspe el software, por eso este tipo de software nos encanta. Yo conocí un software maravilloso, a ver si conoces a la persona que lo desarrolló, que se llamaba Gladiator, no sé si tú lo recordarás. No sé, no sé, a ver qué piense... Que en un momento dado me solucionó la vida. ¿Lo conoces? Se llama Arturo Fernández. Ah, me suena a algo, me suena a algo, sí. No sé, no sé de qué. Bueno, pues tú mismo, Arturo, has sido también copartícipe de este tipo de cuestiones, de facilitar la vida para las personas, que en aquel momento sí que teníamos poquísimo software. Y bueno, tú con tu Gladiator, que lo que hacía era coger el formato DAISY y extraer el MP3 y que pudiéramos reproducirlo en nuestros reproductores de MP3 o teléfonos móviles, porque en aquel momento no existían DAISYs portátiles ni nada de esto. Y bueno, nos vino muy bien. Y bueno, no me enrollo más. Fin de batalla. Exactamente, esa es la idea, ¿no? Hacer algo además que sea accesible para todos y además muy usable, ¿no? Que sea muy sencillo, que también la accesibilidad va de la mano con la experiencia de usuario y la llamada usabilidad, que esto, bueno, otro día nos liaremos con estos temas, que efectivamente pues tiene que ser muy sencillo, ¿no? Porque muchas veces los programas informáticos los hacen ingenieros para ingenieros y hace falta hacer un cursillo de informática para aprender a manejarlos, ¿no? También es importante que sean muy sencillos para que todo el mundo los pueda manejar. Sí, señor. Eso es importantísimo. Y hoy tenemos a dos personas de la comunidad de personas ciegas que están haciendo mucho, ¿no? Porque esto sea así, no solo dotando de usabilidad o manejabilidad al software, sino también difundiéndolo y sobre todo de manera altruista, que a mí esto me alucina, porque son horas y horas de investigación y de trabajo para ponerlo sin ninguna contraprestación, nada más que la satisfacción personal al servicio de la comunidad de personas ciegas. O sea, en este caso hispanoparlantes, pero bueno, también en algunos casos con traducciones. Y bueno, adelante Arturo. Sí. Y hoy pues eso, tenemos una comunidad, ¿no? Porque también es importante que no vayamos un poco como francotiradores, porque a veces haciendo cosas solas pues efectivamente podemos hacer cosillas, pero si nos unimos pues también será mucho más lejos, ¿no? donde podamos llegar. Tenemos la comunidad tezno-conocida. Sí. Y tenemos a Peter. Muy buenas, Peter. Hola, ¿qué tal Arturo? Muy buenas. Muy buenas a Ricardo y también un saludo para Héctor. Un saludo también para todo el público que escucha vuestro podcast. Encantado de estar aquí. Muy bien, Peter Reina. Encantado también de que estés con nosotros. Y bueno, ahora presentaremos a Héctor, que ya no es la primera vez que está con nosotros. Y luego nos hablas un poco de quién es Héctor. Sí, es Peter Reina, de acuerdo. Hola Héctor. Héctor Benítez, ¿cómo estás? Bienvenido de nuevo. Buenas, ¿cómo estáis? Pues nada, encantado de estar aquí. Y sobre todo de hablar de un tema que, bueno, en los últimos años ha ocupado parte de mi vida y que me apasiona. Muchas gracias a los dos por estar hoy con nosotros y acompañarnos y hablar de lo que, bueno, es un poco la pasión de todos. Pues Peter, cuéntanos que tú es la primera vez que estás en Gafotas, Gatos y sus Aparatos. ¿Quién es Peter? Bien, pues gracias por la invitación. Encantado, como dije, de estar aquí en vuestro podcast. Y nada, la primera, espero que no sea la última. Bien, pues nada, Peter Reina, pues soy un ecuatoriano que llegó a España... allá en el año 2001, parece poco, pero madre mía, han pasado 24 años desde entonces. Y bueno, ya soy nacionalizado español, vivo aquí en España ya desde entonces y soy licenciado en informática. Estudié en Ecuador y un apasionado también de la tecnología. Perdí la visión prácticamente acá. Todo, porque ya venía con... un problema degenerativo de la retina. Pero acá en España fue donde conocí, en el 2007, los lectores de pantalla. Y desde allí fue como un... reintegrarse al mundo de la informática y de la tecnología. Más o menos desde ese año es donde yo empecé a, digamos, a sonar en esta comunidad del colectivo. De personas con discapacidad visual. ¿Y cómo te dio por aquí, como por este proyecto, esta comunidad? Cuéntanos los orígenes de TCA. Recuerdo que en ese entonces, por ahí 2007, 2008, estaban muy de moda las tertulias en Sky, ¿no? Por ahí yo conocí gente y empecé a echar una mano a quien yo podía, ¿no? A quien yo podía echar una mano, con lo poco... o lo que sea que sabía. Intentaba hacerlo y cada vez las personas eran más. Entonces, desde esa perspectiva nació la necesidad de, digamos, intentar llegar a un público más amplio, ¿no? Entonces, hubieron personas que me recomendaron, oye, ¿por qué no te montas una página web y tal? Pues mis capacidades económicas no me permitían comprar una página web. Así, propiamente dicho, ¿no? Pero, pues, me dijeron, pues, un blog. Pues ya está. Entonces yo dije, vale, pues voy a poner un blog. Yo ya había hecho un intento antes de poner un blog, pero era escrito todo. Y la verdad que no lo leía ni mi familia, yo creo. La verdad. Y luego ya, como ya en ese entonces, yo ya había empezado a hacer audiotutoriales. Entonces dije, oye, ¿por qué no...? ¿Por qué no ponerlos también en este espacio? Que así podrá difundirse de forma masiva, ¿no? Y llegar a más gente. Y así la gente, pues, pudiera tener un espacio, un sitio, donde ir a escuchar o descargar un tutorial, un programa, aprender alguna cosa. Y que, bueno, podamos así ir... estando también a la vanguardia con la tecnología y no quedarnos atrás. Porque siempre mi idea ha sido esa, ¿no? Intentar aportar algo, ¿no? Algo a este colectivo para... no para que siempre pregunten o qué tal, sino para que nosotros, como personas con discapacidad, tengamos esas posibilidades que las tenemos y de poder hacer las cosas por nosotros mismos. La idea era compartir conocimiento, ¿no? Pues trucos o guías o audio guías, audio... de alguna forma en audio, pues compartir con otros usuarios cómo hacer las cosas o cómo hacerlas mejor, ¿no? Así es. Yo, como te digo, empezaba a hacer los tutoriales y desde ahí pues empecé a compartir todo lo que yo iba sabiendo manejar con el lector de pantalla. Tutoriales escritos, audiotutoriales... Todo lo que caía por ahí y que yo pensaba, que podía ser de utilidad para la gente, yo intentaba irla ahí poniendo en el blog y de a poco fue el blog, pues, agarrando su público, digamos, ahí ha sido seguidores y se fue haciendo conocer de a poquito, pero desde el principio, la verdad, a la gente le gustó. A la gente le gustó el proyecto y, bueno, desde el 2014, que es cuando empezó, aquí estamos. De hecho, le gustó y, realmente, yo creo que fue muy oportuno tanto tu blog como otros que surgieron a la par. En tanto en cuanto, pues, estábamos viviendo ya el ocaso de las listas de distribución, del correo e-mail como distribuidoras de software y demás. Es decir, esto, bueno, pues yo pienso que es más de los 90 o por ahí. La gente empezaba ya a controlar mejor los entornos dentro del blog. Lo que es Internet y la navegación. Los pods sí que se destacaron como un sitio, como una bitácora donde ir contando lo que hacíamos y ir colgando distintos efectos o componentes multimedia. Y bueno, en aquel momento llegó Tecnoconocimiento Accesible, que en principio y lo que yo más recuerdo, porque yo creo que soy también muy antiguo, desgraciadamente, no cooperando, Porque yo realmente ni he cooperado ni he hablado nada, pero bueno, sí que me he servido del blog. Yo recuerdo en los lectores de pantalla, es decir, de hecho yo creo que durante mucho tiempo mis lectores de pantalla, tanto Jaws como NVDA, los obtenía de tecnoconocimiento accesible. Y supongo que como yo habría un montón de gente aquí en el otro lado del charco que haría lo mismo. Tú conocerás los números, ¿no, Peter? Sí, antes, sí, sobre todo empezamos con eso, ¿no? Todo lo que fuera, digamos, accesible para utilizarlo con lectores de pantalla y los lectores de pantalla en sí. Y de verdad que coincide con algo que dijiste, Ricardo, que fue, digamos, el que en ese entonces... Las listas de correo iban siendo menos populares, digamos así. Yo también por ahí también empecé, porque como les digo, retomé en 2007 y por ahí también yo sí estuve en alguna lista, en algunas, unas cuantas. Pero esto del blog sí fue ya otra cosa, saltar, digamos así, de las listas a este tipo de plataformas donde podíamos disponer de... De contenidos, incluso de links para poder descargar estos programas, ¿no? Como los lectores de pantalla que tú estás... que están mencionando. Los números, la verdad, no recuerdo así cuánto, pero sí mucha gente empezó a visitar el blog y a conocerlo y a difundirse. Y también empezó a haber colaboradores. Sí, hubo desde... Desde el inicio, después de que la gente empezó a visitarlo, a conocerlo, a descargar cosas, hubieron muchas personas que quisieron colaborar de alguna manera u otra. Algunas haciendo aportaciones de software, digamos así, poniéndome en mis manos, digamos, Peter, mira, este programa, yo creo que tú lo podrías publicar en el blog y tal. Y así nacieron... Gente que colaborara en esto, ¿no? Y como Héctor Benítez también, que desde hace muchos años empezó también a pasarme cosas, herramientas, y de esta manera es una forma de también colaborar, digamos así, con el proyecto, ¿no? Y así hubieron otras personas que incluso se atrevieron a hacer tutoriales de a poquito, aunque mucha gente no arrancaba. No sé por qué, porque hay mucha gente... Mucha gente valiosa en este colectivo, que hace tutoriales muchísimo mejor que yo y tal, pero a lo mejor no sé qué les pasaba. Les daba, no sé, corte o algo, pero bueno. La cuestión es que el blog también siempre ha estado abierto a los aportes y a que la gente vaya intentando poner su granito de arena a este colectivo. Era importante que hubiera un pionero y marcar el camino para que los demás... Es que es muy sencillo cuando alguien ya mantiene una plataforma. Le da cierto sentido y contenido luego publicar. Es decir, con lo cual lo tuyo, Peter, tiene mucho mérito. Y Héctor, ¿cómo conociste Tecnoconocimiento Accesible? Porque tú estás metido en todos los fregados, macho. Yo creo que participas con todo. Participas hasta conmigo también en un repositorio de apps y en otras muchas cosas. Pero, ¿cómo conociste Tecnoconocimiento Accesible? Pues, si digo la verdad, no me acuerdo. La verdad, no sabría decir. Hace muchos años, de hecho, siempre ha estado en mis favoritos y, bueno, de hecho, a día de hoy creo que soy uno de los que a Peter molesta los lunes si no hay entrada. Oye, tío, estás bien. Entonces, ya digo, no sabría acordarme, pero hace muchos años. Yo creo que a lo mejor no. En el 2014, pero 2015, yo creo que fue cuando cambiamos a Windows 10. Que pasamos de Windows 7 a Windows 10. Yo fui muy impaciente y me parece que por aquella época ya Peter empezó también a ser muy impaciente y yo creo que por el 2015 fue cuando yo lo conocí. Seguramente tuvo que ser con alguna entrada de Windows 10, si no voy mal equivocado. Porque vuestra relación de afinidad, de admiración mutua, de comprensión. Compartir y demás, ¿es a raíz del blog? Creo que sí. Es que tampoco me acuerdo cuánto años ya hace que nos conocemos. Es que yo tengo una laguna en estos últimos años. Como que han pasado muy rápido, han pasado muchas cosas y ya no sé si es más antiguo, más moderno, más... No sabría recordar. Es la vibración de la resonancia Schumann que produce ese tipo de efectos. Te dicen cuando eres pequeño... ¿Qué te dicen cuando...? Ya te das cuenta, cuando eres mayor el tiempo pasa mucho más rápido y tú dices el tiempo pasará igual y pues no, no, se nota, se nota. Y aunque todos los colaboradores pues tampoco pueden estar aquí porque si no esto sería un lío. Si queréis podéis mencionar algún otro para que, bueno, por lo menos que estén un poco presentes. Bueno, coincido también con Héctor que el tiempo pasa y uno no se da cuenta. En 2014 que nació el proyecto, estamos a 2025 y... No, no parece que hayan pasado 11 años, la verdad. Colaboradores y colaboradoras fueron, hubieron algunas personas que estuvieron echando una mano de una forma u otra. Más que todo con lo que les he comentado, ¿no? Con la de pasar programas o algún tutorial, por ahí, ¿qué te puedo decir? Es que no quiero dejar a lado a personas y nombrar solamente a algunos. Pero han sido bastantes personas y de verdad desde acá yo aprovecho a darle las gracias a toda esa gente que ha intentado, ha intentado estar allí contando conocimiento accesible. Aportando de alguna manera. Han sido mucha gente. Directamente conmigo, por ejemplo, colaborando así en en blog. Yo siempre casi que he sido solo. Eso sí que lo digo, ¿no? Ahora mismo, ahora mismo sí que tengo la colabora... Ya ellos están manejando, se han comprometido un poco más, Libardo Nova y Mauro Campo, ahora sí están ellos editando en el blog, están incluso publicando, cosa que antes solamente era yo. Y creo que ya era hora de que alguien también viniera acá y agarrara ahí la batuta y empezara a compartir, porque... bueno, lo voy a decir aquí despacio, pero uno ya se va siendo mayor. No voy a repetir. También te pasa el tiempo deprisa, ¿no? Mucho, mucho deprisa. Muy bien. Pues sí que nos gustaría saber por qué comenzó el blog, pero de cara a difundir lo que son los contenidos, no solo tenéis el blog, ¿no? Tenéis otro tipo de canales. Sí, después de Bloggers, que es donde está el blog de Google, después de eso ya en 2017, si mal no recuerdo, creé el canal de... de YouTube y empecé a subir de a poquito contenido. Primero puros audiotutoriales, eran lo que había en YouTube, un audiotutorial con, me acuerdo que utilizaba una plataforma que se me escapa el nombre ahora, que te permitía unir una imagen, subirla y el audio y te lo unía y te lo publicaba así y así, fui publicando en YouTube los audiotutoriales que fueron hasta hace más o menos unos tres años, atrás cuando, tres o cuatro, no más de eso, cuando ya empecé a publicar videotutoriales, dicho sea de paso porque acá en... yo vivo en Almería y tengo gente que me conoce de la ONCE y que yo no lo sabía, pero que también ya sabían de mi canal y de mi blog y empezaron a seguirlo y por ahí me tiraron las orejas, me dijeron, oye, pero... Estabas excluyendo a gente con baja visión e incluso a la gente que ve de tu contenido, porque hay cosas que se pueden sacar de allí y provecho, incluso para enseñar a alguna otra persona, ¿no? Entonces, nació eso el canal. Luego empecé a subir el podcast a Evox, creo que ya lo dejé porque la verdad que se me complicaba bastante y ahora he intentado, no me acuerdo desde cuándo, ya creo que unos, también unos tres años atrás, empecé a subirlo a Anchor, que ahora cambió de nombre, creo que se llama Spotify y algo más, el nombre es un poco raro, pero que es el de Spotify. Entonces se publica en varias plataformas, en varias plataformas a la vez. Luego también el canal en Odise, que la verdad, ese también, ese se sube de forma automática y ya está. O sea, está el contenido replicado, lo que se sube a YouTube, automáticamente se carga en Odise, igual, parecido a YouTube. Y ya después, por tanta insistencia... Porque había mucha gente que me decía, vaya Peter, ¿por qué no te creas una lista de correo? Yo le dije, no, yo lista de correo creo que eso ya pasó, aparte que no es lo mío y encima no tengo tiempo. Entonces, dije no. Me insistieron desde el año 2019, más o menos, empezó eso de mi insistencia con que mira, que créate un canal, que créate... Bueno, empezó WhatsApp también, ¿no? Entonces, los grupos de WhatsApp, que créate un grupo de WhatsApp, que no sé qué. Bueno, en 2021 me convencieron. Entonces, se creó el grupo de WhatsApp, de a poco también ha ido creciendo. Y posteriormente, me parece que también eso fue en 2021. A finales de 2021, también se creó el grupo en Telegram. Hubo unos fallidos por ahí que no lo creé yo, otra persona me pidió permiso y tal, pero bueno, esa es otra historia. Y luego ya decidimos crear el de Telegram, que lo tenemos ahí y también, pues, tiene unas cuantas personas. Eso es lo que tenemos por ahora de tener conocimiento accesible. Hemos hablado un poco, pues, de la parte más general, de compartir trucos, de compartir programas, aplicaciones que existen por ahí, por Internet en general, por esos mares del Internet, pero un punto fuerte, ¿no?, que últimamente tiene la comunidad de TCA es el software propio. ¿Cómo es esto? Bien, pues, el software propio nació de, como creo que nace todo programa, ¿no?, de las necesidades de cada uno, individuales. Y yo empecé a seguir intentando aprender cosas, la programación siempre me ha gustado. En la universidad me enseñaron las bases, digamos, de la programación, pero, claro, yo estudié hasta finales de los 90. Y allí, pues... Creo que en el Python no estaba, que es en lo que yo, digamos, me he enfocado más a intentar aprender. Fui aprendiendo y, en cuanto fui aprendiendo, partiendo de las necesidades que tenía, por ejemplo, la calculadora de Windows jamás me ha gustado nada, su accesibilidad, su usabilidad. No es que no se puede usar, se puede utilizar, pero, la verdad, a mí en lo personal no me ha gustado nada. Pues dije, bueno, pues, con lo que sé. Intentar hacerme una calculadora. Pues ya empecé, contése acá al Converter, que fue el primer programa en el que me monté a desarrollarlo. Y la versión 1.0, la verdad, la hice con, yo creo que con pocos, pocos, poquísimos conocimientos. Y con muchos dolores de cabeza. Y desde allí ya, digamos, empecé por ahí, ¿no? A partir de allí, ya el segundo programa en el que empecé fue, a desarrollarlo, fue TCA Media Downloader, la versión 1.0. Que fue la idea, digamos, esa de agarrar un link y pegarlo en un campo de texto y poder descargar desde YouTube, Facebook y Twitter y demás, que era lo único que hacía el programa en esa... en esa versión. Y allí, pues, que ya lo conocí a Héctor. A Héctor le... Ya empezamos a intercambiar preguntas y tal. Y yo empecé a molestarle la vida a Héctor desde entonces. Y él me empezó a dar consejos. Él es un programador que tiene muchísima más experiencia que yo, sin lugar a dudas. Y, pues, yo empecé a escucharle a él y a intentar mejorar. Al TCA Media Downloader y le fui pasando las versiones a Héctor y Héctor se fue, a poco, le fue gustando el software hasta que llegó, pues, a meterse como desarrollador del software y desde la versión 2.0, el desarrollador es él y aquí está él para que lo diga. Sí, bueno, yo se la robé. No, yo venía mucho tiempo... Ya jugando con una de las librerías que usa TCA, Media Downloader, entonces, cuando vi la entrada y vi lo que hacía el programa y vi viendo su desarrollo, porque, bueno, él dice que solo hacía eso, pero bueno, empezó en la 1.0 y creo que terminó sobre la 1.6 ya haciendo muchas más cosas. Yo conocía bastante a fondo la librería que usa... El cerebrito, ¿vale?, de TCA Media Downloader y yo sabía que tenía un potencial brutal para poderle hacer. Lo que pasa que, muchas veces, cuando uno programa lo que hace falta es tiempo, no es otra cosa. Entonces, bueno, nos pusimos a hablar y llegado un momento yo le dije, mira lo que tengo. ¿Por qué? Porque yo me puse a partir de la base de TCA... Media Downloader 1.5 o 1.6, hacer la misma interfaz que tenía él, pero agregándole más funciones que yo conocía de la librería. La librería que usa es muy extensa, muy extensa, hay que perder mucho tiempo con ella para conocerla. Entonces, bueno, yo en ese momento tenía los conocimientos y dije, mira lo que hay, le gustó y me lo quedé. Y ahí, pues bueno, ahí ya fueron saliendo las artistas. Tintas versiones hasta la de hoy en día, que es la 3.0 y, bueno, ha ido mejorando y, bueno, mejorará, mejorará, con el tiempo mejorará. Es algo que está aparcado ahora mismo, pero, vamos, no descatalogado. Y ya digo, la idea primera fue de él. De hecho, yo usaba esa librería en consola. Y cuando vi la interfaz, digo, ¿y por qué no? Y, bueno, gracias a Peter, pues al final ha terminado saliendo un software que creo que es muy bueno. Héctor, no hemos comentado antes que prácticamente todo el desarrollo es para entornos Windows. En este caso, TCA Media Downloader es para Windows. Y exactamente esta última versión, esta versión final, que aunque esté siempre en constante desarrollo, ¿qué es lo que hace? Es que... a ver, puede hacer mucho. A ver, puede descargar de casi 2.000 páginas. Puede reproducir de otras cuantas, en distintos formatos. Se han ido agregando nuevas plantillas para nuevos formatos. Se puede buscar. Tanto una búsqueda normal... como playlists o canales. Las playlists se han roto. Y estoy trabajando en ello, pero de momento no doy con la tecla. ¿Vale? Por todos los cambios que hay en la plataforma que se busca, que es YouTube. Todo de manera totalmente accesible. Podemos reproducir, descargar. Podemos extraer audios de MKV. Podemos extraer audios. Podemos descargar algo que yo sí que quería. Eh... Eh... Varias descargas a la vez. ¿Vale? Cosa que yo creía que este programa podía hacerlo. Y bueno, fue una de las cosas que más costó. Podemos guardar nuestros favoritos. Podemos ver en directo un chat. ¿Vale? Si nos conectamos a un canal que tiene chat en directo. Pues podemos hacer que nuestro lector de pantalla vaya leyendo lo que van escribiendo. Un chat de YouTube. Sí, un chat de YouTube. Y creo que algunas cosas más por ahí tiene. Que puede descargar playlists, canales, todo de golpe. Hacer búsquedas. Sí. Hay un apartado en herramientas donde uno puede consultar las páginas que admite. Hay una opción en la cual nos saca una lista. Y bueno, ahí podemos ver todas las páginas que admite la librería. Es una librería que se actualiza mucho. Entonces, bueno, un día puede que te funcione. Y otro día puede que no te funcione una página. Pero al día siguiente sacan una actualización y te vuelve a funcionar. Y te agregan a lo mejor dos más. Entonces, bueno, ya digo, es una... Ah, bueno, sí. Y otra cosa que sí quería yo. Y de momento sigue pasando. Salvo lo de las playlists. Es que fuera a futuro. Que no dependiera de actualizaciones de lo que es la aplicación. Para que la aplicación siga funcionando. Entonces ya me ocupé de directamente poderse descargar la librería. El cerebrito del programa, pues automáticamente. Y que siguiera, pues eso, viviendo. Y bueno, hace un año y pico que no la actualizo y sigue ahí. Muy bien. Pues vamos a continuar con más aplicaciones TCA. Con más software. Así que, bueno, cuál queréis que hablemos ahora. ¿Cuál le tienes más cariño, Peter? Bueno, yo cariño realmente le tengo a todos. Todos para mí tienen algo especial. TCA Software, de ahí ya fui yo después de TCA Media. Que le pasé la aposta a... al señor Héctor. Que dicho sea de paso, Héctor, también... que me gusta mucho esa funcionalidad que le ha puesto antes de meterme con los otros programas de TCA. La de ver la información de... Bueno, ver en el sentido que sabemos todos aquí en este colectivo. La información de los comentarios, ¿no? Los comentarios, ver la información del video. Y por ahí podemos sacar también toda la playlist de un canal. Podemos ver su... los videos que tiene y la información. Incluso los comentarios de un video. Me gusta mucho esa funcionalidad que le implementaste. Bien. Después de TCA Media Downloader, me parece... A ver si no me traiciona la cabeza. Me parece que salió TCA ConvertDoc. Me parece que fue el que le siguió. Este programa para poder pasar de... entre formatos de documentos, HTML, PDF. Y tal que también de a poco fue... fue madurando. Fue cambiando. Y creo que cada vez... a mejor, ¿no? Yo iba aprendiendo un poco más. Iba intentando pulirlo. Así como todos los... los demás programas como... como otro que también salió para... en el principio, digamos. Así fue de los primeros que también fue... TCA System Optimizer. Ese no se actualiza mucho. Tengo... actualización tengo de todos. Ahora lo digo acá. De todos yo tengo actualización. Yo las voy probando. Se las voy compartiendo también a ciertas personas que también... son beta testers. Bueno, nada. El TCA System Optimizer... de ahí... pasé al TCA Audio Converter. El TCA... Renamer que salió hace poquito. La versión 1.1. La versión 1.0. Muy sencillo ese programa pero... ya te digo, a mí me resultaba... funcional para lo que hace. El... después TCA Renamer vino... TCA Renamer era un renombrador... de... archivos, ficheros... y al mismo tiempo... y un localizador, ¿no? También... de archivos y ficheros que era capaz de ordenar... en carpetas, ¿no? Sí, claro. La versión de ahora... Yo la hice por el desastre que tengo... yo siempre por ahí en... en ciertas carpetas de... de mi disco. Conforme vas guardando y luego... al final dices, bueno... Madre mía, es un desastre. Siempre, yo soy así. Voy acumulando... cosas allí. Entonces este programa... agarro, le paso la ruta... y él, venga, pimba... las va poniendo en una carpetita... con su extensión. Yo creo que es más... cómodo eso. Entonces... A mí me ha salvado también, ¿eh? Yo cuando he leído la reseña... que no conocía el programa, he dicho nada. Ostras, es lo que necesito, ¿no? Para mi... carpeta de descargas, que es un caos... de casi cinco... meses de acumular cosas ahí. Sí, precisamente... esa era la idea. Y esa es la idea del programa y... la verdad que a mí, por lo menos... me gusta y... y me sirve... para organizar un poco... un poco el desastre, ¿no? Eso es lo bueno, que lo haces para cubrir... necesidades tuyas y que... pues normalmente... las necesidades que tiene uno, pues las tiene también... más gente. Efectivamente. Efectivamente. Conozco... a mucha gente que también es como yo... que son un desastre ahí... o sea, tienen los... MP3, los WAV, los... TXT, los EXE... todo regado por ahí, entonces pues... este programa viene como anillo al dedo... para eso, ¿no? Pero debes estar... tranquilo porque no tienes neurosis. Si eres así es que no tienes ninguna neurosis. Así que fantástico. Así es. ¿El TSA Clean? El de limpiar... El TSA Clan Apps. Sí, el TSA Clan Apps que también... es parte también de esa necesidad... los gigas y gigas y gigas que... sobre todo WhatsApp... de escritorio se empeña... en ponernos... allí y... navegadores como Firefox que no sé... por qué se empeñan en ponernos tanto... caché de llenarnos de tantos... gigas ahí. También tengo otra versión ya de ese paso... de esa, ya mismo la saco. Va a quitar... más basura, más todavía. El TSA Clan Apps... El objetivo de este programa es limpiar basurilla que se va... acumulando en nuestros ordenadores, ¿no? La basurilla que se pueda limpiar de forma... Y liberar espacio, ¿no? Liberar espacio, pero... mogollón. Porque WhatsApp... hay gente que... que me han escrito... han dicho, Peter, de verdad te agradezco porque... tú no sabes que yo quité... setenta gigas de mi disco duro. Me has ahorrado... comprarme un ordenador nuevo. ¿Habláis del... WhatsApp que se instala desde la Microsoft... Store, el escritorio? Sí, sí. Sirve para... Sí, para ese. Y creo que por ahí hay un punto excelente. También servía para ese, también lo hice para... soportar a ambos. Vale. El programa. No, digo, si la suciedad lo generan ambos. Sí. Sí, sí. Vale, yo es que no... no me había percatado de esto... y lo tendré que comprobar porque yo lo utilizo... en el PC. Claro, todos los audios que intercambias... vídeos, cualquier cosa, se queda ahí en una caché... en un sitio, tiene que estar, y se queda ahí... para siempre. Claro, y así borres... es que creo que es un bug de... del programa porque... Bueno, no sé, no sé. Porque si tú borras, digamos, esa... Yo creo que... y siendo una aplicación de meta... y teniendo tantos ingenieros... No sé, no sé. La estás poniendo a huevo. La verdad es que no sé... pero no me quiero meter con nadie... pero bueno... para mí es extraño, la verdad, que yo borre... digamos, yo voy a borrar... todos los chats... y que en mi PC se queden 70 GB... pues, que no tiene mucho... sentido. Yo por lo menos no haría un programa mío... que borre solamente... digamos acá... en la cara y dentro interno... me deje toda la basura. Bueno, pero es que estamos hablando... de este WhatsApp de escritorio que para... el PC a mí me viene muy bien y muy cómodo... porque utilizo el QWERTY y puedo escribir... y contestar y eso, y muy bien... pero verdaderamente es muy rocoso... y no, a mí no me resultó... no lo veo bien rematado... el programa en Windows. De hecho, hay muchas funciones... que las puedes hacer en... en Android... y en iOS con el WhatsApp... y por ejemplo no puedes hacerlo desde... la versión que tienes de escritorio en el PC. Es decir, no me parece... un programa muy atendido y probablemente... esa sea una de las razones por la... por lo que tú comentas... que bueno, que no hayan rematado lo que es la limpieza... final del... ¿no? de lo... de lo que hay en caché en este caso. Sí, yo creo que Héctor estará conmigo, Héctor. Yo creo que... yo no consigo un programa... de Héctor... que es muy perfeccionista con sus programas... que vaya a ser lo que hace... WhatsApp. ¿O me equivoco, Héctor? No, no, no. Yo además soy un... maniático... de no dejar... contra menos rastro, mejor. O sea... bueno, hablamos de WhatsApp... o Unigram, por ejemplo... que es la que se suele usar, pues también... y hay muchas otras que también, la verdad... que dejan unas cachés que... bueno... que está muy bien tener aplicaciones... porque hay más aplicaciones del tipo como... que sea... pero... muchas veces lo hemos hablado... Peter y yo... la sencillez y la rapidez. Y encima que sea accesible. Las hay... pero no tan rápidas... y no tan accesibles. Yo la uso mucho, por ejemplo... y a veces me asusto... lo que borra. y a veces me asusto... porque no me asusta... pero no me asusta... porque no me asusta... porque no me asusta... porque no me asusta... Porque una característica importante... de todas estas utilidades... de toda la familia de TCA, es que son... programas portables, que no lo distan a instalación. ¿Cómo es esto? Sí. O sea... una de las filosofías mías es... la que ha dicho Héctor... no dejar rastro. Yo sé lo que es... un programa... no voy a nombrar... porque no quiero herir sentimientos... aquí de nadie, pero... pero hay programas que dejan muchísima... basura... en el sistema, y yo también soy... un maniático de eso. Es que soy... no sé... que no me gusta nada... que... que deje rastro. Por eso... también utilizo... programas como VirtualBox... y tengo allí... otros diez sistemas... operativos... máquinas... donde ahí le puedo meter todo... sin piedad. Que hagan desastre los programas... que hagan lo que quieran. Pero en mi... máquina anfitrión, yo soy... siempre lo estoy... limpiando, siempre estoy... dándome... observando... que no se quede nada por ahí... No me gusta. No me gusta nada, y por eso... mi filosofía como desarrollador... de software es esa... dejar el mínimo... el mínimo rastro. Les adelanto que por ejemplo... va a salir el TC Audio Converter... que es otro de mis programas... que convierte formatos de audio... que lo que sí le he puesto ahora... pero es algo que va a ser opcional... va a ser algo que si quiere el usuario... lo va a poder hacer... es que en el menú de contexto de Windows... va a poner una entrada para... para que directamente puedan abrir desde ahí... o sea, se paran encima de un archivo... de audio o de vídeo... y lo puedan gestionar con el... con el TC Audio Converter. Se olvida de muchas... a ver... creo que Peter antes lo ha dicho... o sea, todo esto salen de... necesidades de uno mismo... yo por ejemplo, el otro día... cuando lo hice... tuve que llamar a Peter y decirle... tío, me has salvado la vida... porque... por ejemplo, me parece una maravilla... DCA Boot Manager... perdón... ¿se llama así? sí... es una maravilla... es una simple aplicación... muy pequeñita... la cual te permite arrancar el ordenador... desde la unidad que uno le diga... ¿qué pasa? que te puedes encontrar... yo por ejemplo, tenía un mini PC... de estos chinos... que no trae menú de arranque... entonces... la única manera era entrar a la BIOS... y cambiar... el boot de arranque... claro, se me encendió la bombilla... digo, si este hombre tiene esto aquí... pues perfecto... no tuve que lidiar con la BIOS... no tuve que... molestar a alguien para que me ayudara... a... a entrar en la BIOS... porque no son accesibles... y pude formatear perfectamente sin ayuda de nadie... mi mini PC... chino... entonces... es eso... son pequeñas herramientas... pero que son muy grandes en sus funcionalidades... porque la verdad... las tienes ahí... no las usas en mucho tiempo... pero cuando las necesitas... son eficaces... y solucionan muchos problemas... nuestra idea es mostrar un poco el catálogo... y diferentes funciones que se pueden hacer con estas herramientas... luego el que quiera profundizar más en ellas... por lo menos que sepa que existen... porque muchas veces no sabemos ni que existen... y difícilmente las vamos a poder encontrar... si sabemos que existen... y que se puede hacer... pues luego ya el que no necesite que busque... y por ejemplo otra muy interesante... que también me ha salvado de alguna cosilla... el TCA Video Creator... que se puede crear... con esto... claro... y ahora... la que va a salir... yo creo que va a gustar más... va a gustar más... de a poco también esa aplicación... ha ido cambiando... ha ido por sus etapas... desde muy primitiva... ahora... a hacer lo que hace... y en esto también... Héctor también en esa aplicación... me pasó un... un módulo, una clase... con la cual me ayudó a optimizar... las presentaciones... en TCA Video Creator que hasta ahora está... y seguiré estando... la verdad que excelente... y... de a poco... ha ido ganando en funcionalidades... el TCA Video Creator... bueno les adelanto... la función de cortar videos... ahora está mejor... va a estar mejor en la versión 1.9... y va a hacer otras cosas también... va a poder mezclar audios... ya vamos a poder mezclar audios... teniendo un video... con lo cual muy muy sencillo la verdad... y los cortes van a ser muy sencillos... puede detener, parar y tal... viene mejor... esta... esta aplicación... que de a poco he querido... irle poniendo cositas... y aparte de... de la ayuda que siempre... con Héctor más que todo... siempre le he preguntado... a él sobre todo... y con la llegada de la inteligencia artificial... pues... la verdad... sin eso... sin esta tecnología... irían un poco más atrás... mis programas... esta es una parte interesante... y si queréis... luego es sobre lo que ha supuesto... dentro de lo que es la programación... la asistencia... de la inteligencia artificial... o de las funciones... que hoy pueden... realizar y como al desarrollador... le está beneficiando... por todo... quitándole carga... de trabajo rutinario... porque entiendo que... en todo caso... uno debe tener la idea... uno debe tener claro... cuál es el objetivo... a partir de ahí tiene que poner las bases de todo... y luego ya lo que haga la IA o no... ya también el bajo demanda o petición... es decir que a fin de cuentas... no nos están dando nada regalado... es decir... hay que llevar a cabo... o no ha aportado tu idea... ¿no Héctor? si nos está regalando algo... y es tiempo... para hacer un desarrollo... cualquiera... me da igual el que sea... ¿qué le pedís a la IA? hay una cosa que tengo... desde que habéis hecho la presentación... y yo quería comentar... a ver... sobre las interfaces... bien hechas o no bien hechas... ¿vale? entonces yo por ejemplo en eso soy... he sido siempre muy meticuloso... siempre me ha gustado... que las interfaces... cuando una persona que ve... que ve bien o tiene un resto visual... pues... se encontrará con una aplicación... o... con una pantalla... que no fuera... distinta... que no pudiera decir... pues oye este botón está mal colocado... ¿y por qué? que raro... me he preocupado mucho del diseño... ¿vale? de hecho... yo incluso pues tengo pantallas... táctiles para con el tacto... ir sabiendo dónde voy poniendo los widgets... ¿vale? entonces... tengo la ventaja también... de que he visto... hay compañeros programadores... que nunca han visto... que es una cosa que les puede costar más... ¿vale? pero yo al haber... visto y tener... lo que es la conciencia de... cómo era una ventana en Windows... de... cómo eran los widgets... cómo es un botón... cómo es un combo box o un check box... o todo esto... pues... en mi cabeza... yo ya me hago la interface y... siempre he sido muy perfeccionista... hoy en día no soy perfeccionista... hoy en día me voy... le meto un prom a la IA... y ya ella me lo hace correctamente... entonces en eso por ejemplo la IA... pues a mí por lo menos... yo no vuelto a hacer una interface... lo que es picar... desde el principio hasta... hasta el final... hace mucho... luego sí que voy haciéndole... arreglitos y unas cosas y otras... pero yo le digo desde un principio el prom... y a partir de esa interface que me da la IA... la IA... es con lo que trabajo... ¿y para cerciorarte de que te lo ha hecho bien... que le pasas otra IA... y le dices que te lo describa? no... no... en eso... todavía no... soy muy maniático... y... ya digo... tengo pantalla táctil... y suelo corroborar... que las cosas están en su sitio... esto es muy importante... una aplicación... una página web... para que sea accesible... para todos... y en concreto... para personas ciegas... para lectores de pantalla... no tiene por qué ser fea... ni muchísimo menos... no... yo creo que... se pueden hacer... cosas bien... e innovar también... yo por ejemplo... a mí no me gustan... las barras de menú... yo por ejemplo... en mis aplicaciones... sustituyo los menús... porque... con un botón... lo convierto en menú... y en un solo sitio... tengo todo... entonces... es una manera de innovar... en ese aspecto... no quiero decir que estén mal los menús... clásicos de Windows... pero... es una manera de decir... es algo innovador... se puede innovar... y el no ver... no quiere decir que no puedas hacer... algo bien hecho visualmente... para una persona... que tiene un resto visual o ve bien... Siguiendo con otra de las aplicaciones... está un poco más reciente... el TCA Transcribe... ¿qué tal esta? Esa pues... esa es la... mi primera... aplicación... basada en un motor que... tiene inteligencia artificial... un motor de Whisper...ahí... y... pues...y está reciente... también ya hay versión... 1.1 Beta... la tengo ya corregida... algunas cositas...no es que la versión 1.0... no funcione...funciona... pero en algunos PC da... algunas cosas que están por ahí... por ahí...unos fallitos... que había que pulirles... estoy trabajando...trabajando en ella... esta aplicación pues que... puede transcribir... audio y video... y...incluso... fíjense ustedes que...sin... yo saberlo...creo que se lo comenté... a Ricardo...hace unos días atrás... Libardo... me pasó un dato...de lo que hace esto... que yo no sabía que lo hacía... yo dije que se podía traducir...porque yo había leído... la documentación...porque me gusta leer... la documentación del motor... entonces...en la documentación... estoy seguro... que...más o menos... decía eso...porque incluso... lo traduje...porque...mi inglés... tampoco es que sea el mejor... eh... y decía que... podía...podía... hacer la transcripción... o la traducción...desde... los idiomas soportados de entrada... al inglés... pero resulta...que... si por ejemplo...ahora mismo... cargamos...un audio... un video...que... esté...en inglés... en francés... en cualquiera de los idiomas... soportados...y por ejemplo... le ponemos...la opción... transcribir... y le ponemos...y le elegimos el idioma... español...resulta... que lo traduce... Sí...es cierto...que me lo comentaste... a mí...y lo estuve probando...y la verdad... es que traduce...hombre...no es la... una traducción...está... excelente...como podría hacerlo...por ejemplo... ChatGPT... modelo 1... que...lógico...o DeepL...que verdaderamente... trabaja...pues con un...supongo... que con un corpus...mucho más rico... pero para... salir del paso...y saber lo que se está diciendo... en ese audio...o en ese video... por supuesto que sirve... hombre...para presentar un trabajo final... no...pero...sí que lo hace... y lo hace de forma... eh...muy ágil y... y muy rápida...yo sí quería... hablar sobre esta...aplicación... bueno...ya ha quedado claro que es un... transcriptor...de audio y vídeo...de... la banda sonora...a...texto... eh...la verdad es que... he de felicitarte porque has hecho un... interfaz...súper sencillo... eh...que se entiende muy bien... eh...has integrado muy bien todo lo que... son los modelos...eh...Whisper... modificados... que trabajan fenomenal... yo he utilizado la API de... de OpenAI para trabajar con Whisper... y...fíjate que estos... modelos son Open Source...son modelos... libres...los que has utilizado...y... y...verdaderamente el que quiera descargar... este programa va a poder...transcribir... de audio a texto...inmediatamente... sin gastar un duro...sin...sin... vamos... simplemente instalándolo y eso...y... son muy rápidos y eficaces... es decir...me ha sorprendido mucho... eh...hasta el punto... de que había trabajado con otros modelos... eh...dentro de...por ejemplo... la plataforma Buzz...que es... otra...y no eran... tan eficaces como estos...con lo cual... creo que es muy recomendable...y hoy en día... se demanda mucho...es decir...la gente... quiere transcribir sus audios...para hacer... trabajos en la universidad y demás...que... eh...probad TCA Transcribe... porque...es fabulosa...eh... De hecho...yo... lo hice...por una...por...porque... tengo una amiga...que está estudiando... y...tenía... el problema...o sea...ella... hizo muchas...horas... de clase...y...la verdad...le cuesta mucho... y me dijo... Peter...mire...es que no hay una herramienta... que realmente me transcriba... porque hay por ahí...ías...que son... que te permiten hacerlo... de forma limitada... realmente...creo que no... yo por lo menos no conocía... algo que... que lo hiciera así...de forma... eh...irlimitada... las transcripciones...entonces pues... me embarqué...en...en esto... ahí también...me... me ayudé mucho de la... de la inteligencia artificial... y... y las interfaces...yo... se parece mucho a las interfaces... de los programas... de TCA software...o sea...yo... el minimalismo... también es otra de la...de la... de los elementos...que yo intento incorporarle a mis programas...o sea...son...son minimalistas...y... bueno...el botón ese que dice Héctor... la verdad...son... son muy prácticos... muy prácticos...bueno sin embargo... vamos...vamos...vamos a discrepar...a mí me gustan las barras de menú...yo que sé...es cosa de...de de apreciación... allí...allí...bueno a Héctor no le gustan... yo lo sé...que lo tengo clarísimo... pero...pues...no sé... a mí me parecen...todavía me parecen prácticas...aunque anticuadas...pero... barras sin cintas...sólo barras... o sea que sí...las barras... las barras de menú...la típica barra archivo... edición...y tal... a mí también me gustan... a mí me parecen todavía prácticas... es bueno... eso es gusto...digo...personal... eh... pero...en la interfaz...las interfaces... yo...intento hacerla... lo...lo más sencilla posible... eh...ahí los... lo... en...lo que nos basamos... en la guía que nos basamos... o sea la guía es la... digamos lo que...gráficamente... tiene Python...una subdivisión... digamos de Python...para... para permitirte hacer interfaces... crear interfaces gráficas...es... WXPython...creo que es la que... utilizamos Héctor...la que utilizo yo... y la que se utiliza en NVDA... es una de las... de las que crea interfaces más accesibles... yo he estado intentando...con otra...que me han pasado...una que se llama Gradio... no sé si Héctor sabrá algo... pero... que hace tipo HTML... he estado y estoy ahí... hice algo...pero la verdad...no...no... todavía no la domino... no voy a decir que no me convence del todo...porque... tengo que darle más oportunidades...yo creo... pero... la sencillez de WXPython... la accesibilidad... de llegar con atajo de teclado... a una cosa... o sea...eso yo no lo cambio... no lo cambio por nada... como Héctor...me encantaría que mis programas... por ejemplo...no fueran...hay una ventana... fea...blanca... o gris...o negra... como te saca al converter que es negra... emmm... pero... se complica la cosa...y se complica... tenemos ahora...inteligencia artificial... excelente...como esto... la que está en la beta... esta...de Google AI Studio... yo la utilizo un montón... que me va traduciendo...describiendo... en tiempo real... excelente... yo la utilizo muchísimo...yo...yo... no tengo pantalla táctil... y...suelo preguntarle mucho... cuando yo creo una de estas interfaces... con WXPython... si los botones están bien colocados... si el Sizer... digamos la...la... la grilla donde ir poniendo... porque yo utilizo eso...una grilla... digamos así...para ir poniendo... los botones donde yo...donde yo... creo que...que deben ir... yo también como Héctor...vi también...interfaces...porque yo también vi... y...más o menos... de ahí me voy guiando... y...le voy preguntándole ahí...a luego... cómo van quedando...me encantaría que fueran... bonitas... pero por ahora me conformo con que sean... funcionales para...para los lectores de pantalla. Correcto. Te refieres a la IA... multimodal que ofrece... Google dentro de su... AI Studio...que es una plataforma... para experimentar... y concretamente lo que estás utilizando es... Gemini 2.0 Flash... para experimentar...que va fenomenal... y te describe el mundo como...vamos... de...de forma fantástica... y bastante confiable...cada día más. Es... es...es alucinante... o sea...yo hice un tutorial... sobre ella y creo que voy a hacer otro... porque...ha mejorado... un montón...no solamente se puede utilizar... el 2.0...allá se puede... utilizar el 2.5 Pro... el otro...son varios... modelos que puedes utilizar ahí... y...sobre todo la... la...la funcionalidad de stream... real time... esa es la que...la que más... utilizo yo y es...es que es increíble... El 2.5 también te permite... stream... esta función...yo es que no soy capaz... de activarla...mira que lo intento... Sí...sí...vale...vale...vale... No...no...no...perdón...te...te... no sé...la verdad que no lo...no... yo lo que sí he probado el 2.5... es con...con otras cosas...no le he cargado... le he cargado por ejemplo... un libro de...de...de...de... 300 páginas...que eso me parece increíble... le he dicho que me haga resúmenes... y...es que es increíble de verdad... el contexto que tiene...la ventana de contexto es... enorme... Qué...qué maravilla estamos...ya siempre...no... ahora nos abduce la inteligencia artificial... y los distintos modelos porque estamos... alucinando... Como las sillas...como las sillas que también alucinan...sí...sí... Sí...sí...exactamente... nos debe haber...haber contagiado... pero...sí que...tienes razón...eh...Peter... es que ahora... y Google creo que ha dado un golpe en la mesa... aunque sale mucho de OpenAI...pero... Google ha avanzado muchísimo... y hoy es capaz...si tú le das un... pronto...en condiciones...no sólo de... escribirte un libro o un cuento...sino... que ilustrártelo y prácticamente... darte las pautas de maquetación... y simplemente lo llevas a la imprenta y ya lo tienes... hecho...y con una calidad bastante... impresionante... eh...y eso lo están haciendo... hoy...las sillas experimentales...eh... es decir...esto...no...no... sé dónde va a llegar... la verdad...yo...yo no lo sé...pero... a mí...por ahora me encanta... me encanta... porque... eh...nos ofrece... a nosotros...la posibilidad... de...de ya no... tan sólo...con un... con un pron...escribiendo... crear una imagen...que... ahora ya estoy creando yo las miniaturas de... de mi canal de YouTube... sino de escribirlas... y...poder... de escribir...en tiempo real... o sea...traducir... o sea...de escribir...y traducir... porque eso también lo hace... yo le paso la cámara... le comparto la cámara...la webcam... y le digo...léeme este manual... y lo hace... o sea... un gran aliado...¿no?...para los desarrolladores... sí...sí...sí... no...eh...ya digo...yo...a mí... una de las cosas que me da... es tiempo... tiempo que luego lo pierdo... en otra cosa... de lo mismo...programando... pero...te da mucho tiempo... o sea...cosas que uno... puede hacer en horas... pues tenerla en segundos...sin exagerar... pues...bueno...ahí... puede uno ver el tiempo que... que puede sacar para otras cosas... claro...y ganas también... en consideración de tu entorno vital... y relacional...que ya no dicen...ya está aquí el pesado... de Héctor...diciendo que si me ha salido esto bien... o que no me ha salido aquello mal...porque ahora ya eres autosuficiente... ahora ya te lo puedes mirar tú...¿no?...con la... con la IA... sí...sí...sí...sí...yo a mí... no se me caen los anillos...no sé...la gente anda... muy así...con...si la IA...que si tal... yo si tengo que decir...no... esto es... el 90% IA... 10% mío... eh...pero es que es así...o sea... eh...a ver... la IA no viene...de momento... no viene a sustituirnos... porque yo después...tengo que... ensamblar todo lo que la IA me ha dado... si no se tienen... unos conocimientos...básicos... no...no se puede hacer... entonces...eh...realmente no me está... sustituyendo...y además todo lo que me ha dado... realmente se lo he pedido yo... y ya digo...lo que me ha ahorrado... es en tiempo...ojo... también estoy aprendiendo...mucho... mucho... muchísimo... esta parte sí que es importante...porque tú le preguntas... a la IA...porque esto es... así...o porque lo has hecho así...no... no...ya te lo dice... es que ya...ya...directamente...o sea... con los prompts que uno le mete... eh...cuando nos metemos en programación...o sea... ya...ya directamente...yo por ejemplo... mi OpenAI...está entrenado... para que directamente... ya me ponga los dos trim...me ponga... comentarios...y en todos los... archivos al principio...me ponga... para que es ese módulo...por ejemplo... entonces...eh...ya tiene un... uno...una especie de manual... eh...de lo que ha hecho... y... más luego...las descripciones que te da abajo... de por qué ha hecho eso... y bueno...estas que piensan ahora... pues...todo el proceso de... de desarrollo que hace... por detrás...pues...te lo está... dando el lenguaje... lenguaje humano... Es que la diferencia de ese tiempo que nos da la IA... muchas veces es la diferencia entre... hacer o no hacer una cosa...no...porque a lo mejor... uno de esos programas que te puede ayudar... la IA a hacerlo...a lo mejor de otra forma... pues nunca lo hubieras hecho...porque... hubieras necesitado muchísimo tiempo para... llevarlo a cabo...no...o por ejemplo... la transcripción de los episodios...de un podcast... claro que se puede hacer con tiempo... transcribiendo y tecleando cada palabra... a mano...pero...claro... la IA te ofrece esa posibilidad... esa es la diferencia entre...hacer la transcripción... y no hacerla... Voy a poner solo...un pequeño ejemplo...yo... yo...me gusta usar mucho en mis aplicaciones... Python VLC... vale...es...es una... una librería que... envuelve las DLL... de VLC...y... yo...puedo hacer reproductores...vale... o...eh...reproducir audio... reproducir vídeos...sin... necesidad de tener VLC... eh...instalado en el equipo...vale... eh...los eventos... eh...por ejemplo... un evento...vendría a ser... cuando una canción termina... si yo le pongo que... detecte ese evento...y... empiece otra canción que tengo en cola... vale...eso es un evento...se dice... para un evento... bueno...la documentación de VLC... es tan extensa...que yo estuve... dos años...buscando... todos los eventos...de... VLC...encontré... cuatro... cuatro...cuatro... eh...cuando llegó... OpenAI...creo que era la... 3.5... la primera que salió...hacia... el gran público...fue una de las... primeras cosas que...le pregunté... y después de dos años... yo ahora mismo tengo una colección... de 60 eventos... y eso me permite... pues...extender muchísimo... más...la librería... y yo he buscado...o sea...antes de la IA... he buscado...durante... dos años...eventos...por todas... las páginas que os podéis imaginar... o sea...que te venga la IA... y te de 60...así...de un plumazo... después de dos años...buscando... apaga y vámonos... bueno...los programas...yo creo que hemos... comentado todos...y además de los... programas...también...tenéis... algún complemento...para el NVDA... Sí...eh...tengo...el... el TSA System... Utilities...otra... otra de... de mis necesidades...llevadas... a...a programa...y... y por qué no...a mi lector... de pantalla...no... eh...pues...ahí hay un... compendio de...de utilidades... y de...de funcionalidades... digamos así...que...que tiene Windows... y... y otras que... le he puesto yo... para poder hacer... cosas más rápido...o sea... la verdad...cada vez... también ha ido...ha ido... creciendo... en funcionalidades... y...mejorando...mejorando... con la IA... y...con los consejos de Héctor... incluso... en...una versión que no he sacado... va a traer un módulo que... también...gentilmente... está hecho por Héctor...Héctor Benítez... y...para sacar las consolas de...de Windows...que...el... la función que yo tenía... allí estaba dando un poquito de problemas... ahora...gracias a la IA... ya la he mejorado...sin embargo... también vamos a tener la posibilidad... de utilizar... eh...ese módulo que me pasó Héctor para... que sirve prácticamente para...para... llevar una consola... de Windows...del símbolo del sistema... o de PowerShell... o de cualquier otra...otra consola... que tengamos instalada...en... en nuestro sistema operativo Windows... llevarlas a una ruta... determinada...tanto como administrador... como...como la... CMD básica...no... ese módulo...por ejemplo... lo ha pasado aquí este caballero...y... ya...ya lo tengo enganchado... pero...no he... podido...no he podido sacar...y tengo... y tengo otras funcionalidades que le he puesto a... complemento...y como digo... he mejorado esta...esta función también para... llevarlo de una sola...porque yo tenía como un atajo... de tecla...llevarlo a...al CMD... que es una necesidad...no...de nosotros... los programadores...eh... casi siempre tenemos esa necesidad de...de... llevar el CMD rápidamente a un sitio... que se abra allí...sin tener... que estar haciendo tanta... tantos atajos de teclado... o tal...entonces... eh...el TCA System Utilities... también pues tiene...herramientas... de Windows que sirven para...para poder... intentar hacer una reparación... lanzando el SFC... o el DINX...con sus... con sus... parámetros que sirven para...para eso... para buscar errores... el explorador...cerrar programas... eh... abrir rutas...abrir... ejecutar cosas...o sea... eh...tiene...tiene muchas cosas...que ya... creo que ahora mismo ni me acuerdo cuantas tiene...pero tiene...tiene un montón... yo lo utilizo...casi que de forma habitual y... y eso...y si lo hice para... para mí...y luego lo compartí... para la...para toda la gente... Contadnos brevemente que es... NVDA y que son los complementos... NVDA...a ver...es un... es un software de código abierto... vale...totalmente gratuito... y bueno...es un lector... de pantallas...eh... pues... a día de hoy para mí...de los mejores... eh...tampoco... tenemos tantos...y bueno... esto salió de...de... de una necesidad...pues como siempre suele salir de...de...de... de alguien que necesitaba un lector... quería algo libre... y bueno...era un australiano... creo que era profesor de universidad... y empezó con el proyecto...y bueno...ese proyecto... pues...lleva ya... veintialgo años... y...y a día de hoy... yo creo que...que... que bueno...lo...lo que nos da... pues a los programadores... por ejemplo...es el poder... modificarlo...con complementos...o sea...es un... un lector muy liviano... al cual...eh... instalándolo desde cero...puedes tener... eh...lo básico...para utilizar un...sistema Windows...vale...pero luego puedes...eh...vitaminarlo...pues complementos...de lo que os podáis imaginar...o sea... hay...de todo... de todo...de todo...o sea... y bueno...y luego...pues eso...eh... cada uno se hace...el...el... NVDA...a su medida...sobre... sobre lo que necesita... entonces...eso me parece... una...una...vamos...una virtud. Héctor...y tú... ¿qué complementos has hecho y tienes... en la actualidad vigentes... o que estén actualizados y funcionen con... con NVDA? Pfff...he hecho unos cuantos...eh... Sí...bueno...pues venga... Sí...sí...no...no...no...a ver... he hecho unos cuantos...eh... ...pero actualmente... sólo hay tres...tres vivos... vale...eh...por circunstancias... el año pasado... pues bueno...tuve que... que bajar un poco el ritmo y... y descatalogar... varios complementos...y bueno... entre ellos estaba el Z radio... era para escuchar...pues... creo que la base de datos eran como... 40.000 emisoras... de todo el mundo...eh... de manera fácil y...eh... aprovechándonos de las posibilidades... que nos da...eh...NVDA... que es...eh...poder reproducir rápidamente... o pausar rápidamente... desde cualquier sitio... sin necesidad de ir a una pantalla... en específica... eh...no sé...eh... tuve el acortador URL... que era para acortar URLs... cuando todavía se usaba mucho... eh...el... Z utilidades... bueno...ahí está...el... el... tecla aplicaciones... que era para simular la tecla aplicaciones... de aquellos equipos que no...que no la tenían... sustituyéndola por otra... eh... es que no sé... hay...hay unos cuantos...y bueno... actualmente sólo...sólo está... la tienda de NVDA.es... que se...se sigue actualizando... el traductor avanzado... eh... también se sigue actualizando... y el audio cinemateca... y tengo algunos por ahí...secretos... que no se pueden decir... es...son pa' mayores... vale...vale...esto de la Z... ¿es por algo zombi o...? eh...no...eso es un...no...no...no... eso es...eso es un cabreo que me pegué... yo con NVDA... eh... cuando empecé a programar para NVDA... eh...sucedía algo... muy...muy curioso...de...de...de... que había complementos... eh...a ver...en NVDA hay que tener mucho cuidado... con las librerías...y...y yo me encontraba con que mis complementos... leches...yo qué sé...si le ponía... cortador URL... me daba siempre problemas de librerías... tal y cual...porque... la carga se empieza a hacer de abajo... arriba... eh...y eso me di cuenta...y digo... ¿y cómo hago yo que mis complementos... se carguen los primeros... y el que venga detrás que se fastidie? eh...si tienen problemas... de librerías...y dije...ya está... pues a partir de ahora con la Z adelante... y...y que sean los primeros... que se carguen...y...y así me... evito yo los problemas que luego otros... pueden tener con las librerías... o sea...de ahí viene... lo de la Z...no...no viene de nada más... jajaja...muy bueno... oye...perdona que me meta aquí... se está olvidando de uno que... yo hasta el día de hoy sigo utilizando... un montón... que es el Z abacate...o qué maravilla... ah...bueno...sí...sí...sí... lo que pasa que...bueno... es que hay más...hay más...por ahí... eh... hay alguno otro por ahí... que no salió a la luz...que ha sido... muy utilizado...pero sí... el Z backup...eh... me gustaría en algún momento... revivirlo...porque... de manera rápida podemos hacer un backup... en nuestra partición...y... algo muy...muy bueno... es restaurarla en caliente... sin necesidad de... pasar por Windows accesibles... WinPES...ni...ni nada... o sea...en 5 minutos... eh...irte a tomar un café...volver y... ya tener el Windows como lo teníamos... pues...antes de hacer alguna... babarrasada por ahí...con Windows... babarrasada...sí... Tenemos...TCA...TTS... Timer...TTS...sí...ya...ya... ya hasta me olvido también... eso...y justamente estuve trabajando... he estado trabajando en él...gracias... a una herramienta que me compartió Héctor... he conseguido hacerle... sin yo...hacer nada...la verdad... lo hizo la IA todo...ponerle... la alarma...ya... la tengo ahí...la versión 1.1... con alarma...funcionando perfecto...la estoy utilizando... es un reloj...eh... parlantito...digamos así... para...para ampliar... digamos el espectro...porque... eh...este sea software... y...tener conocimientos accesibles...no solamente tiene...seguidores... de...usuarios de lector de pantalla NVDA...no que para el NVDA tenemos un complementito que está muy bien hecho...que es también un reloj parlante...no tiene voz TTS... pero bueno...es un reloj que... utiliza...la voz... que tengamos ahí...sintetizada... en el NVDA...en el lector de pantalla...para... para anunciarnos la hora...no... acá lo hace...el mío lo hace... o con la voz de Google...que es con la que... intenta hacerlo... y si no puede hacerlo...lo hace con... la primera voz TTS que tengamos disponible... en Windows...y si no logra hacerlo...pues te dará una notificación... y te la dirá con el lector de pantalla... esa es una...la escala... digamos así...y... pues...nada...está a la hora... también de...de un montón de... de...de países...también... podemos saber la hora...en cualquier momento... y eso es un programa bastante... bastante sencillo...para Windows...y para cualquier...para cualquier usuario...o sea del lector...del lector de pantalla... NVDA...de yo...o del...del que quiera...no... este...es complemento...o es... un programa...que se puede instalar...independentemente... no...no...por eso... lo...lo comentaba...es un programa...porque...independente... lo...lo quise hacer complemento...no...pero...pero dije...es como cerrar...digamos...si...el espectro... porque...las personas...usuarias de Yoast...que... todavía...las hay mucho...pues...no lo iban a poder...aprovechar...entonces yo dije... mejor un programa...pequeñito...que... la verdad que...no... ocupa tanto recurso...y es peque... es portable...y tal...pues... para todo el mundo...no...para usuarios de Yoast...para usuarios del...del NVDA... es un programa...normal como los otros... si...incluso usuarios que no...sean usuarios del lector de pantalla...que no lo puede utilizar...todo el mundo... eso a veces...sí...sí...sí... eso a veces me da un poco de rabia...no...hacer...complementos... para el NVDA...de cosas que se pueden hacer... programas más generales...como... la radio...que habéis comentado antes...pues... es un programa que...la radio lo puede escuchar cualquiera...hombre... si a lo mejor...pues...utilizas librerías... de NVDA...o tiene algún motivo...para tal... pues...vale...puede estar justificado...no... pero hay veces que se puede hacer de forma general... y...usuarios de otro lector de pantalla... o que no utilicen otro de pantalla...pues... que también lo puedan utilizar...no...no... Héctor llegó a hacer un software...que... creo que lo tiene discontinuado...que era magnífico... creo que era el simple radio...era...se llamaba así... eso...iba a comentar...la familia...de los... programas simples...que tenía varios programas simples... Sí...esos fueron mis primeros... mis primeros...no fue el primero... pero sí...sí fueron de los primeros... donde yo experimentaba...con... mis primeros pinitos...con...con... Pito... ¿Siguen funcionando y qué hacen? No...no creo que sigan funcionando... ya...es que no tengo... ni los códigos...no... Sí...sí...sí...siguen funcionando... hay cosas que no funcionan...pero... si coge la base de datos de... otros canales... y eso...y están operativos aún... son las mismas VRLs... pinchas y se escucha... yo la tengo...la tengo en mi disco duro...y el otro día...justamente... fue por la única vía donde pude escuchar... una emisora de radio que quería ir...porque no es tan fácil encontrar...por internet... un sitio agradable... o usable o manejable para escuchar radios... Estaba el simple radio... el simple televisión...no... el de libros...para llevar un control de los libros... que vas leyendo... sí...sí...con ese tengo yo una espinita que me la tengo que quitar... ya...ya...voy avisando... no... ese...ese...mucho... lo tengo hace mucho tiempo... eh...queriendolo hacer bien...porque aquello fue... pues...algo... algo...al final sí... funcionaba tal y cual...pero... pero no...no me gustó...y por eso no continué...y...ese tengo una espinita...porque bueno...yo soy... bastante lector...y...soy... un desastre...y...siempre digo... que me...me gustaría tener una herramienta accesible...eh... que me permitiera bien... organizar mi...mis librerías... Y contarnos algún proyecto que tenéis ahí...en mente...algo que se está cocinando... o alguna primicia... Héctor...yo... los dos...los dos... vos...vos... eh...bueno...pues yo tengo un programa...gracias a una herramienta que me pasó Héctor...que... trabaja...bajo guía...y yo lo que he hecho es darle las instrucciones...decirle yo quiero esto así...así...así y bueno...sí...la verdad que... eh...voy a...voy a decir algo que... antes se mencionó...que...hay...hay que tener también...hay que tener conocimiento... porque...una herramienta de estas... en manos de alguna persona que...que... que sepa poco...que no Bueno, pues va a salir otro de la familia TSA, otro programa que va de virus total, así que atentos ahí. Héctor ya lo está probando, así que... Sí, sí, sí, sí, lo tengo, sí, sí. Y yo, pues, ahora mismo, bueno, hace poquito saqué Rumbo Ciego, que es un jueguecito, es mi primer juego. Bueno, segundo, porque el primero fue un troleo que hice 24 horas antes, que no, mejor no hablar de él. Si queréis luego lo paso, es cachondo el juego. Pero bueno, en serio, o sea, mi primer juego serio. Un juego de laberintos, ¿no? Sí. Y bueno, era algo que dije, necesito tener unos conocimientos sobre juegos y por qué no hacer algo a lo cual yo me pasaba mucho tiempo cuando era pequeñito y no encontraba aún nada que fuera accesible. Entonces, bueno, me lo creé y, bueno, lo he ido compartiendo por ahí y ha sido lo último. Y lo que sí que estoy trabajando es en IA, trabajar con modelos pequeñitos de IA para facilitarnos, pues, en ordenadores normales que podemos tener domésticos sin necesidad de tener ordenadores grandes, pues, facilitarnos distintas cosas. Por ejemplo, traducciones simultáneas en tiempo real. Por ejemplo, esto va a ir para NVDA. Y... o descripciones, ¿vale? De imágenes. Sí. Ya he pasado algo, todavía es un poco lento, pero bueno, esto conforme vaya evolucionando es en un área en la que sí que estoy trabajando. Y un punto muy interesante, ya, bueno, habiendo hablado un poco de todo vuestro enorme y amplio trabajo, contadnos sobre retos y experiencias de un programador ciego. Ya hemos ido comentando... Exactamente. Pero bueno, por profundizar un poco más. Sí, y si nos importa, tanto las gratificantes como las que no son tan gratificantes, si verdaderamente os han acasionado, pues, más de un del velo. Bueno, programar... hoy en día, lo primero... empiezo por ahí, yo creo que... es posible para un programador ciego, está ya comprobado. Y todo está en ponernos nosotros. Muchas veces... las barreras no las podemos... ponemos nosotros, porque si alguna cosa a lo mejor no se puede de una forma, hay muchas otras. La cuestión es ir buscando, por ejemplo, el mismo IDE que tiene, que un IDE es, digamos, como una especie de bloc de notas donde uno escribe el código, ¿no? El propio IDE de Python, que sepa yo, o no sé si yo no lo sé utilizar, pero no es muy amigable que digamos, no lo hay ahí. Es complicado, pero hay multitud de programas que podemos utilizar. Notepad++, el mismo bloc de notas, yo utilizo uno por ahí que se llama Xshare, el Pshare, el Visual Studio Code, o sea, hay un montón. Entonces, hay unos que cuesta más utilizarlos, otros que son más fáciles, ¿no? Digamos así... Otras que a veces uno dice, oye, ¿por qué no puedo esto? Porque, por ejemplo, eso, antes de la IA, ¿no? Antes de que llegara la IA y las descripciones en tiempo real, a mí me fastidiaba mucho eso, ¿no? Estar preguntando y preguntando, mira, ¿este interfaz cómo ha quedado? O más o menos yo hacer un OCR y ponerme ahí a recorrer la pantalla para más o menos... mentalmente decir, este botón está bien puesto, este cuadro combinado va aquí, este cuadro de visión está acá. O sea, esas cosas yo creo que han sido los retos o las barreras, digamos, con las que me he topado en la cuestión de la programación. Y que ahora con la IA, pues, de a poco han ido mejorando. Y también, claro, con la experiencia que uno va ganando. Pero de a poquito, ¿no? Sí, o sea, sobre todo de acuerdo en que las limitaciones se las pone uno. No es fácil, ¿vale? Es algo que requiere mucho tiempo y ese tiempo lo tienes que sacar de alguna parte. Yo hasta que aprendí Python, yo qué sé, creo que lo intenté mil veces y mil veces fallé. Y hasta que realmente no tuve algo en cabeza que quería hacer, pues, no conseguí ponerme en serie. Y ya digo, sobre todo es mucho tiempo. Y ahí hay un tema que, bueno, que lo habéis hablado. Esto no es un camino de rosas, o sea, tienes que sacrificar muchas cosas. Yo, por suerte, tengo una pareja que me permite emplear mucho tiempo, entonces sacrifico tiempo familiar. No todo el mundo tiene a lo mejor a una persona al lado que le permite o que le deja. Porque entiende que le gusta el perder ese tiempo familiar. Entonces, bueno, tiene sus sacrificios y luego también, pues, bueno, está muy bien hacer software de manera lúdica. Pero bueno, hay muchas veces que nos encontramos con problemas. Yo, ya he dicho, el año pasado tuve un problema muy gordo, el cual me hizo replantearme. Pues, todo mi trabajo y toda mi interacción, por ejemplo con la comunidad. Entonces, bueno, a veces, ya digo, no es todo... saco el programa, o saco el complemento y todos bien, todos contentos y ahí me felicitan. Y no, también hay a los por detrás que los desarrolladores se llevan, pues, no sé, qué decir, por envidias. Por celos, no sabría, ¿vale? Yo nunca, o yo, puedo hablar de mí, nunca me he comparado con nadie, yo tengo mis programadores del colectivo, que los tengo en un pedestal, pero nunca ni me he querido comparar con ellos, ni absolutamente nada, o sea, no sé, no soy una persona envidiosa, pero sí las hay. Sí las hay. Y bueno, eso a veces traen complicaciones y muchas veces de muy mal gusto que uno, pues, es eso. Dice, estoy dando lo mejor que tengo, el tiempo que podría estar empleando con mi familia, y hay alguien por ahí que a lo mejor lo paga así. Y bueno, a veces, pues bueno, te llevas decepciones muy... Muy, muy, muy grandes. O sea, sin cargos, sin gastos. Y realmente, me estás comentando que ese mismo usuario muchas veces es cruel y realmente hasta peligroso, ¿no? Sí, los motivos no los sé, no los sé. Yo... mis planteamientos vienen, a ver, de un complemento que he corrido por ahí por la comunidad, que se compartió en épocas de pandemia, no sé, con una necesidad mía y una necesidad que dije, ¿no? Y creo que puede, pues, en esta época tan fastidiosa, pues, puede ayudar a mucha gente, tal y cual. No fue compartido públicamente porque tampoco era muy así, pero considero, o yo consideraba que no hacía daño a nadie. Hasta que alguien me dijo que sí que hacía daño a alguien y, bueno, yo, por ejemplo, me vi en un lío muy gordo, muy gordo, muy gordo. Me podía haber costado... Mucho, mucho. Entonces, eso te hace replantearte muchas cosas. Y ya digo... Un lío legal, ¿no? Sí, sí, sí. Algún tipo de amenaza diciendo, ¿quitas esto de aquí o voy a por ti? Sí, sí, sí. Entonces, bueno, esas desilusiones que uno, pues, ha empleado mucho tiempo y que, bueno, sí, puede tener su pensamiento de... No creo que esté haciendo nada mal cuando, cuando no me estoy beneficiando de absolutamente nada y creo que puedo estar haciendo un bien, pues, a alguien, a alguien se le ocurre decir, pues, vamos a fastidiar esto. Y, bueno, sí, a mí me metieron un jaleo de tres paredes, perdón, muy gordo. Pero me dio mucha rabia porque luego yo recibí muchos... Muchos correos y muchos mensajes y todo eso de mucha gente que lamentaba el hecho, de gente que me contaba sus vivencias y sus situaciones económicas incluso y me dio muchísima rabia, muchísima rabia de cómo a veces, pues, el ser humano o dicha persona o las personas que fueron o quien fuese puede llegar a actuar. Contra una persona, en este caso contra mí, pero en perjuicio contra muchísima, muchísima gente. Bueno, esperemos que esto no sea muy común y muy frecuente y que lo que se prime sea lo otro, ¿no? Supongo que los agradecimientos que serán muchos. Además de esas experiencias negativas, ¿no?, que hay y hay muchas y hay usuarios que a veces te contactan para pedirte y exigirte que tienes que hacer tal o cual cosa en la próxima versión. En el programa o cosas así. Encima, ¿no? Encima te exigen poco menos. Pues, además de estas experiencias negativas, también las habrá positivas. Si tenéis alguna experiencia positiva que queráis compartir. Bueno, voy a acotar yo ahí algo. La verdad, es lamentable que sucedan cosas como lo que le ha pasado a Héctor, una persona que ha demostrado su calidad, sus capacidades y, como dice él, coincido totalmente el tiempo que emplea y empleamos en esto. Eso, el tiempo, el tiempo que uno ocupa en eso ya no lo puede ocupar en otra cosa. Está claro, o sea, tenemos familia, tenemos nuestra vida y tenemos otras cosas que hacer y lo estamos dedicando para esto. Entonces, yo creo que deberíamos todos reflexionar a estas personas, sobre todo, que... piensan, o no sé si piensan, o hacen las cosas porque les sale del hígado, o tal, que reflexionen el daño que se les puede hacer, como dijo Héctor, no solamente a Héctor, sino al colectivo, pero sobre todo a una persona que está intentando aportar. Bien, yo, la verdad, mi abuelito me decía, tú bañate con aceite. A mí, con el blog, con el conocimiento accesible, muchísima gente agradecida. De verdad, muchísima, yo creo que es la mayoría, y con los programas también, pero tal como lo decía Héctor y como lo dijo Arturo, sobre todo eso, lo que dijo Arturo, hay muchísima gente que no sé qué es lo que piensa, creen que lo que hacemos nosotros es un deber, o es algo que pagaron para que uno lo haga, y que debemos hacerlo como quieren, cuando quieren, y al momento que lo necesitan o lo requieren, y están muy equivocados. En ese sentido, yo sí he tenido que poner en su sitio a mucha gente despistada en este colectivo, por esa razón. Pero yo, la verdad, que me quedo con la gente agradecida. Yo, pues, a Héctor le he reenviado de los grupos, porque él, ahora mismo no está en ninguno de los dos, estuvo en alguno, una ocasión en el de Telegram, pero no estaba en el de WhatsApp. Y hay mucha gente que me sigue enviando mensajes de agradecimiento para Héctor. Me dicen, Héctor, la verdad, dale las gracias de mi parte, porque el trabajo que hace es tremendo. Entonces, yo sí le he reenviado esos mensajes, y creo que hemos coincidido con Héctor, que son los que nos reconfortan y los que nos impulsan a seguir trabajando. Sí. Y yo quiero... bueno, una cosa. Una cosa personal. Esto te da, también, muchísimas satisfacciones. A mí, ahora, en este último mes, me ha dado una, gracias a la IA, también, y es poder hacer que mi madre vuelva a tener la posibilidad de escuchar películas, series, documentales, con audesco. Algo así. Pues, bueno, me puse un día y... Y dije, yo tengo que hacer que mi mamá, como con el ordenador, no se lleva, pues, en el móvil, sobre cómo yo sé que mi mamá maneja el móvil, mi mamá tiene que poder escuchar películas como ella quiera, cuando ella quiera, o series. Y, bueno, le hice una aplicación en la cual puede ver películas, series, documentales, y cuando me llama... Y, bueno, le hice una aplicación en la cual puede ver películas, series, documentales, y cuando me llama... Todos los días y me dice, ah, ayer me vi esta película tal y cual... Eso no se paga. Sí. Eso no se paga. Genial. Oye, y en cuanto a los beta testers, que ya sé que entre desarrolladores vosotros os habláis, os apoyáis y demás, pero luego tenéis mucho trabajo íntimo y solitario. Y luego tenéis que sacar esto antes de publicar. Hacerlo público. Hacerlo público, ¿no? Entre otro círculo de gente. ¿Cómo los elegís? ¿Qué gente es? ¿Son amistades? ¿Son gente ya contrastada? ¿Es todo así, no? ¿Circunstancial? Hay un poco de todo, digamos así. O sea, hay personas de mi círculo cercano que me dicen, pues, mira, Peter, pues, pásame los programas, o tal, lo que vaya sacando, les gustan. Y me dicen, pues, siempre, pásamelo. Yo lo que hago es compartírselos y ya está. Y también hay personas que me escriben, incluso, para decirme, mira, Peter, me gustan tus programas, o me gusta X o tal programa. Y me dicen, pues, cuando saques una beta, me... así como me dijo Arturo. Sí. Como dijo Arturo. Es que se ofrecía como beta tester, pues. Así también. O sea, hay un poco, un poco de todo. Y así, por ejemplo, a veces yo a Héctor, o Héctor me pasa mi cosa. O sea, Peter, pruébala, o tal. Y, por cierto, Héctor, te estabas olvidando de WhatsApp y Recorder, ¿eh? Buenísimo. Excelente. Excelente también, ¿vale? Y más o menos así, para no alargarme. No, y yo, pues, como digo, desde circunstancias del año pasado, pues, a lo loco. Directamente en la red social que estoy, que es Mastodon, pues, la lanzo. Quien quiere probarla, que la pruebe. Y si me quieren reportar errores, que me la reporten. Y luego, bueno, pues, si se las paso, pues, a Ricardo, a algunas, a Peter. Oye, mira, si ves algo, ¿qué tal? Pero no, no, ahora mismo he cerrado mi círculo y ya digo, a lo loco. O sea, ya está. No, no, no. He conseguido que no me preocupe. Si funciona, sobre todo a mí, perfecto. Y luego, si la comparto y me mandan reportes, pues, intentaré solucionarlos. Pero ya digo, ahora mismo no, no. No tengo un grupo cerrado. Brevemente, ¿qué es eso del WhatsApp y Recorder? Ajá. Eso es una necesidad que yo tenía porque, bueno, había una aplicación que era... Ay, no me acuerdo cómo se llama, Recorder... Virtual Recorder. Virtual Recorder, la cual yo usaba mucho para hacer mini tutoriales y, bueno, grabar el sonido del ordenador. Y, nada, dejó de funcionar y empecé a usar... AcquaCity, pero veía que mucha aplicación para lo que yo quería. Entonces, nada, me puse, me puse, me puse y, bueno, salió WhatsApp y Recorder. La libré en código abierto. Está en GitHub, el código. Y, bueno, yo la suelo usar mucho, pues, para hacer esos mini tutoriales de lo que comparto y todo eso. O sea, es muy pequeñita, portable también. Y, bueno, ahí está. Muy fácil de manejar también. Sí, muy fácil de configurar, ¿no? El inicio de estos programas suele ser sujetame el cubata, ¿no? Que me lo hago yo. Sí, que voy. Sí, sí. Bueno, pues después de esta amena charla, porque ya vamos llegando al final de nuestro tiempo, seguiríamos y seguiríamos y yo, por lo menos, estoy súper a gusto. Pero creo que podemos hacer un poco resumen de los diferentes puntos que hemos ido tocando y vamos terminando ya por ahí. Bueno, podemos hacer el resumen. El resumen entre todos, así que voy a comenzar yo, de lo primero que hemos presentado a nuestros colaboradores y, además, hemos hablado de los comienzos del blog Tecnoconocimiento Accesible, TCA, y de toda su trayectoria inicial. Luego hemos hablado del amplio catálogo de programas que actualmente existen en el blog. Hemos comentado un poco las diferentes funcionalidades. Hay programas que tienen cada uno de ellos, así como complementos para NVDA y programas que también ha hecho Héctor por su cuenta. También hemos hablado de lo que supone hoy desarrollar sin ver, es decir, por desarrolladores ciegos, de la asistencia que brinda la inteligencia artificial en estos desarrollos y, bueno, prácticamente todo lo que se puede hacer con esta asistencia. Y también la comunidad. Por un lado, la de los usuarios, que a veces da alegrías y otras veces no tantas. Y por otro lado, pues la comunidad de los propios programadores, ¿no? Que también intercambian conocimiento y también se ayudan mutuamente. Exactamente. Y hemos llegado hasta aquí. Así que, Peter, Héctor, mil gracias. Hemos estado muy a gusto. Muchísimas gracias a vosotros por invitarme y, nada, que también he estado muy a gusto. Yo me suscribo. La verdad, he estado este tiempo con ustedes muy a gusto. Así que, Arturo, Ricardo, muchísimas gracias por compartir. Para mí siempre es un gusto compartir con este caballero, con Héctor, al cual admiro y respeto. Y, pues nada, estaremos aquí cuando ustedes así lo decidan y me inviten, ¿no? Muchas gracias. A vosotros y muchos años de colaboración conjunta y muchos frutos y éxitos. Muchas gracias a los dos. Muchas gracias. Y que sigáis haciendo todas estas cosas tan interesantes que también vienen para la comunidad. Y nosotros damos nuestros medios de contacto y nos vamos despidiendo, Ricardo. Pues muy bien. Nuestra dirección de correo electrónico es gafotas arroba cgatos punto es y... Y nuestro WhatsApp para mensajes de audio y de texto en el más 34 644 640 792. Os pedimos que utilicéis estos canales para contactar con nosotros. Nos interesa todo, desde las propuestas constructivas hasta las críticas más destructivas. Y os agradecemos también un montón que hayáis llegado hasta este punto del episodio y os esperamos en el próximo. Así que hasta luego. Adiós. Amigo. Y bueno, hoy el tema central es la comunidad de Tiflo Conocimiento Accesible y tenemos a Peter. Plom, plom, plom, plom. ¿Qué te lo has inventado tú? Peter, dile algo, tío. ¿Qué te crees? Bueno, el tipo tecnológico es... Realmente el nombre es tecno-conocimiento. Tecno, tecno. Está pensando el TCA, digo, me ha salido. Vale. Repitemos. No pasa nada. Sí, esto va a tener que ser tomando un café después de grabar el episodio. Este cachito lo quitaré, ¿no? A ver, sí, casi que sí. Pero bueno, no pasa nada. Cuando empezamos a hablar en Klingon y ya... No, no, hombre, sobre todo está muy bien que lo hayamos comentado porque creo que sí que le interesa a Peter conocer lo del film. La verdad que sí. Y, lógicamente, automatizar y olvidarse, ¿sabes? Simplemente porque es lo que le has explicado, que yo también soy un poco lerdo. Es que ahora venía a huevo. Es lo que básicamente hacemos nosotros, ¿no? Claro, claro, es lo que efectivamente es lo que hacemos nosotros. Es que contarlo luego ya no tiene mucho sentido, como ahora y luego se me iba a olvidar. Digo, ¿ahora qué? Lo ha contado. No, no, no, me parece bien. Vale. Pero vamos a ver dónde nos hemos quedado. Vale. Sí. Cuando has dicho que puede ingresar en 200 páginas, ¿qué tipo de páginas...? 2.000, 2.000. 2.000. Ah, 2.000, perdón. Bueno, pues mira, te he quitado. Página más, página menos. Sí, sí. Sí, eso es... Por acá Arturo ya me dijo que quería saber... Sí, sí, creo, creo. Con todo gusto. Gracias. Creo, creo. Entonces... Te arrepentirás, ¿eh? Después de haber aceptado. Esto queda grabado. Porque él ha avisado, ¿eh? No puedo disculparlo porque él ha avisado, ¿sabes? Es quisquilloso que va a ser así. Así que ya sabéis. Yo se lo paso. Luego le explota la pestaña y ya está. Disculpad. Hay un responsabilismo de daños colaterales. Vale, vale. Cuando he leído la reseña que no conocía el programa y digo, coño, perdón, y he dicho, ostras, es lo que necesito, ¿no? Para mi carpeta de descargas... Efectivamente, efectivamente. No eres solo tú un desastre, ¿sabes? Somos todos. No, si cargo también lo es, si cargo también lo es, sí. Yo la verdad... Más o menos... Ahí viene lo de la Z, ¿no? No viene de nada más... Muy bueno. Ni de Superman ni del zorro. No, no, no. No, no, no. De un cabreo, sí, sí. De un ataque zombi, o... Sí, sí. Oye...
Gafotas, cegatos y sus aparatos #20
Fecha: martes, 13 de mayo de 2025, a las 00:00:00
Episodio 20 – “Eco Alfa 3 Golf Zulu Alfa: Una inmersión en la radioafición sin ver”
En este episodio nos adentramos en el fascinante mundo de la radioafición, un universo lleno de antenas, códigos secretos, señales que cruzan continentes y, sobre todo, pasión por comunicar.
Nos acompaña Miguel González Richart, periodista y radioaficionado ciego, que lleva más de dos décadas con el micrófono encendido tanto en la radio comercial como en las bandas de aficionado. Junto a Arturo y Ricardo, nos embarcamos en una tertulia vibrante que repasa la historia, el presente y el futuro de esta disciplina poco conocida, pero vital en situaciones de emergencia.
Temas destacados del episodio:
- Qué es ser radioaficionado hoy y qué se necesita para empezar (licencias, walkies, repetidores y más).
- Experiencias personales: de la banda ciudadana al rebote lunar.
- La radioafición como espacio inclusivo para personas ciegas: accesibilidad real de emisoras, software, libros de guardia y trucos caseros.
- Curiosidades del código Q, el deletreo fonético ICAO y el romanticismo de las QSL en papel.
- La convivencia entre tradición y tecnología: modos digitales, SDRs, radio por Internet y firmware accesible en walkies.
- Interferencias: el gran enemigo moderno. LEDs, cargadores, paneles solares y cómo enfrentarse a ellos.
- La magia de una llamada en directo en pleno episodio, conectando con Manel, otro colega radioaficionado desde Tarragona.
- El rol fundamental de los radioclubs como espacios de formación, comunidad y divulgación.
- Cómo usar la inteligencia artificial para aprender conceptos complejos si no ves: antenas, ondas, propagación y electrónica explicadas “para tocar con la mente”.
Además, compartimos historias entrañables, como el primer contacto fallido de Miguel cuando era niño, las cacerías del zorro con balizas escondidas o las QSLs con texto en braille enviadas desde Tarragona.
También repasamos las opciones para iniciarse sin arruinarse, los tipos de licencias, los canales de formación disponibles (como la biblioteca de la ONCE o la URE) y consejos prácticos para no perderse entre tantos botones.
Un episodio imprescindible para quienes sienten nostalgia de la radio, para frikis del espectro electromagnético, para personas ciegas que quieren explorar nuevas vías de comunicación, y para todo aquel que quiera entender por qué la radioafición sigue viva, vibrante y necesaria.
Como siempre, encontrarás en nuestras notas todos los enlaces útiles que nos ha compartido Miguel: programas accesibles, recursos para el examen, páginas de SDRs online, y más.
Y ahora... ¡te pasamos el cambio!
Esperamos tus mensajes, preguntas y propuestas para próximos episodios. ¡Hasta la próxima!
73 para todos.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Sitio Web de Miguel González Richart.
URE – Obtener autorización(Unión de Radioaficionados Españoles).
Código Q de señales -Sistema de abreviaturas utilizado en radiocomunicaciones.
Alfabeto fonético ICAO - Sistema de deletreo universal para comunicaciones por radio.
Tarjetas QSL - Tarjetas postales utilizadas para confirmar contactos entre radioaficionados.
Modos digitales de transmisión (Técnicas como FT8, PSK31, RTTY, entre otras).
SDR (Software Defined Radio) - Tecnología que permite recibir señales de radio a través de software.
Proyecto Open GD77, el firmware que se le puede instalar al Radioddity GD77.
Página oficial del Amateur Contact log:
EA3RCY – RàdioClub del Tarragonès.
Créditos:
Duración: 01:33:56
Descripción detallada del logo de Episodio 20. Eco Alfa 3 Golf Zulu Alfa: Una inmersión en la radioafición sin ver
La imagen es una ilustración en blanco y negro con un estilo retro. El personaje principal es un hombre sentado en una silla de madera. Lleva auriculares grandes que cubren completamente sus orejas y unas gafas de sol redondas. Su cabello está peinado hacia atrás con un estilo clásico, y tiene un bigote grueso y bien cuidado. Alrededor de su cuello, lleva una bufanda o pañuelo anudado. El hombre está inclinado hacia adelante, concentrado en operar una radio antigua que está sobre una mesa. Sus manos están sobre el equipo, manipulando los controles. La radio tiene varios diales y medidores analógicos, uno de los cuales muestra una aguja que probablemente indica la frecuencia o la intensidad de la señal. A la izquierda de la radio, hay un micrófono de pie con un diseño clásico, y al lado, unos auriculares adicionales descansan sobre la mesa. En la pared detrás del hombre, hay un mapa del mundo enmarcado. El mapa está simplificado, mostrando los continentes en negro sobre un fondo claro. La actitud del hombre parece ser de concentración y dedicación, como si estuviera inmerso en una transmisión o comunicación importante. La escena en su conjunto evoca una sensación de nostalgia, recordando la era dorada de la radioafición.
Transcripción de Episodio 20. Eco Alfa 3 Golf Zulu Alfa: Una inmersión en la radioafición sin ver
Bueno, Ricardo, ¿qué tal me copias? Pues te copio muy bien, Arturo. ¿Tú qué tal a mí? Cambio. Perfectamente. Aunque baja un poquito la calidad respecto a los episodios anteriores por motivos temporales. Hombre, pregúntame por mi micro, por favor. Es que hace mucho que no te pregunto por él y queda un poco después de tantos episodios sin preguntarte por tu aparato. Aquí lo tengo desenchufado, el pobre mío. La interfaz de audio también ahí muerta. Y realmente pues con un problema probablemente de controladores o drivers que me tiene, bueno, pues todo lo que es el sistema de audio pues parado. Y estoy pues con unos auriculares de diadema y un micrófono de Eposan Hazer, de estos baráticos. Así que esto es lo que hay para poder hablar. Bueno, pero yo creo que es un sonido más que aceptable y haremos lo que se pueda. Luego en edición también intentaremos ahí poner algún hechizo por si hiciera falta. Para quitar ese ruidillo que tenemos ahí de fondo. Un poquito de QRM. Nada, bueno, si quieres dejo de afilar los cuchillos. No pasa nada. Ya los afilaré mañana. ¿Cuál es nuestro tema de hoy? Pues mira, nuestro tema de hoy es un tema que ha vuelto a estar vigente después del gran apagón. Y es la radio. Bueno, nunca ha perdido vigencia. Lo que pasa es que ahora sí que tiene más notoriedad. Y es la radioafición y todo lo que gira en torno de los radioaficionados y lo que son los contactos vía radio y que es un tema apasionante. Es decir, además de esto es inacabable. Lo que parece es que es una cosa sencilla y a poco que rascas es muy interesante. Y sobre todo, y algo muy importante, es una actividad en principio como hobby y bueno, prácticamente siempre como hobby. O entretenimiento, pero también como colaboración dentro de la protección civil y todo esto. Y donde muchas personas ciegas han sido y están siendo muy útiles utilizando este tipo de tecnologías de comunicación vía radio. Sí, siempre yo creo que ha sido un poco friki este mundillo y sobre todo por la parte más de comunicación, pues ha perdido un poco el sentido. Últimamente con internet, móviles y todo esto, pues ya desde el punto de vista de comunicación ya no tiene tanto sentido. Por razón de ser, pero desde el punto de vista friki pues sigue teniéndolo, ¿no? Todos los modos, todas las posibilidades que hay y de aparatos y demás, pues sigue estando vigente, aunque sigue siendo muy de nicho y hay poca gente que se dedica a esto. Pero yo creo que sigue teniendo ahí cierto tirón en ciertas cosas. Realmente la informática ha barrido con todo, pero antes cuando teníamos menos cosas con las que entretenernos, los que no veíamos. Pues bueno, teníamos casi todos nuestro teclado electrónico y nuestra emisora de radio, habitualmente de 27, la Banda Ciudadana, ahí comenzábamos todos, por la localidad donde vivíamos o por el barrio. Los más cafeteros ya empezaban a buscar otro tipo de bandas, pero esto lo va a contar nuestro invitado mejor que nosotros. Sí, hoy tenemos con nosotros un invitado también radioaficionado. Bueno, vamos a presentarlo directamente de Eco Bravo 1. Hotel Mike Alfa para Eco Alfa 3, Golf Zulu Alfa, QRA. Miguel, ¿qué tal estás? Buenas tardes, Eco Bravo 1, Hotel Mike Alfa, de Eco Alfa 3, Golf Zulu Alfa. Buenas tardes, o buenos días, o según cuál sea el momento que escuchen el podcast. Bueno, yo no puedo decir lo mismo, pero puedo deciros que me llamo Romeo India Charlie Alfa Romeo Delta Oscar. Bien, lo tienes aprendido. Miguel, muchas gracias por colaborar. Gracias a vosotros. Muchas gracias por estar este ratillo de tertulia con nosotros, que seguro que lo pasamos fenomenal y aprendemos mucho y esperemos que a alguien también os sirva. Bueno, pues gracias a vosotros por haberme invitado y ya os comenté que soy seguidor del podcast y me hizo mucha ilusión hablar de radioafición, que es como nuestro tema friki, ¿no? Cada uno tiene ahí su tema estrella y bueno, pues esperemos que sí, que pasemos un rato agradable. Voz de radio tienes. No serás periodista, ¿no? No seré periodista y no seré locutor de radio también, ¿no? Es curioso porque me dedico a la radio comercial o más a nivel profesional, pero cuando termino de mi jornada laboral en la radio, trabajo en una emisora local en Tarragona, llego a casa y sigo haciendo radio. O sea, que podéis imaginaros que tengo a mi familia contenta porque siempre con un cualquier encima o llego a casa y estoy con la radio o subimos al coche. Evidentemente yo no conduzco, pero mi mujer tiene que sufrir y mi hija tiene que sufrir ahí los cambios y encender la radio para ir a la vuelta de la esquina por si hay alguien y podemos hacer un QSO de cinco minutos. Así que bueno, pues al final es el bicho, nos pica el bicho y es lo que pasa. Pues Miguel, cuéntanos un poco. ¿Quién es Miguel González Richard? Bueno, pues Miguel González Richard es un periodista radioaficionado. He empezado ciego, por poner tres adjetivos, así al azar, ¿no? Y bueno, pues nací en Alcanar, en un pequeño pueblo de Tarragona hace ya cuarenta años. Y hace quince que estoy trabajando en la emisora municipal de Tarragona como redactor y como hijo periodista. Además de esto, desde los doce, trece años que descubrí por casualidad una emisora de la banda de dos metros, una emisora de VHF en casa de mi padre. Mi padre era también radioaficionado. Bueno, lo sigue siendo, aunque no practica, pero lo sigue siendo. No ejerce, pero sigue siendo radioaficionado. Mantiene la licencia. Pues desde ese día me enamoré de otra manera de hacer radio. Primero de escuchar y luego de hacer radio, que era la radio más amateur. Y la radioafición que, como habéis dicho, pues tuvo su éxito sobre todo en los años ochenta, noventa. Ahora parece que está un poquito en declive. Aunque bueno, yo os tengo que defender que sigue teniendo tirón y que internet al final es un aliado para la radioafición, pero sí que es cierto que, bueno, que tuvo su momento de gloria, ¿no? Cuéntanos, ¿qué es esto de ser radioaficionado? ¿En qué consiste? Para el que no tenga ni idea, vamos a intentar hacerlo para civiles, para profanos, para novatos, el que no haya oído hablar nunca de esto. Pues es curioso que es un problema que tenemos los radioaficionados que nos cuesta definirnos. Nos cuesta definirnos porque mucha gente te pregunta, bueno, vale, ¿y qué significa hacer ser radioaficionado? Y claro, tiene tantas vertientes el mundo de la radioafición, porque al final un radioaficionado es una persona que se comunica utilizando la radio. De un radioaficionado a otro, utilizando ciertas bandas, ciertas frecuencias. Existe la banda ciudadana, que yo creo que todos o mucha gente hemos empezado por ahí. Aunque no fue mi caso, pero sí que es cierto que muchísima gente empieza por la banda ciudadana, porque es una banda como más libre, que ahora no requiere de licencia. Antes requería de menos antilugios o de menos estudios para conseguir las licencias que tenemos los radioaficionados para poder comunicarnos. Y al final lo que pasa es que tiene muchas, muchas vertientes, como digo. La radioafición puede ser simplemente hacer un QSO, que le llamaríamos a charlar de uno a otro, ¿no? Como hemos hecho al principio, pues diciendo nuestros indicativos, nuestras licencias, que son esa serie de letras, eco bravo 1, eco alfa 3, que indican de dónde es cada uno, las letras que nos asignan, etcétera, etcétera. Lo estoy explicando muy rápido, pero luego profundizamos un poquito más si queréis en eso. Pero desde hacer un QSO, que sería tener una conversación de tú a tú, ser radioaficionado también puede ser un apasionado de los DX, de los contactos a larga distancia. Es decir, yo desde mi casa con mi aparato de radio y mi antena, a ver hasta dónde puedo llegar, a ver con quién me puedo comunicar, ir coleccionando países o ir coleccionando... A ver quién la tiene más larga. Sí, sí, sí, es un poco eso, es un poco eso. A ver quién tiene más larga la antena, a ver quién tiene más potencia, ¿no? La antena, sí, sí. Y la propagación, que es importante. Si la propagación no nos ayuda, por muy larga que tengamos la antena... Que no se nos olvide lo de la propagación y los ciclos de 11 años y el sol y todo esto, porque es un tema un poco friki, pero muy interesante. El lunes pasado, además, fue muy interesante porque no había nada de QRM y no había nada de ruido. No, mira, no había yo vivido nunca un día sin tanto ruido como el lunes del apagón, luego os cuento. Y el radioaficionado también es el que hace concursos para ver cuántos contactos podemos hacer en un fin de semana. El radioaficionado también es el que experimenta, el que cacharrea, el que antes creaba sus propias radios, el que se tira hasta altas horas de la noche charlando de cualquier proyecto que tiene en mente. Bueno, tienen muchas... El que hace todo esto, aparte de los modos, estamos hablando de modo hablado, de lo que es la fonía, pero el radioaficionado también puede ser el radioaficionado que hace telegrafía, que hace morse. El radioaficionado también puede ser el que conecta su ordenador a su emisora y con un programa comunica con otro radioaficionado con modos digitales. ¿Cuánta gente empezó así conectándose a internet con los modems y la radioafición? En los años 80, ¿verdad? Más o menos. Exacto, sí, sí, con el radioaficionado. Con Radio Packet y la radio digital. Todo eso ha evolucionado con protocolos digitales que te permiten contactar prácticamente con medio mundo, aunque no haya propagación, porque la señal digital parece que penetra más que la analógica. Y es que tiene muchas vertientes, como digo, el radioaficionado al final es un apasionado de la radio, que le gusta cacharrear, que le gusta experimentar y que tiene muchos cacharros para comunicarse y para charlar. Pues con el rebote lunar, había una de las... Sí, sí, sí, sí. En bandas más altas, en frecuencias más altas, el rebote lunar, es decir, atacas contra la luna, la señal rebota y vuelve. Y así pues puedes hacer... o también vía satélite. Hay radioaficionados que esperan que pase el satélite para contactar, pues no sé, con la Estación Internacional, ¿no? Con la Estación Espacial Internacional para hacer un contactillo de dos minutos. Porque después ya ha pasado el satélite y ya se ha terminado el contacto. Pero bueno, tiene muchas tipologías. ¿Tú cómo comenzaste? Pues mira, yo empecé... todo el mundo, o muchos radioaficionados que conozco, te dirán que empezaron en banda ciudadana, lo que se llamaban los 27 megahercios. Ahí empecé yo y acabé. La CB27, ¿no? Sí. Porque, bueno, era más fácil conseguir un aparato, te plantabas una antena en el balcón o en el tejado y te inventabas un nombre. Pues yo qué sé. Águila Roja. Águila Roja, por decirte algo. O cegato o aparato. Y salías al aire y ya está. Creo que sí que tenías que pagar unas tasas y declarar los equipos, pero bueno, ahora ya no. Era mucho más fácil, salías al aire y venga, ya estaba. Era como todo más caótico, pero a la vez, pues bueno, iniciabas ahí. Incluso cuando había propagación, pues podías contactar también con gente de otros países. Sobre todo en banda lateral. En banda lateral, correcto, en la modulación de banda lateral. Había gente que incluso se plantaba una antena en la playa y contactaba con los países más cercanos como Italia. Y en noches así de mucha propagación, pues con Sudamérica o con Centroamérica. Y era una pasada. Lo digo porque mucha gente empezaba así y luego cursaba los exámenes del Ministerio de Telecomunicaciones para acceder a lo que eran las bandas ya de radioaficionados. Y ahí pues, bueno, había otros modos. Podías acceder a más frecuencias, a más bandas, a más tipologías de comunicación. Y mucha gente empezaba por la CB27. En mi caso, mi padre era radioaficionado. Antes los radioaficionados, lo que hemos comentado antes, ECOBRAVO 1, ECOALFA 3, son los tipos de licencias, los tipos de clases de radioaficionados. Antes había como tres clases, ¿no? ECOALFA, ECOBRAVO y ECOCHAR. Cada uno tenía unos, entre comillas, privilegios. O sea, había ciertas cosas que podía hacer. Un ECOCHAR era el más novatillo. Sólo podía salir en según qué frecuencias. ECOBRAVO ya tenía un poco más de privilegio. Y ECOALFA ya podía salir por donde quisiera. Incluso para sacarte el examen de ECOALFA te pedían saber telegrafía. Y creo que en las otras dos tipologías no. Esto ahora ha cambiado. Cuando yo me saqué el examen ya eso se había... Se había derogado en cierto modo. Y íbamos todos a lo mismo que era ya el ECOALFA. Que era la licencia general, por llamarlo de alguna manera. Pero los americanos, por ejemplo, siguen teniendo el Newbie, el Rocky, el Technician, el Expert... No sé, era como ciertas clases que tú empezabas por el ECOCHARLY para prodigarte por ciertas frecuencias o ciertas bandas. Y luego ibas subiendo como de categoría que te permitía ya acceder a otras bandas y a otras frecuencias. Pues a lo mejor porque podías contactar ya en bandas que estaban más pensadas para los contactos a distancia. O podías experimentar en otros modos. Pero no lo sé bien bien porque, ya te digo, cuando yo empecé, ya que me saqué la licencia en serio, en 2007, ya todo esto lo habían derogado. Entonces, mi padre, por ejemplo, era ECOBRAVO. Y el ECOBRAVO podía salir en las frecuencias más altas. En dos metros, pues más comunicaciones locales, a nivel de repetidores, sistemas repetidores de radio... Y me acuerdo además que era un domingo por la tarde. Lo típico que estás aburrido y te pones a remover cajones a ver qué encuentras por ahí. Pues para lo que comentábamos antes, pues ya debía estar aburrido del teclado electrónico. La radio del transistor, pues ya me habría dado toda la vuelta por el dial y empecé a remover cajones a ver qué encontraba. Y encontré un aparato con un teclado electrónico. Bueno, con ruedas, con diales, con volumen... ¡Ostras! ¿Qué es esto? ¿Qué será esto? Y se lo comenté a mi padre. Digo, oye, ¿esto qué es? Dice, esto es un aparato para hablar y escuchar. ¡Ostras! ¿Y tenemos eso en casa y yo no lo sabía? O sea, ¿qué pasa aquí? Lo enchufamos... Mi padre tenía la antena en el tejado todavía, de cuando él era joven y hablaba y se comunicaba. Lo enchufamos. Evidentemente la emisora no arrancó. Porque hacía muchos años que estaba frita. Pero bueno, mi padre vio ahí un filón y dijo, pues vamos a arreglarla. Vamos a ver qué pasa. La arregló. Y para mí eso fue como, pues qué os diré, como tener una pantalla al mundo. Y eso que solo era una emisora de una banda muy local, que podías escuchar a gente. Pero bueno, aunque fuera una banda muy local, podías escuchar a gente de toda la provincia. Yo además vivía entre Cataluña y... en la frontera, digamos, entre Cataluña y Castellón. Y Valencia. Entonces a mí me entraban estaciones tanto de la zona 3, que es Cataluña, como de la zona 5, que es Castellón. Entonces bueno, pues para mí eso era como... Mi padre, sobre todo no hables, que aquí no puedes hablar si no tienes licencia. Tú solo escucha. Bueno, pues como os podéis imaginar, yo la segunda tarde me dio por hablar. Evidentemente me mandaron a freír espárragos. Me acuerdo de la frase de, venga chavalín, deja eso que es de tu padre y no toques lo que... lo que tal. Yo me fui llorando a mi padre. Oye, ¿qué me han dicho esto? Mi padre, ya te lo avisé. Ya te avisé que no tenías que hablar, que esto no es para hablar, esto es para escuchar. Y me tiré muchos años dándole vueltas a ese dial y escuchando. Y así aprendí. Aprendí los códigos, los códigos Q, que es un código que utilizamos, ¿no? Pues, yo qué sé, QRA, pues el nombre. QTH, el domicilio. QSL, que es, pues me copias, ¿no? Es QSL. QRZ, te están llamando o estás llamando. Y un montón de códigos que los aprendí escuchando. O sea, los memoricé prácticamente escuchando. Yo fui al examen prácticamente sin estudiar nada porque ya me lo sabía. Lo que pasa que... Entonces sí que es verdad que como mi padre conocía a algún reaficionado, bueno, pues me permitían a veces en alguna frecuencia en directo, pues hablar, ir practicando un poquito. Con el indicativo de mi padre, pues hacíamos un poco la trampa y salía. Pero vamos, todo empezó así. ¿Te quitaban el esparadrapo? Venga, que hable Miguel. Sí, sí, sí, sí, sí. Además es cierto. Me quedaba muchas noches escuchando y apuntándome. Oye, hoy he escuchado una conversación, yo qué sé. Pues hoy me ha entrado una estación de Argelia. Recuerdo el primer contacto así a larga distancia que hice con Argelia. Y digo, pero madre mía, con una antena que está en el tejado, ¿cómo puedo estar escuchando a gente de Córcega o de Francia o de Argelia? Pues pasaba, pasaba y era una pasada. Y eso que no había descubierto todavía el HF, que eran las bandas más proclives para hacer contactos a larga distancia, que entonces ya bueno... Es curioso porque incluso dependiendo de la frecuencia puedes escuchar a alguien de Argelia y no escuchar a tu vecino que tienes dos bloques más para allá. Sí, sí, sí, sí, sí, exacto. A veces no escuchas a gente que está en tu mismo pueblo, por el tema de la propagación que comentábamos antes, y escuchas a otra persona que está en la otra punta del mundo, que está en Brasil, en Argentina, en Chile o en... Es muy curioso, según las frecuencias, según cómo funcionen. No me preguntéis mucha teoría de propagación y de las capas de la ionosfera y lo que va por arriba y lo que va por abajo, porque no me lo sé. Pero básicamente sí que podemos hablar de cómo se produce el contacto, ¿no? Como qué es lo que sale de la antena, a dónde va, cómo rebota... Eso sí que lo podemos contar, ¿no? Bueno, hasta dónde sé, ya te digo que no es muy técnico, y que no es muy técnico depende de las bandas. Es decir, hay propagación que va por, digamos, por la ionosfera y al final es de antena a antena, ¿no? Es decir, la onda sale de tu antena y la recibe la otra antena. Al final es eso, ¿no? Pero hay diferentes tipos. O sea, el comportamiento de las ondas de radio al viajar desde tu antena a la otra antena, pues pueden, desde lo que es el transmisor al receptor, pues pueden viajar de diferentes maneras. Y bueno... En lugar de hacer un rebote, ¿no? Con un ángulo muy agudo que podría caer cerca de tu población, igual lo hacen muy abierto y entonces se va a arreglar el día, bueno... Pueden ir en línea recta, pueden rebotar, pueden doblarse, o bueno, depende de las frecuencias. Y sí que es cierto que hay diferentes tipos, y sobre todo, por ejemplo, hay bandas de frecuencias que son más usables por la noche, por ejemplo, los 80 metros y los 160 metros, son bandas que solo funcionan por la noche aquí. En cambio, los 10 metros, los 6 metros o los 20 metros, que son otras bandas, son más usables, por ejemplo, durante el día. Y luego hay bandas que se pueden usar tanto por la noche como por el día, y depende también del cambio horario. Pues a lo mejor, claro, tienes que tener en cuenta que tú estás en una zona horaria y a lo mejor un americano va a estar en su zona horaria. Por lo tanto, también tienes que tener en cuenta que tú estás en una zona horaria y a lo mejor un americano va a estar en su zona horaria. Por lo tanto, también tienes que tener en cuenta que tú estás en una zona horaria y a lo mejor un americano va a estar en su zona horaria. Por lo tanto, también tienes que tener en cuenta que tú estás en una zona horaria y a lo mejor un americano va a estar en su zona horaria. Por lo tanto, también tienes que tener en cuenta que tú estás en una zona horaria y a lo mejor un americano va a estar en su zona horaria. Por lo tanto, también tienes que tener en cuenta que tú estás en una zona horaria y a lo mejor un americano va a estar en su zona horaria. Por lo tanto, también tienes que tener en cuenta que tú estás en una zona horaria y a lo mejor un americano va a estar en su zona horaria. Por lo tanto, también tienes que tener en cuenta que tú estás en una zona horaria y a lo mejor un americano va a estar en su zona horaria. ...que tiene una longitud de onda de 2 metros, ¿no? Y la de 40, pues de 40 metros. Exacto. En teoría, pues haría falta una antena... Sí, como más bajas son las bandas, pues la onda es más larga. En teoría, haría falta una antena... Necesitas también antenas más grandes para comunicarte. Una de 2 metros, una antena de 2 metros y una de 40 metros, en teoría, haría falta una antena de 40 metros. Sí, pero bueno, eso luego tiene... claro, luego tienes antenas, pues, de media onda, de un cuarto de onda. Para los 2 metros, por ejemplo, con una antena que puede medir 50 centímetros te bastaría. En cambio, para la banda de 80 metros, sí que es cierto que requieres antenas mucho más grandes o poner bobinas, que son como unas pequeñas trampas que van enrolladas a la propia antena. Pero bueno, claro, va todo un poco ligado con lo que decíais al principio. Hoy en día, que es tan fácil esa comunicación con el teléfono móvil, ¿no? Que abrimos un programa y estamos hablando con quien nos dé la gana, incluso con esta calidad de audio con la que nosotros estamos grabando ahora, pues cuesta convencer a una persona que se... que se tiene que comprar unos equipos que son caros, que tiene que pasar un examen, que se tiene que instalar unas antenas que son grandes y aparatosas. Y yo, por ejemplo, en el pueblo tengo una torre de 12 metros de altura. Imaginaros mi familia lo contentos que están con esto. ¿Y los vecinos también, para ver la tele y eso, también están contentos? No les hago muchas indiferencias, porque si no ya me voy a llamar portadora, ¿no? La portadora, bueno, sí, en algunas bandas hay portadora. Y eso, a ver, antes... Sí que es verdad que interfería bastante. Teníamos muy mala prensa los radioaficionados, porque decían que interferíamos en las televisiones. Pero bueno, también es verdad que con una buena... Si la antena está bien ajustada y bien filtrada, no tendrías por qué interferir en nada. De interferencias podemos hablar más tarde, que es nuestro punto débil hoy en día. O nos está, digamos, haciendo la vida muy complicada a los radioaficionados. Lo que ocurre es que hay que ser una persona muy respetuosa, ¿no?, cuando se establece un QSO, un contacto, porque te están escuchando. Escuchando a los demás, ¿no? Dicen que hay temas que en radioafición no se deberían tratar, como por ejemplo en la política, el fútbol o la religión. Son temas que, no porque sean tabús, sino porque... Yo siempre lo digo, yo no vengo al mundo de la radioafición a discutir con nadie. Vengo a hacer un contacto, vengo a conocer gente. Si un contacto se repite... Además, hoy en día pasa una cosa que me parece muy bonita, que es que... Yo hago un par de contactos o tres con la misma persona y esa persona, pues, por lo que seamos conectado, ya te buscas en internet, buscas el indicativo. Tú pones el indicativo, que son esas letras que comentábamos. Pues alguien pone EcoAlpha3, GolfZuluAlpha, EA3, GZA. Lo pone en Google, ya le sale mi página o ya le sale información sobre mí. Ya encuentra un correo electrónico, ya podemos contactar. Y, bueno, es bonito en ese sentido. Entonces, yo no voy a discutir con nadie ni a formar debate. De cosas que puedan ser, bueno, menos respetuosas. Voy a aprovecharme de la radio y de esa magia que tiene. Lo digo porque sí que es cierto que te encuentras de todo. Y que, bueno, pues como en todos los sitios, como en cualquier colectivo, hay gente más buena y gente menos buena. Pero el radioaficionado tiene que ser eso, una persona dispuesta a ayudar. Si hablamos, por ejemplo, de episodios de emergencia, por ejemplo. Pero también estar dispuesto a ser respetuoso, a esperarse, a dejar que el otro haga el contacto cuando él ya ha terminado y a no poner interferencias, pitos, portadoras, insultos y cosas de esas que pasa. Son los menos, pero claro, son los que hacen más ruido también cuando pasa una cosa así. Y para empezar en esto, ¿qué hace falta? Hace falta, hemos hecho una emisora, una antena, ¿vale? Con un walkie, hace falta algo básico, algo muy complicado. Muy caro, muy caro, barato. Bueno, en realidad para empezar lo que hace falta evidentemente es interés, es que te guste, es decir, ya conectar con el medio, digamos, con la radioafición. Y sobre todo también yo creo que es importante encontrar un grupo. Por eso también es importante hacer un poco de colectivo. O lo que antes funcionaba muy bien eran los radioclubs, porque entonces tú podías ir, conocer gente, probar equipos, ver lo que te gustaba. Pero como hay tantos modos... Aquí, por ejemplo, tenemos colegas radioaficionados que no hablan, que se dedican a hacer telegrafía y modos digitales. Y en cambio hay otros que no callan debajo del agua, como es mi caso, exacto. Y que nos encanta la afonía y nos encanta tanto hacer contactos a larga distancia como tener un walkie y hablar con la gente de aquí, de la propia Tarragona, y contarnos 30 veces lo mismo. Y eso que dicen que te despides más que un radioaficionado porque te estás despidiendo. Pero espérate, que tengo otra pregunta. Tengo otra cosa, pero espérate que al próximo cambio te comento una cosa y tú me comentas otra. Entonces, para empezar, bueno, hoy en día sí que es cierto que con un walkie. Para empezar, a ver, para empezar, lo que hay que tener es eso, ganas y sobre todo, sacarte la licencia. Es decir, sacarte el examen. El examen de radioaficionado es un examen que lo han facilitado mucho. El nivel es bastante, entre comillas, básico. La gente ciega también. Bueno, el examen tiene varias partes. Y hay una parte que es más eléctrica y electrónica. Y es ahí donde la gente ciega puede tener más problemas a la hora de, pues, interpretar. A mí me costaba mucho, por ejemplo, el tema de las fórmulas o entender qué significaban las longitudes de onda. O entender cuando me hablaban de transistores, diodos, fuentes de alimentación, etcétera, etcétera. Sí que es cierto que, como esto, en las jefaturas de telecomunicaciones te ayudan bastante y mucho. Para entender todo esto y para poder hacer el examen. Y ahora mismo los libros de estudio para el examen de radioaficionados ya se pueden encontrar tanto en audio. Me parece que en la biblioteca de la ONCE está el libro de examen en DAISY. Y luego hay algunos radioclubs que incluso han editado ya libros más dirigidos en PDF. O sea que, por información, es fácil. Incluso la Unión de Radioaficionados Españoles... Tiene también una plataforma que tú puedes hacer como si fuese el examen de conducir. Puedes ir probando exámenes tipo test para ver cómo lo llevas, qué tal, dónde fallas, etcétera, etcétera, etcétera. No hace mucho me contactó un compañero de la zona 7 de Sevilla que quería sacarse el examen. Y tenía también el mismo miedo, ¿no? Es que, ostras, a mí hay cosas que no las termino de entender. A mí me pasó una cosa muy curiosa haciendo el examen porque me lo hicieron en ese momento. Eran en papel y a mí me lo hicieron oral, ¿no? El jefe de telecomunicaciones de aquí me lo hizo oral. Sé que ahora ya lo hacen por ordenador y tú eliges tu respuesta y es más accesible y también no dependes de la otra persona. Pero claro, el examinador me decía, es que la pregunta es, ¿qué tipo de antena aparece en este dibujo? Y dice, si te la describo, te estoy diciendo ya qué tipo de antena es. Entonces pasaban cosas así, ¿no? Pero bueno, que me voy por las ramas. El tema es que hay que sacarse la licencia, hay que sacarse el examen. Y a partir de aquí... Pues lo que te gusta. Si con un simple walkie tienes la suerte de tener en tu ciudad o en tu zona un repetidor donde tú puedas escuchar y puedas atacarle con el walkie para hablar con otros radioaficionados, perfecto. Si tienes la suerte de que tienes otros radioaficionados cerca que te irán guiando y que vais a poder ir hablando, pues fantástico. Porque claro, tienes que tenerlo muy claro a la hora de empezar porque claro, los equipos son caros, las antenas son caras. Si quieres un buen sistema de comunicación a larga distancia, ya estamos hablando de mástiles en el tejado, torretas en el tejado, antenas grandes... No es fácil, no es fácil empezar porque hay mucha opción. Miguel, vamos a ponerle un precio aproximado a las cosas para que la gente se haga una idea desde lo que sería el plan formativo, la licencia, más o menos. Yo tampoco entiendo, hay que ser exacto. No, la licencia me parece que nosotros como personas ciegas estamos exentos de... De tasas, entonces no pagamos nada. Lo digo de memoria, si me equivoco. La unión de radioaficionados, por ejemplo, tiene como una especie de cuota base para gente que se quiere hacer radioaficionada, que ya incluye el libro y la opción de hacer los exámenes tipo test, que no es caro, no sé, no me acuerdo, pero ponle menos de 50 euros, por decirte algo. Y entonces los equipos, que ahí es donde estaría el problema. El tipo nuevo de radioaficionado, es decir, una emisora nueva de radioaficionado, nueva, comprada nueva, es difícil que encuentres algo por menos de 1000 euros. Entonces, claro, es un dinero. Más la antena, más los mástiles, claro, es mejor empezar por un walkie, que los puedes encontrar hoy en día por 100, 150 euros o incluso más barato, según la banda que quieras explorar, que no lanzarte a gastarte un dineral en equipos y antenas. Eso también es un problema, porque últimamente, además, con lo del pasado apagón, hay mucha gente que se está queriendo introducir en esto, y he visto por ahí, por grupos de Telegram y por ahí, que hay un walkie por ahí muy popular que cuesta 15 euros, claro, que la gente se lo está comprando como si lo regalaran, y luego, claro, ¿qué puedo hacer con esto? ¿Que no escucho nada ni a nadie? Bueno, y además la legalidad de ese walkie, porque claro, ahí hay otro tema. Bueno, una cosa es que tú te compres un walkie en cualquier centro comercial de los denominados PMR, los típicos walkies que compras para ir de camping o para los niños, o los típicos walkies Motorola, que estos walkies emiten con medio vatio de potencia y tienen unas frecuencias asignadas que no hace falta licencia ni hace falta nada. Es otro tipo de walkies que mucha gente se los compra, pues bueno, porque me han dicho que alcanzan más para salir a la montaña. Porque ya requieren de licencia de reoficiado. Lo que pasa es que te los compras por internet y nadie lo comprueba. Te llegan a tu casa, tú te los programas y a nosotros nos ha pasado gente que entra en frecuencias de reoficionado que le dices, perdona, dime tu indicativo. Y te dicen, ¿qué? ¿Cómo? No tienen ni idea, porque se han comprado el walkie y se han metido en esas frecuencias. Y sí que es cierto que con la llegada de los walkies chinos, made in China, pues hay cosas que están muy bien para los reoficionados, pero también, claro, para el público en general, comprarte un walkie por 15 euros y que te esté emitiendo con 5 vatios, que ya es una potencia para un walkie considerablemente que está bien, pues bueno, tiene sus pros y sus contras. Yo tengo un familiar que cuando va a Andorra o a los Pirineos, que van con los amigos, 4 o 5 coches, lo que llevan cada uno es un walkie-talkie, porque ahí pierden cobertura muchas veces. Y es la forma de coordinarse. Nadie tiene licencia, no tienen licencia, pero bueno. Bueno, faltaría saber qué tipo de walkie llevan. Y si es un walkie que ya está pensado para esto, o se han comprado un walkie que puede emitir en diferentes frecuencias, han elegido una frecuencia al azar y se han puesto aquí. Controlar esto es muy difícil. Es muy difícil controlarlo. Entonces, bueno, pues hay que apelar un poco al sentido común. La gente tampoco nos lo hace para molestar, lo hace por desconocimiento. Porque la vía de comprarte... Bueno, en esto existen, como tú has dicho, receptores, como sería el walkie, pero con la capacidad de... De emisión también, ¿no? Que decías tú, atacar, ¿no? Que podías hablar... Normalmente un walkie ya tiene la capacidad. Es decir, un walkie-talkie es un transeptor que recibe y emite. Entonces sí que es cierto que puede estar... Siempre son más amplios en recepción. Es decir, los walkies normalmente reciben en muchas frecuencias, pero ya están, entre comillas, capados de serie para no entrar, pues yo que sé, un walkie... Piensa que tú, por ejemplo, con un walkie, con este walkie que comentaba Arturo, de 15 euros, es una banda aérea. O sea, después puedes escuchar... Si tienes un aeropuerto cerca, vas a poder escuchar las comunicaciones de los aviones. Claro, en estas bandas no tienes que emitir, porque la podrías liar muy, muy gorda. Entonces los walkies ya van capados en ese sentido, en estas frecuencias, para que no puedan emitir. Luego hay otras frecuencias que sí, que están más... que están abiertos y que pueden emitir. Porque existen receptores, ¿no? Sin más, ¿no? También, también, sí, sí. Existen... ¿Y tú lo recomendarías para empezar? ¿Quién quiere escuchar exactamente qué es lo que se cuece, por si luego le gusta o no le gusta? Sería genial, sería genial un receptor. Y además, hoy en día ya no hace falta ni que te compres un receptor, porque existen unos entornos web que se llaman SDR. Bueno, serían Web SDR. SDR es la radio definida por software. Entonces existe un entorno que es el Web SDR, que consiste que un radioaficionado o alguien ha conectado su emisora a internet, o un receptor, básicamente es un receptor, porque no, no, no puedes emitir. Entonces tú entras en esa página web y tienes ahí un receptor que te puedes controlar. Tienes que tener en cuenta dónde está esa antena, es decir, a lo mejor hay un SDR en Asturias, a lo mejor hay un SDR en Valencia, un SDR en Tarragona, y tú ahí ya tienes un receptor donde tú puedes cacharrear, ver qué se cuece en cada banda, ver qué se cuece en cada frecuencia. Mucha gente empieza por ahí, entrando en un programa, en una web de estas, normalmente suelen ser abiertas porque el radioaficionado, de manera altruista, ha dejado su emisora conectada ahí para que otro vaya, la toquetee, y vaya escuchando, vaya explorando los canales. Pero no puede emitir. ¿Solo en sitios web o también hay aplicaciones para móviles que puedes hacer esto? Hay aplicaciones, creo que para Android sí, diría que para iPhone que yo haya encontrado no. La mayoría son sitios web. Pues lo pondremos. A veces son emisoras conectadas a una Raspberry Pi, por ejemplo, que ya les... que está mandando el audio a través de Internet con el interfaz conectado a la emisora y tú entras en esa web y puedes cambiar las frecuencias, cambiar las bandas, siempre que el radioaficionado lo haya permitido, claro. También hay radios multibanda que puedes escuchar. Yo me acuerdo que escuchaba la voz de Rusia en español o Radio Canadá Internacional en español, que emiten a ciertas horas del día. Eso no tiene mérito, Arturo, tenías que escuchar la voz de Rusia en ruso para... Bueno, Radio China continúa... Radio China continúa haciendo emisiones en español, aunque menos, en Onda Media. Y va muy ligado. La gente que le gusta la radio, que son apasionados de la radio, pues va muy ligada. Hay mucha gente que radio escucha y que ha empezado por ahí y que ha escuchado y de pronto un día se ha encontrado con bandas de radioaficionado y ha dicho voy a ver qué es esto. Y que tendría un multibanda, un receptor multibanda con una antenita bastante apañada para tener más recepción. Ahora mismo, con los receptores chinos, por unos 100 euros tienes un receptor multibanda que lleva ya su propia antena. Incluso una antena de hilo que la puedes sacar por la ventana, la puedes, si tienes un patio, si tienes un jardín, la puedes extender y recibes bastantes cosas. Y muchas interferencias. Somos una radio multibanda o un escáner. También hay escáneres que tienen una frecuencia... Exacto, sí. Las radios multibanda normalmente... yo qué sé, ahora me viene a la mente pues... Yo tengo, por ejemplo, una que es de la marca Texun, me parece, y es una radio que recibe desde las bandas más bajas de radio comercial a la mayoría de bandas de radioaficionados y llega hasta la banda aérea. Y claro, con un aparato que cuesta aproximadamente unos ciento y pico euros, ahí ya tienes un receptor que te lo puedes llevar donde quieras, va a pilas y si hay un apagón pues te recibe. Esto en aparatos convencionales. Luego ya hablaremos de aparatos accesibles o no accesibles. Bueno, ahí tenemos poco mercado ahí. Luego ya comentamos un poco cómo está el tema de la accesibilidad en esto. De momento estamos un poco en plan genérico, ¿no? Y esto es para oír, porque para ser escucha, para hacer un poco de oreja, cualquiera puede hacerlo. Pero luego, como hemos dicho, para poder transmitir, ahí sí que hace falta el tema de las licencias. Como has comentado un poco antes, estaban los Echo Bravo, Echo Charlie y Echo Alpha. Sí. Luego tenía la banda de dos metros, setenta centímetros. Tenía, sobre todo, voz y packet y poquito más. Y ahí morías, no podías hacer nada más. Y luego estaban los Echo Charlie, que tenían otras frecuencias distintas. Tenían el Charlie Whiskey para poder hacer morse con un número determinado, bueno, más o menos lento, en palabras por minuto. Y luego el Echo Charlie después podía aspirar a ser Echo Alpha. Tenía que presentar unas QSL, unos contactos que había hecho. El examen para Echo Alpha también... el de Echo Charlie y el de Echo Alpha los dos incluían telegrafía, Echo Alpha más rápida y un poco más avanzada. Y Echo Alpha pues ya incluía todo, ¿no? Incluía las bandas de Echo Bravo, Echo Charlie y otras adicionales. Realmente te lo tenías que currar, ¿eh? Porque todo esto ahora ya no funciona así. Ahora tú vas a hacer el examen, te dicen, venga, ¿qué día quieres hacer el examen? Vas, haces un examen tipo test y te sacas la licencia y te dan el... el indicativo del Echo Alpha. Aunque mantienen, ¿eh? También los Echo Bravo y Echo Charlie. Por ejemplo, hay gente que... Normalmente ahora los indicativos son de tres letras, pero hay gente que luego pide indicativos de dos letras y están reciclando indicativos antiguos y te puede tocar un Echo Bravo o un Echo Charlie. Pero ahora mismo las clases son las mismas. O sea, da igual tener un Echo Charlie que un Echo Bravo que un Echo Alpha. Vas a poder hacer exactamente lo mismo. Cualquiera de ellos, ahora mismo todos tienen acceso a todas las frecuencias. Sí. Y luego está lo del numerito que te va repartiendo por... Sí. Zonas geográficas en España. Por zonas, exacto. España tiene nueve zonas y... Bueno, y el cero... Y el cero para el rey. Y la cero para el rey, sí, sí. Bueno, porque el rey anterior era reaficionado y entonces le dieron el Echo Alpha cero... Juan Carlos, fantástico. ...Juliet Charlie, de Juan Carlos. Y ahora el de ahora tiene un indicativo asignado que es Echo Fox cero Fox. Pero bueno, porque hay un concurso de su majestad el rey y se sigue... Pero vamos, yo dudo que el rey de ahora haya tocado... Ha tocado una historia. Yo creo que no, ¿eh? No creo, no creo. ¿Y hay alguna frecuencia que esté libre, que no haga falta licencia o algo como Banda Ciudadana o como está ahora? Sigue existiendo la Banda Ciudadana de 27 megahercios y luego lo que se llama el PMR, que es el Personal Mobile Radio, que son esos walkies que podemos encontrar, pues eso, en grandes superficies o... Los típicos Motorola. Yo ahora, por ejemplo, le compré para mi hija unos para su cumpleaños y son de la frecuencia de 446, que se le llama, 446 megahercios, que son walkies que están en UHF y no requieren licencia. Tienen muy poca potencia y no requieren... Banda Ciudadana en 27, ¿no? En 27 megahercios también hay 40 canales... En 27 megahercios, sí. ...40 canales que están un poco... o estaban por lo menos un poco distribuidos, ¿no? Para camioneros, para tal... cada uno tenía un poco de licencia. Había canales específicos, el 19 y el 22, creo que eran los de camioneros. Había luego uno para emergencias... El 9 era marinería, era bueno, los barcos... Sí, sí, sí. Taxistas también. Pero los taxistas no eran de Radio Taxi, sino que eran taxistas que se apoyaban en este tipo de banda para... Normalmente llevaban dos emisoras, ¿eh? Los taxistas, la emisora suya de la central y luego para comentar la jugada llevaban otras emisoras. De hecho, aquí tenemos algún razonamiento. Hay un profesional que es taxista y lleva en su taxi dos emisoras y te está contando que tiene un servicio y a la vez estás escuchando cómo le llaman de central para los servicios que tiene que hacer. Estaba en la ciudad una de 27 que, bueno, sí que realmente ha estado muy denostada porque, claro, podía entrar cualquiera que tuviera el dispositivo sin... Sí. ...y realmente pues podía trolear a una persona, podían acosar a otra, podían... entre otras cosas maravillosas que también hacían. Y una de ellas era la utilización que hacían los camioneros... Sí. ...para prestarse apoyo cuando viajaban en el camión y no existía teléfono móvil. Es decir, la gente del camión, que también hay cada bandarra que no veas, pero bueno... Bueno, pero eso es lo que hemos dicho antes, lo hay en todos los sitios, pero sí que es cierto que los camioneros, la emisora, mucha gente la asocia todavía con el camionero porque grandes viajes, mucha carretera, no había comunicación por el teléfono móvil, pues ¿cómo se comunicaban o cómo se daban apoyo? Pues vía la emisora de 27. Sí. Con una antena y a charlar y a darle ahí al disco y al micrófono. Yo tenía una Stalker Superstar de 27 y la tenía montada una... no sé si era Sirio la antena o una Tagra. Las antenas Sirio. Sirio y Tagra todavía, sí, sí. Sí. Bueno, y tenía una Tagra en el coche muy chula, que la ponía yo con una palometa ahí en la ventana y entonces yo ya no veía, porque a mí la radio fue un regalo de una tía mía, ¿no? Un gran regalo, que me dio mucha virilla y muchas relaciones. Y entonces cuando iba concretamente a Tortosa, iba con el coche de mi padre y demás, o iba a Sabadell cuando estuve haciendo lo que fue la rehabilitación, no veas lo bien que nos vino llevar la emisora en el coche para poder entrar a la ciudad o ir a Castelarnau, que no lo sabíamos, y los propios camioneros que estaban en ruta nos decían exactamente pues por dónde teníamos que ir, como si lo hubiéramos hecho con un teléfono móvil. Una gran ayuda, ¿eh? Sí. Sí. Es que tenía eso que comentábamos antes del respeto, del quehacer del radioaficionado, iba intrínseco aquí, es decir, el radioaficionado por definición, o la gente que utilizaba la CB27, estabas pues para asistir y para ayudar a lo que te pedían. Y bueno, ahora también pasa, pero menos, porque yo por ejemplo llevo una emisora en el coche de 2 metros, bueno, de VHF y UHF de 2 metros y 70 centímetros, normalmente haces llamada por los canales que sabes que puede estar gente. Hay repetidores analógicos o digitales, y yo creo que muchas veces la gente te oye, pero si no, si solo llamas para ver qué pasa, que bueno, hay alguien por ahí en frecuencia para charlar y tal y cual, muchas veces no sale nadie. Es verdad que se ha ido perdiendo, es decir, yo no tengo los datos, pero la caída, sí que todavía hay muchos reaficionados, porque hay muchísimos, pero la caída es abismal, es decir, que tampoco no es como antes, y las bandas lo notan. Y los repetidores y las frecuencias lo notan. Eso también os quería comentar, que no se piense la gente, que hay muchas frecuencias, solo las 40 frecuencias, las 40 principales en VHF y demás, que hay los, pero que sale muy poca gente, ¿no? Que si uno se comprueba aquí con intención de tal, pues hay muy poca gente. Ahora el 27, no. Aquí mismo en Tarragona pones el 27 y no hay casi nadie. Puede que haya un canal que a veces habla gente. Aquí en Reus había un club de 27 que funcionaba, luego en Tortosa, en Roquetes, había también una asociación que se dedicaba a canales de 27, pero no, muy poquita cosa. Eso será así como, a ver si me sale, sería Mobile Phone Killed, ¿no? City Band Radio. Exacto, City Band, sí. O Ham Radio, bueno, la Ham Radio no, yo creo que también, bueno, no quiero ser muy catastrófico, intento no serlo, con el tema de Internet y de los teléfonos móviles, yo creo que nos hemos aliado. El reoficial siempre ha sido muy de cacharrear y Internet también ha traído cosas, pues lo que os comentaba antes, o tener programas de apoyo, o tener el libro de guardia ya en la nube, o mandarnos las QSLs, que no lo hemos comentado, las QSLs son unas tarjetas que antes eran como unas postales en papel, que tú mandabas vía correo para confirmar que tú habías hecho ese contacto, con tu sello, con el matasello, con la postal, con tu dibujo... Con datos, etcétera, etcétera. Y incluso hay gente que hace, bueno, que hacemos contactos a larga distancia, contactas con una isla remota o con una expedición que está en las islas, lo que sea, y para mandarte la QSL tienes que mandar tú primero el coste del envío en sellos o en IRCs, o mandar una carta con tres dólares para que te manden la QSL en papel. Todo esto se ha facilitado mucho con el digital, porque ahora te mandan un... Un correo electrónico vía plataformas que lo verifican, que son... que un correo electrónico al final pues es como más... Bueno, al final, bueno, engañar o no engañar, todo el mundo puede engañar. Yo puedo decir que estoy saliendo desde Japón y está saliendo desde mi pueblo, pero bueno, eso ya es como hacerse trampas al solitario. Pero antes con los sellos sí, porque era todo más romántico y tenía encanto, porque yo tenía que, a cada pueblo donde iba a vivir, tenía que hacerme un office postal, un cajetín de estos de la oficina de correo. Un apartado de correo, sí. Que llamamos P.O. Box, ¿no? Es que cuando lo... El P.O. Box, sí, sí. Muchos reaficionados todavía lo conservan, el P.O. Box. Y no era caro, ¿eh? En aquel momento. Entonces, y tenía un número. Era mucho más fácil dar tu P.O. Box y te evitabas dar dirección y nada, con lo cual... Claro. Claro, todos hablamos de establecer una comunicación, pero a veces hacíamos la QSL el contacto, pero en condiciones muy precarias, con lo cual conseguirlo tenía un valor grandísimo. Igual, igual... Estableces una comunicación, una conexión buena, pues tienes un mérito, pero cuando era complicado y que empezaba a caerse la señal y tenías que seguir luchando hasta que tenías todos los datos, era muy emocionante, ¿no? O por lo menos, vamos, yo lo viví así. Era mágico, era mágico. Ahora, claro, yo sí copio ya parte de un indicativo y me falta alguna letra, ya enseguida te vas a internet e intentas buscar. A ver, ¿qué me está diciendo? Juliet Hotel 3, pues era de Japón. A ver, voy a poner Juliet Hotel 3 Golf, a ver si me sale algún reaficionado. Pero bueno, sigue siendo bonito en el sentido de que internet es como un apoyo, pero al final si no lo oyes, no lo oyes. Y si la apropiación cae mientras estás hablando y no le puedes copiar el indicativo, pues te vas a caer con las ganas y va a ser la próxima la que le copies. Entonces sí que hay sistemas de QSLs digitales que verifican que el contacto esté cruzado a la misma hora, que esté subido, pues que coincida banda, frecuencia, modo... Ahora UTC y lo verifican, pero bueno, yo sigo coleccionando. Es curioso porque un día me lo decía mi mujer, dice, pero tú para qué coleccionas las QSLs en papel si tampoco las ves. Y es curioso, pero las tengo, las tengo. Ahora con Vimayais podrías verlas. Algunas las escaneo y me las... el móvil me las describe. Y las sigo mandando también en papel, yo sigo mandando papel, aunque cada vez hay mucha gente que ya te dice no... No paper. Only digital card y... Y only EQSL, only lot of the world, que son las plataformas que utilizamos por internet. Y cada vez ya van llegando más QSLs que son un JPG vía correo electrónico. Es decir, tú acabas de hablar con la persona y pum, te salta un correo electrónico. Son los nuevos tiempos. Bueno, cada uno... A mí me llegaban llenas de reposavasos, de publicidad de la zona donde estaban, de alguna moneda, de poco un billete, de poco valor también metido dentro. Eran como referencias... Incluso había gente que las mandaba en braille. Yo tengo un par de QSLs de compañeros que las mandaban en braille, marcadas. Aquí hicimos una vez un indicativo especial, porque puedes hacer también indicativos conmemorando cosas. Y hicimos desde aquí, desde Tarragona, un indicativo especial con... Creo que fue con el motivo del nacimiento de Luis Braille. Y también las mandamos en braille, pero bueno, fue una historia también picarlas y marcarlas con las tarjetas. Imagínate qué alegría para el que las reciba por exótica y extraña, ¿no? Claro, claro, claro. Por eso lo hicimos, para darle a la persona que las recibía ese plus de coleccionar esas QSLs. Porque hay concursos especiales, ¿no? Por ejemplo, en conmemoración por el nacimiento de Luis Braille o alguna cosa así, ¿no? Pues puede haber un concurso especial que durante esos días, pues todo el que haga ese contacto recibe una QSL, una tarjeta especial, conmemorativa o lo que sea. Hay diplomas y concursos de casi todo, pero de casi todo. Es decir, desde gente que se dedica a activar simplemente municipios y cada fin de semana se va a un municipio y lo saca al aire y busca contactos desde ese municipio. Hay un diploma que es de ermitas. Aquí, por ejemplo, en Tarragona hay gente que lo hacemos y nos gusta. Cada fin de semana buscar una ermita, irnos a plantar la antena ahí en medio del monte y la radio y hacer dos horas de contactos desde allí. Hay monumentos, castillos, luego hay los parques naturales en el aire, hay otro diploma también internacional. Eso a nivel de concursos y de actividades del fin de semana. Y luego indicativos especiales que simplemente tú haces el contacto y te mandan una QSL, pues bueno, los hay desde el día del síndrome de Down, desde... digo, los últimos que me vienen a la mente. Ahora, por ejemplo, había un diploma del día de la madre. Bueno, se buscan cosas. Se buscan cosas para ir dinamizando las bandas y quien quiere las trabaja y quien no quiere, pues no. Antes estaba la caza del zorro. Exactamente. No sé si se hacen estas bandas más serias caza del zorro, pero en banda ciudadana sí que... Yo creo que no. Yo creo que se hace más en banda ciudadana. Aquí, por ejemplo, había una liga incluso, en las Terres del Ebre, había una liga de... Explícanos, Miguel, ¿qué es eso de la caza del zorro? La caza del zorro. La caza del zorro es que se escondía una baliza, que es un aparato emisor, que emite una señal, y tú, con tu coche y con la frecuencia de ese emisor, tenías que encontrar esa emisora que estaba emitiendo. Por triangulación, por ver si la señal llegaba más fuerte, más flojo, etcétera, etcétera. Y había, ya te digo, aquí había una liga y se ganaba dinero, ¿eh? O sea, los primeros puestos había pasta en juego, es decir, que la gente se lo tomaba muy en serio para ir a la caza del zorro. Había boometers cuando yo... yo no los veía, pero los colegas sí, ¿no? Sí, los... Y, bueno... Boometers de LEDs, bueno, los más analógicos, ¿no? Ahora ya son digitales y con un montón de información. Analógicos, y había lo que se llamaba Romeo y Santiago, y eso era la señal, ¿no? O algo así se llamaba. Romeo, Santiago y Tango. Eso se sigue utilizando. El RST es la señal, ¿no? El RST es la señal. ¿Cómo me recibes? Pues radio 5, señal 9, ¿no? 5-9. Sí, sí. Y normalmente es la señal que nos damos. ¿Cómo me recibes? 5-9. Vale. Pues mirando esa señal, localizábamos la baliza. Bueno, localizábamos, ¿no? Nos aproximábamos, ¿o no? Sí, sí. Sí, sí, sí. Ibas triangulando, ibas con... Correcto. Pues ahora va... y así, sí, sí. Se sigue, se sigue haciendo, ¿eh? Hay algunos radioclubs o algunas entidades que lo siguen haciendo. Toda esta terminología, ¿no? Del Radio Santiago, del código Q y todo esto, parece un poco sexta, ¿no? Sí, a veces puede dar un poco de miedo y para que la gente nueva pueda entrar, pues echa un poco para atrás, ¿no? Bueno, tienes que escuchar mucho, es lo que decía. Al final, el alfa, bravo, charly, delta es el código ICAO, que es el código fonético, que es internacional. Igual lo usan los radioaficionados, que lo usan el ejército, los pilotos, la marinería... El código Q, que también... básicamente lo que hace es facilitar la comunicación. Es decir, si tú... ¿para qué va a decir mi nombre es tal o my name is tal? Si puedes decir QRA, Miguel, ¿no? Pues QRA ya es la palabra que sustituiría a mi nombre es tal. Y va muy bien también para telegrafía, porque la telegrafía, claro, no vas a transmitir mi nombre es... no, al final vas a decir QRA o incluso... Es eficacia y economización del lenguaje. Exacto, correcto. Porque puedes estar en situación muy complicada. Por ejemplo, en una guerra, por poner algo así, y tienes que mandar algo, ya bien por remorse o bien por locución. Y igual las condiciones, porque tengas algún ataque electromagnético, por cualquier historia, son precarias. Entonces no puedes decir, me llamo Fulgencio de la Torreza, ¿no? Pues dices QRA o lo que sea. Y luego dices todo el código este, que nos resulta muy curioso cuando yo brema contigo como Mike, India... Golf, ¿no? Golf, Unión, Ecolima... Que era tu nombre. Eso se dice porque cuando dices M, I, G, tal, hay palabras que se pueden confundir una con otra. Cuando hay mucho ruido, este tipo de verificación es muy buena, porque tú decías A de alfa, B de bravo, ¿no? Entonces clarificabas un poco más que estabas deletreando, porque no era fácil. Es muy efectivo, porque imagínate, a mí me ha pasado de contactar con... con americanos que dicen... Y yo, perdón, ¿qué me has dicho? Claro, si no me dicen... No me entero. Si ellos dicen K1, Y, K... El otro día pasó... Digo, ¿qué me estás diciendo? ¿Qué me está contando este hombre? Entonces facilita mucho la comunicación. Mira, nos pasó como anécdota en una activación. Salió... Salió... Salió un señor que se identificaba como Delta Juliet Cero Española Morena. ¿Cómo? Delta Juliet... No, perdón. Delta Juliet Cero de Nada Española Morena. ¿Delta Juliet Cero de Nada Española Morena? Pues el señor era muy simpático y era Delta Juliet Cero Ecomike. Pero él decía Delta Juliet Cero de Nada Española Morena. Esto yo le tengo mucha manía, lo reconozco, a la gente que dice, por ejemplo, ¡Ecuador América 3, Ontario, Manila, Nicaragua! Si nos han puesto el Óscar November Mike, ¿para qué os vais a inventar el Ontario, Nicaragua, Manila? Que estáis complicando la recepción. Pero bueno, pues eso ya cada uno tiene sus manías. Pero el código oficial... Ahora me ha hecho gracia cuando has dicho lo de Cero de Nada. Es verdad, los números tenían una forma de decirse. Se decía uno de primero, dos de segundo... Sí, sí, sí. Yo Cero de Nada no lo había escuchado. Y el Española Morena, te lo digo en serio, que nos tuvo rato intentando descifrar qué quería decir este señor con Española Morena. Sí, gracioso era. Pero bueno, gracioso era, sí. Y recursos para aprender, cuéntanos. Hoy en día supongo que habrá muchos más. Yo me acuerdo de mi época que me tuve que comprar un libro que me costó encontrarlo y no había mucho más. Pero hoy en día, claro, con Internet, pues era mucho más fácil aprender. Yo tenía el manual del radioaficionado emisorista. El mapa india, creo que era, que también era un libro que lo tenía en papel. Me acuerdo que mi padre me lo iba leyendo cuando podía. Luego lo conseguí en libro hablado, en cuatro pistas, que de esas grabaciones ochenteras, que bueno, que también tenían su parte nostálgica. Y pero bueno, ya en su momento me acuerdo que me compré el libro de la URE. Lo llegué a escanear ya con OCR las partes que pude. Y luego más tarde ya sí que salieron algunas ediciones en PDF. Y ya libros que están mejor grabados en Daisy. A ver, recursos para aprender los hay, pero de todas formas la mejor manera de aprender es tener otro aficionado cerca o tener un radio club donde tú puedas ir, ir despejando dudas, que te dejen tocar equipos, que te dejen operar o al menos ver cómo se opera. Yo soy muy partidario desde aquí de Tarragona cuando hacemos alguna actividad. Bueno, no lo he comentado, pero por circunstancias soy el presidente del radio club de aquí de Tarragona, del tarragonés. Y siempre intento que cuando hacemos alguna actividad invitar a gente a que venga a verlo. Ya no por decir vas a ser aficionado, que venga a verlo o gente que a lo mejor le cuesta, le cuesta más operar o gente que le cuesta más entender las antenas. Pues que vengan, que vengan y estén con nosotros, que se echen un café, una Coca-Cola, una cerveza, lo que quieran y que vean cómo funcionan las actividades. Porque es la manera de enganchar al personal. Si no, por mucho que yo te lo explique, si no lo ves y no te lo intento explicar y el reoficial tiene una asignatura o tenemos una asignatura pendiente, que es saber explicar lo que hacemos. Muchas veces damos por sentadas muchas cosas y para la persona que empieza lo ve, bueno, es un mundo como cualquier otro. Para todos y más aún para los que no vemos. Claro, claro, claro, claro, claro. Porque ahí entraría el tema de accesibilidad de equipos, el tema de los libros de guardia, de los programas que utilizamos para para tener el registro de contactos. El libro de guardia es el registro de contactos que tú tienes, de todos los contactos que haces, en qué frecuencia, en qué banda, en qué modo, qué día lo estás haciendo y luego para poder comprobar que ya lo tengo. Sí, correcto. Pues pues también es un es un es un qué? Encontrar un libro de guardia que funcione, que funcione bien y que sea accesible. Pues Miguel, te escuchaba antes y cuando decías que el jefe de telecomunicaciones te dijo, pues es que tengo que preguntar cuál de estas imágenes es la antena tal. Y si te la describo, te lo desvelo, no? Bueno, ahora todo esto ha cambiado mucho. Dices que ya hay una base digital, por lo menos para la formación y también para lo que es el examen. El otro día, bueno, es un poco por dar un antecedente, un amigo mío que había programado en Python siempre sin ningún, vamos, sin ningún tipo de de base que un documento digital me comentó que qué alegría suponía ahora con la inteligencia artificial el recibir un soporte formativo a la vez que estaba programando y bueno, haciendo que ese recurso fuera más dinámico y para una persona ciega lo entendiera todo mucho mejor poniendo un buen prompt. Y cuando estabas diciendo eso, estaba pensando justo que hoy en día utilizar todo lo que son las descripciones y demás, porque en base lo que a ti te están formando es para ser un operador de radio. Es decir, como una persona que tuvieras todos los conocimientos y fueras autosuficiente para llevar un equipo, mantenerlo, cambiarle las piezas que te fallaran y estar siempre operativo. Ese es el objetivo. Bueno, con el tema del principio básico, pero claro. Luego la realidad es otra historia, ¿no? Y eso. Bueno, claro que me estoy enrollando mucho. Bueno, ¿no habéis pensado en decir bueno, vamos a ver? Yo sé que igual también hay muy poca gente que no ve que se acerque a esto, pero creo que hasta para la gente que ve, es decir, una inteligencia artificial apoyando y haciendo lo que es la formación, no hablo del examen, podría funcionar, ¿no? Por lo menos en programación funciona. Es muy curioso. Porque a mí me costó entender muchas cosas por eso, por eso de antenas, de longitudes de onda y y yo he llegado a pedirle a la inteligencia artificial que me describa, por ejemplo, que es una antena Yagi, por decirte algo, que es una antena, como lo ha hecho una antena directiva. Eh? ¿Cómo? ¿Cómo es? ¿No? ¿Cómo? Porque claro, yo tengo unas antenas encima de la torre que he tocado cuando estaban abajo, pero hay muchas antenas que no las he tocado porque porque no puedes ir a tocar todas las antenas, entonces no tengo esa parte perceptible o tangible de lo que es la antena. Entonces, cuando tú le preguntas a la inteligencia artificial cómo es esa antena o explícame la longitud de onda, pues yo qué sé, él te dirá. Pues imagínate una barra larga que es el principal elemento de la antena. Ahí luego esta barra está horizontal. Hay varios elementos que están dispuestos a lo largo de esa barra, ¿no? Te va a ayudar muchísimo. A explicarte cómo es esa esa antena. Supongo que vas por aquí, ¿no? A que la inteligencia artificial apoye nuestra manera de entenderlo, ¿no? Exactamente. Sobre todo para que lo comprendamos. Luego el examen será otra historia, pero por lo menos el concepto y la descripción, como tú muy bien lo has dicho ahora, con ese parangón, ¿no? Como explicado para una persona que no ve, puede venirnos muy bien. Correcto. Sí, sí, sí. El prompt es importante. Si tú le dices, descríbeme cómo es una una antena Yagi, a lo mejor te planta un dibujo. Sí, sí. Pero si tú le dices... o un esquema, ¿no? Visual. Si tú le dices, descríbeme cómo es un dipolo para una antena, para una persona que no ve, ¿no? Pues te va a decir, pues bueno, es el elemento central. Normalmente es el más corto. Recibe y transmite. Va a estar en... Puede estar en V invertida, puede estar en L invertida. Bueno, os lo prometo que me ha gustado mucho esa pregunta porque es que lo he hecho muchas veces. Le he preguntado incluso, explícame el concepto de longitud de onda. Explícamelo para que yo lo entienda. Hay un libro que se llama La radioafición mola, que lo escribió un compañero radioaficionado que ya utilizaba, sin saberlo, ese tipo de comparaciones. Pues imagínate que las ondas son como los movimientos del agua. A nosotros nos van muy bien las comparaciones, sobre todo cosas que podamos percibir y que podamos tocar. Y ahí ayuda muchísimo. La verdad es que es muy importante tener un buen profesor. Que te lo explique para ti. Me acuerdo en el Radio Club cuando fui yo, cuando aprendí estas cosas. Me acuerdo que tenía un profesor de electricidad que era muy bueno. Y me acuerdo que él siempre contaba que una vez que fue un ama de casa que se quería sacar la licencia y claro, decía como le explico yo a esta señora con los temas de electricidad y demás, porque no tenía tampoco estudios, no tenía tal. Y encontró un punto común porque esta mujer, pues sabía muchísimo de plantas. Entonces me puede explicar, pues mira, un condensador es un cactus que guarda mucha, mucha agua y luego la suelta cuando la necesita. Pues un condensador es eso. Entonces con eso se saca de esa venda. Es que claro, lo complicado que es entender que es un que es un diodo o que es un transistor. Bueno, que es un condensador, que es una bobina. No puedes meter las manos dentro de una fuente alimentaria. No debes, no debes. Puedes tocarla. Está apagada, pero yo, por ejemplo, cuando empecé a salir al monte con los compañeros que os comentaba a partir de hacer la coña, que siempre me preguntaban si la antena estaba recta o no, que yo tenía que vigilar desde abajo y dejábamos a más de uno con la tontería, eh, pero pero aparte de esto me ponían los. Bueno, eso es un coaxial. Y esto es un PL, que es un conector. Y esto es un balón, que es un adaptador de impedancia. Y esto es y esto es el cable de la antena. Pero claro, lo tienes que tocar. Si tú estás ahí y lo tocas, lo entiendes. Yo la primera vez que fui, por mucho que me explicaran que la antena se colgaba de un palo, que se hacía una un triángulo invertido y no sé cuánto, no llegas a entenderlo. Entonces es importante tener gente que te lo explique a poder ser, que te lo deje manipular y si no, pues la inteligencia artificial que haga su trabajo, que para eso está. Pero inicialmente también los radioclubs, que es la invitación que tú hacías, son sitios perfectos para empezar a formar tu parte, conociendo los elementos, los componentes de primera mano. Aquí no siguen llegando correos. Estas semanas han llegado un par de correos propiciados evidentemente por el apagón, pero de gente que se quiere acercar a la radio. Oye, quiero venir a ver qué hacéis. También os digo que la mayoría no se sacan la licencia y vienen un par de veces y luego pues lo dejan. Pero, pero hay interés. Entonces aquí, aquí hay siempre un poquito el tema de habría que ir a los colegios, habría que hacer actividades con las escuelas para enseñarlos a los niños, que es la radioafición. Pero bueno, al final, ¿sabes qué pasa? Al menos aquí que cada uno tiene su vida, su tiempo, su trabajo, sus hobbies y sus cosas. Y claro, pues cuesta encontrar gente que haga ese trabajo de enseñar, de transmitir, de ir a los colegios y explicar pues qué es, qué hacemos. Intentar enganchar un poquito a los jóvenes, que ya de por sí es complicado. Hay que contar un poco qué es y qué no es esto, ¿no? Porque he motivado un poco con esto de los novatillos últimamente, sobre todo por el último gran apagón este, pues hay gente que ha pensado en una emisora, en un walkie o algo así, pues para hablar con sus familiares, con sus amigos, con su tío del pueblo, llegado el caso de no tener electricidad, ¿no? Entonces no sé qué le podemos contar de qué es, qué no es, qué alcance podemos tener. ¿Se puede o no se puede hacer esto? Con un walkie sin licencia, con un pequeño walkie de los que te puedes comprar con un PMR, en ciudad no vas a llegar más allá de un kilómetro lejos, porque está... Edificios, muchos... Edificios, etcétera. En el campo sí que puedes... Yo a veces me maravillo con el walkie que puede llegar hasta 15 kilómetros. Ostras, esto lo habrás hecho en campo abierto y en la mejor de las propagaciones de verano, porque si no... O por ejemplo, a veces otros reclamos, ¿no? Como, ¿vas a poder escuchar a las policías, bomberos, ambulancias? Muchos de esos servicios, por no decir ya todos, emiten ya en digital y bajo protocolos cerrados, que no es como antes, que tú sintonizabas una frecuencia de la guardia urbana o de los taxis o de la Policía Nacional o de bomberos y escuchabas. Ahora esta gente, evidentemente por privacidad, pues van codificados digitalmente y por protocolos cerrados. Pero bueno, sí que es cierto que qué es y qué no es. Entonces, bueno, si tú quieres comunicarte con otra persona que está en el pueblo, para empezar, los dos tendréis que tener licencia y los dos tenéis que tener antenas y los dos tenéis que tener un sistema de baterías para cuando se vaya la luz. Porque si no, difícilmente vas a poder encender el aparato. Bueno, hay que explicarlo. Un sistema de baterías. Nos ofrecemos unas baterías, unas powerbank cargadas o algún tipo de baterías como de vehículo, de coche, almacén, casa guardadas. Normalmente para emitir a cierta potencia necesitas bastante mensaje, entonces si yo, por ejemplo, cuando vamos a hacer actividades que solemos emitir con 100 vatios, un walkie te va a sacar con mucho 5 o 6 vatios de potencia, entonces una emisora que te saque 100 vatios necesitará una batería grande, una batería de coche, ahora ya las hay de gel o de litio ferrofosfato, pero las hay ya más portables. Pero por ejemplo, nosotros subimos, seguimos utilizando baterías de coche para ir a hacer las actividades y son baterías grandes. Tenemos un sistema de respaldo de baterías para emitir cuando se va a la luz. Cuéntanos también un poco cómo está el tema de la accesibilidad en todo esto, desde el libro de guardia hasta los diferentes dispositivos, emisoras, walkies. Cuéntanos un poco cómo está el patio. Era un tema que me preocupaba muchísimo porque cuando yo empecé con la emisora de mi padre no era nada accesible, es decir, yo la encendía, no sabía en qué frecuencia estaba, tenía mi padre y mi madre pendientes. Oye, ponme en 145, 700, que es el repetidor de Castellón y no sé qué. Al final, como esa emisora, cuando la apagabas, perdía la frecuencia y siempre te devolvía la misma frecuencia, ya aprendí a contar pasos. Y clic, clic, clic, clic, clic, clic. Pues ya, ya sabía cómo era, que yo creo que esos truquitos lo hemos hecho todos. Luego hay algunos walkies que no son accesibles, no hablan ni nada, pero sí que pitan. Hacen vips según el parámetro. Yo que sé, pues sí. Si estás en un modo o en otro, pero bueno, también tienes que ahí utilizar las artimañas de las que, de las que tengas, de las que tengas en mano, ¿no? Y luego sí que hay emisoras que instalándoles una pequeña tarjeta, te leen las frecuencias, es decir, tú pulsas un botón y te dice, yo que sé, pues 7, 0, 9, 0 megahertz y tú sabes que estás en esa frecuencia, ¿no? Y el modo USB, LSB o FM o... Y entonces, pero bueno, es muy arcaico. Ahora, con la llegada del mercado de walkies chinos, ha pasado una cosa bastante curiosa. Yo creo que los chinos o los coreanos, los japoneses, da igual, los que inventen esos cacharros, les gusta que estos cacharros hablen y entonces les ponen voces para que tú pulses una tecla y te digan menú. Vale, muy bien, me ha dicho menú, pero ¿dónde estoy de ese menú? Porque no está pensado para una persona ciega. Está pensado porque alguien decidió poner esa voz ahí de manera completamente ilógica, porque no te va... no te va a leer nada de lo que de lo que pone en ese menú. Entonces es muy curioso que sí que llevan apoyo de voz, pero no es no es usable para nosotros. Luego hay... hay otros equipos que tienen, por ejemplo, muchos botones y tú, localizando ese botón, pues no será accesible, pero más o menos las funciones de las que requiere una emisora las vas a poder utilizar. Por contra, ya han empezado a salir emisoras a full color y con pantalla táctil. Y claro, si la emisora es un panel plano con una pantalla táctil que no tiene ninguna respuesta, pues ahí tienes un problema de que no vas a poder acceder a la interfaz de esa emisora. Es ir probando emisoras, es ir probando. Por eso es importante tocar equipos que la gente te recomiende y utilizar equipos que, aunque no sean accesibles del todo, más o menos sean usables y sobre todo los que se puedan conectar al ordenador por la interfaz que nosotros utilizamos, que es el CAT, que es la comunicación que tiene la emisora con el ordenador, pues para decirle en qué frecuencia está, en qué modo está, si está emitiendo o no. Si el programa que utilizas es accesible, que eso es otro tema, te va a permitir acceder a la emisora. Yo he llegado a probar, no se engaño, más de 20 programas de libro de guardia, porque uno te recomienda uno, el otro te recomienda el otro. Accesible a tope y usable, que es el que uso yo de programa de libro de guardia, uno. O sea, un americano que tiene un programa de libro de guardia que se llama Amateur Contact Lock y el señor lleva muchos años programándolo. Tenía un amiguete que era ciego e implementó todo el etiquetado de botones, el etiquetado de cuadros de edición, los accesos directos de teclas rápidas para ir donde sea la mayoría de otros programas. Algunos son más usables, otros menos, pero no cuentan con esa con esa capa o con esa interfaz de accesibilidad. Por contra, lo todo el sistema que utiliza interfaces web online, pues es más fácil, porque ahí sí que tenemos más más accesibilidad en ese sentido. Y ahora, por ejemplo, hay un algunos walkies chinos que se les puede modificar el firmware, que sí que se han creado proyectos que permiten leer todos los menús de ese walkie. Eso es ya una pasada, porque tú puedes ir navegando por el walkie. Por ejemplo, tengo walkie aquí en la mano, si os parece, y pulsaría la tecla de menú, menu zone, channel details, contacts, last heard, radio information, options, iría por el menú e incluso si le pido la frecuencia, pues me va a decir la frecuencia Echo Delta 3, Yankee Bravo India, que es el repetidor de aquí de Tarragona. Este sí que está muy bien a nivel de accesibilidad, pero ya veis que es un firmware modificado porque alguien ha pensado que no es introducible. Etiquetas de audio. Sí, sí, sí, sí, exacto. Es que el Radio Diti, el Radio Diti Golf Delta 77, Radio Diti Golf Delta 77. Ahora, por ejemplo, Kenwood ha sacado un walkie nuevo, que Kenwood sería ya una marca importante dentro de la del mundo de la radioafición, que sí que ya le han dotado de un sistema de apoyo como una especie de lector de pantalla. Pero no, no es tan sofisticado como un lector de pantalla. Pero claro, estamos hablando de un walkie que te cuesta en el mercado casi 800 euros. Entonces, bueno, si por 150 tengo el walkie chino, que además me permite emitir en analógico, en digital. Pues bueno, podemos si queréis. No lo venden, no. No, no, no, no, no. Está descatalogado y lo encuentras de segunda mano. Si queréis que intente, lo digo porque tengo algún compañero por aquí, por el repetidor de Tarragona. Si queréis que intente un pequeño QSO en directo, a ver si sale. Estamos encantados. Sí, sí, pues vamos a vamos a intentar. Pues intentarlo a ver. Esto es el sonido de que nos ha recibido el repetidor. Hola, buenas noches. Llama ecoalfa3 golfzulualfa para hacer una prueba. Estoy en directo en la emisión de un podcast. A ver si alguien la escucha, que me pueda atender. Vale, Manel, buenas noches. Pues nada, estoy aquí con dos compañeros que estamos haciendo una charla sobre radioafición y era para hacer una demostración también en directo de cómo funciona el repetidor. Y bueno, y de cómo es un pequeño QSO. ¿Qué tal me escuchas? 3 India India Mike, ecoalfa3 golfzulualfa. Venga QSL, muchísimas gracias. Manel, un abrazo. Que vaya muy bien. 73. Hasta luego. Bueno, pues ya veis que es muy frikito. Muy bien, muy bien. Pero bueno, le conozco a Manel. Manel es otro socio de aquí del Radio Club y él está, pues ahora, mira, estará en la otra punta de Tarragona, en el barrio más alejado a mi casa y yo no estoy con una antena en el tejado ni nada, estoy con un walkie en la mano dentro de casa. Entonces, bueno, para que veáis que aquí tenemos un repetidor que está en una montañita bastante alta de Tarragona y nos sirve de apoyo en comunicaciones, pues eso, con un walkie yendo por toda la ciudad y para lo que cada uno necesite o simplemente a veces para charlar de nuestras cosas de modos digitales. Hay alguna cosa así interesante? Bueno, bueno. Por qué sigue estando el Radio Packet? Hay protocolos nuevos, el FT8, el FT4 y luego para para voz digital. Hay también uno funciona básicamente por repetidores como un repetidor analógico, pero que en vez de utilizar la fonía, la voz analógica ya utiliza protocolos digitales. Simplemente, bueno, es otro otro protocolo. A mí no me gusta tanto. La voz es como más parece más robotizada y no me termina de gustar tanto. Pero bueno, existir existe. Al final hay gente que lo que no le gusta. Tiene sus detractores y sus defensores. Yo creo que cualquier tipo de comunicación, si sirve para hacer radio, bienvenida sea. Mira, esto sea la voz digital que alguien estaba llamando también por aquí. La voz digital. Lo bueno que tiene es que los repetidores van conectados a Internet. Entonces yo puedo, con el walkie que tengo en mi mano, estar hablando con un señor que está en la otra punta del mundo, porque como el repetidor está conectado a Internet. Yo le puedo pedir que se vaya al canal de otro país, por ejemplo. Sí, y además, si es si ya haces este puente con Internet, pues imagínate, yo puedo estar conectado al repetidor de Tarragona, pero marcarle un código para que entre en la en el. Me entiendes? Porque ya utilizará Internet como vehículo, como claro. Pero si es Internet por medios, los redefinidos, los redefinidos más puros, quizá al meter Internet por medio, es como si me llamaras por Skype. Hay de todo. Exacto, hay de todo. Hay gente que lo defiende y hay otra gente que no. Yo creo que bueno, si eso sirve para que una persona que no tiene posibilidad de ponerse una antena en el tejado y desde el sofá pueda hacer radio, pues bienvenido sea. Oye. Porque lo del repacket era muy curioso, que es como yo empecé en la época cuando Internet era caro, había que pagar por minutos y las BBS, ¿no? Yo empecé con eso, con las BBS, el repacket en dos metros funcionaba a la... velocidad impresionante de 1.200 vóvios. En HFA iba a 300. Y es muy curioso porque era además muy como el arpanete antiguo, ¿no? Que uno de los nodos o un repetidor o una BBS se calla y no pasa nada, porque incluso podías mandarte correos electrónicos y ya buscaban la forma de llegar. Iban sorteando por otros repetidores, te utilizaban a ti como repetidor o lo que sea. Era muy curioso. Yo llegué a escuchar a la Mir, a la R0 Mir, a través del repacket, me llegué a escuchar como te estaba poniendo. Está muy en desuso el repacket porque, bueno, hay otros modos digitales a nivel de comunicaciones más largas, pero, pero... Bueno, Miguel, y antes has dicho que vuestro caballo de batalla, hoy por hoy, son las interferencias, pero ¿qué significa esto? Sí. Pues significa que, lamentablemente, cada vez más equipos eléctricos van sin filtrar y tenemos muchos problemas con las interferencias. Ya no de otros servicios o de otros, o de otras, no sé, de otros... No sé, que nadie se imagine, pues no sé. Por ejemplo, no es que nos interfieran emisiones de radio de otras bandas o de otras emisoras. Muchas veces tenemos muchos problemas, por ejemplo, con las luces. Es LED. El reaficionado que tenga un panel LED en su casa o un típico, un típico foco LED o alguna luminaria LED, cuando las enciendan en la radio va a empezar a sonar un chisporroteo y nos va a cepillar toda la banda. Yo, por ejemplo, he tenido un problema muy grave de interferencias en donde tengo la estación, en donde tengo el cuarto de radio, que es en el pueblo, que tendría que ser un espacio perfecto para hacer radio porque estás alejado, es un medio más rural. Pues en cambio, estaba entre dos torres eléctricas de una compañía de distribución que tenían un problema con uno de los componentes y eso estaba irradiando una interferencia terrible por todo el tendido eléctrico y estuve a punto, pero a punto, a punto, a punto de venderlo todo. Es decir, de tirar la toalla y de dejar la afición porque no podía, no podía hacer radio. ¿Cómo lo solucionaste? ¿Te dirigiste a la compañía y dijiste los problemas? Me dirigí a telecomunicaciones, a la jefatura de inspección de telecomunicaciones, que tiene un canal de denuncias de interferencias. Vinieron, hicieron mediciones, verificaron que esa interferencia provenía de esas torres, de esas estaciones eléctricas, de esos transformadores. Y tras muchas cartas, mucho insistir, bueno, pues han arreglado en parte esa interferencia. Les queda por verificar otra torre, porque tengo tanta suerte de que estoy entre dos torres eléctricas. Pero bueno, al menos ahora no me puedo quejar porque puedo hacer radio. Pero el tema de los LEDs, el tema de cargadores de teléfonos, el tema de cargadores de portátiles. Hay muchos transformadores que van sin filtrar y que son un problema para los radioaficionados. Variadores de los ascensores que van sin filtrar y que cada vez que se enciende el ascensor te entra una interferencia terrible por el... Esos motores son potentes. Sí, correcto. Y luego a inversores de placas solares. Ahora, con toda la instalación fotovoltaica de placas solares, si los inversores no están bien filtrados y no es un problema del inversor, el inversor trabajará perfectamente. Es un problema de que muchos fabricantes... Abaratamiento. Abaratamiento de costes no filtran absolutamente nada. Nosotros hemos llegado a abrir cargadores de portátiles que la bobina del propio transformador está directamente al aire, no está filtrada. Entonces, claro, esto genera un campo eléctrico electromagnético que te genera una interferencia brutal en tu cuarto de radio. Y ahí, bueno, desde la Unión de Reaficionados Españoles ya se está contactando con las diferentes jefaturas, pero bueno, es una epidemia que tiene muy difícil solución. Por eso el día del apagón lo pasaste bien. Bueno, lo pasé genial. O sea, yo llegué a casa cuando ya me enteré de dónde estaba mi familia y que todo estaba bien, conecté el walkie a la antena del tejado y digo, pero estoy teniendo señales mucho más fuertes que los días anteriores. Y era porque todo el ruido eléctrico se había marchado. Qué curioso. Pero volvió, volvió. Yo no sé si llegué en algún episodio anterior en comentar esto. Estuvimos haciendo unas pruebas de un sistema para personas ciegas, ¿no? De geoposicionamiento por triangulación o trilateración, pero con beacons, con balizas dentro de lo que es la... de la ciudad. Eso daba una información muy interesante y posicionaba con más o menos 10 centímetros a la persona dentro de un mapa. Eran balizas georreferenciadas. Bueno, bueno, eso lleva un beacon. Una baliza que es un emisor, a fin de cuentas, es una radiofrecuencia, ¿no? Bueno, pues nos pilló la pandemia cuando estábamos haciendo las pruebas antes de patentar, entonces pues nada, le pilló a mi compañero en el campo e hizo todas las pruebas y en su casa y eso con todo el parón de la pandemia y aquello funcionaba fenomenal. E hicimos todo lo que fue la patente y demás. Ahora, cuando ya no fuimos a hacer trabajo o pruebas de campo en la propia ciudad, ahí Miguel, ahí se acabó todo. Es decir, la ciudad es un mare magnum de interferencias. Es decir, no era operativo el sistema porque realmente los beacons no tenían potencia suficiente como para marcar su presencia. Os propongo un pequeño experimento. Si tenéis una radio a pilas que vaya en que reciba en AM o en onda media o en una en FM, no porque la FM es menos es menos sensible a las interferencias y no vais a notarlo tanto, pero una pequeña radio AM y os paseáis por vuestra casa. Es que cualquier electrodoméstico que tengáis, cualquier cargador del teléfono móvil, cualquier ordenador, cualquier, os va a generar una ruidera. Pero, pero impresionante, impresionante. Entonces, imaginaros para la radioafición que utilizamos esas bandas y esas frecuencias, no, pues, pues más específicas. Claro, es realmente es un problema. Hay que tener en cuenta que el campo electromagnético es algo limitado, es algo finito y que además, pues últimamente no, todas las telecomunicaciones tienen que utilizarlo y toda la TVT, la telefonía, el traje, todo esto son bandas nuevas. Sí, pero pueden convivir, pueden convivir. Es decir, si todos filtramos de la misma manera que os decía antes, los reaficionados tenían muy mala prensa porque le daba interferencias a las televisiones y tal. El problema no era de la televisión, el problema era del reaficionado que a lo mejor estaba tirando demasiada potencia en la antena sin filtrar. Entonces, yo puedo tener un repetidor de 5G cerca o un repetidor de TET cerca, si está bien configurado y está bien filtrado y tiene unos filtros y tiene unos ajustes, no tendría por qué darme problemas. El problema es la dejadez que hay en ese sentido y que no se cumple la legislación. Y bueno, al final el reaficionado es el último, el último mono que está ahí y cuesta que te hagan caso. Efectivamente, porque otras bandas son mucho más populares y hay más intereses económicos por medio, una frecuencia para la telefonía móvil o para la TET es mucho más importante que cuatro reaficionados frikis. Sí, sí, sí. Eso sí pasa al lado del aeropuerto, por ejemplo. Si en las inmediaciones de un aeropuerto, donde las comunicaciones son importantes, se genera, por ejemplo, ese problema con un transformador eléctrico. Seguro que al día siguiente ese transformador está cambiado, arreglado y... Hay peligro de que pueda ocurrir algún tipo de incidente. Claro, claro. Si os parece, vamos terminando. Recapitulamos un poco todo lo que hemos ido comentando. Bueno, hemos conocido a Miguel, lo hemos saludado, que eso... Nos hemos alegro mucho de que colaborara en este episodio. Y bueno, hemos hablado de qué es la radioafición. Hemos hablado también de cómo Miguel tuvo conocimiento de la misma. Y también de las primeras pruebas que hubo que hacer para conseguir una licencia. Un poco de la situación, cómo está en España, las frecuencias, los modos, la legislación, los diferentes tipos de licencias que existen actualmente en España y cómo se puede conseguir una licencia. Hemos hablado también de los radioclubs como centros de conocimiento donde las personas que quieran saber o acercarse y conocer qué es esto de la radioafición, pues deberían asistir. Es un consejo que nos ha dado Miguel, ¿no Miguel? ¿Y qué más? Sí, para nosotros... No, para nosotros es muy importante el tema de los radioclubs como centro de conocimiento y de unión entre reaficionados. Bueno, y hemos comentado también un poquito el tema de las interferencias, la prueba operativa también con el repetidor, un poquito como cuánto importante es tener también a reaficionados que te apoyen en los inicios y bueno, y de la accesibilidad de los equipos, de los libros de guardia, de los programas que hay que cacharrear mucho y hay que invertir mucho tiempo para encontrar cosas que sean usables. Ya no hemos hablado de medidores y otro tipo de cacharros porque encontrar aparatos específicos o accesibles cuesta mucho más, pero bueno, siempre hay algo. Así es. Contamos a la manera. Y bueno, hemos dado mucha información, sobre todo Miguel, que es el que tenía el mayor conocimiento y que pondremos en nuestras notas del episodio para los que queráis profundizar en las mismas. Muchas gracias, Miguel, por haber estado con nosotros este rato. Gracias a vosotros. Y bueno, como veis, pues al final somos un poco frikis, pero bueno, quien lo viva con nostalgia y con esa magia de la radio. Y bueno, sí que es cierto que la reafición en ese sentido no debería estar limitada por la vista. Parece que el medio radio, pues evidentemente nadie sabe quién es al otro lado. A veces sí que existen esas limitaciones, pero bueno, al final, pues con síntesis de voz, con software compatibles, pues podemos al final participar en ese mundo que a mí me encanta y aparte de mi trabajo, pues es también mi hobby. Muy bien. Y lo bien que lo explicas, lo entretenidos que hemos estado. Lo intento, vaya, yo no soy ningún pedagogo en ese sentido ni ningún erudito, pero bueno, lo vivo más desde la pasión y eso se nota. A lo mejor las explicaciones no son tan, bueno, pues tan interesantes o tan de maestro, pero bueno, lo intento, lo intento compartir. Bueno, pero cuando se explica con pasión, pues se llega a la gente. Sí, sí. Pues muchísimas gracias a vosotros. Felicitaos también por el proyecto, que lleguemos a muchos capítulos y aquí estaremos también escuchando el podcast, que es también otra manera de escuchar radio, aunque sea a través de Internet y hecha de otra manera. Pero también, también es, también forma parte de esa magia. Muchas gracias, Miquel. Gracias a vosotros. Muchas gracias a los medios de contacto, Ricardo. Pues nuestra dirección de correo electrónico es gafotas arroba cgatos punto es. Y nuestro WhatsApp en el más 34 6 4 4 6 4 0 7 9 2. Muy bien. Muchísimas gracias, como siempre, por llegar hasta aquí y escucharnos. Y nada, ahora daremos un cambio, que significa que tenéis vosotros la palabra. Y en ese cambio lo que esperamos es que nos esquiváis, nos llaméis, hagáis lo que queráis y nos pidáis cosas, opinéis y todo lo que haga falta. Así que bueno, gracias y chao. 73 73. Adiós. Oigo como un pitido, ¿es normal o...? Yo también lo oigo. Yo creo que va a ser Ricardo. ¿Puede ser yo? Pues puede ser. No lo sé. Oye como un pipip, pero no sé. A lo mejor lo vais. Mira, yo voy a apagar el micro, ¿vale? Sí, sí, sí. Se oye muy bajito, pero sí, se dejó de escuchar cuando saliste y se vuelve ahora. Pero bueno, que oye, lo convivimos, no pasa nada. Yo creo que sí. No es molesto. Me quito las gafas también, Rayban, que están apagadas. Es que yo ya no sé qué hacer. Espera, me quito el brazo de ortopédico. Pero quítate los pantalones. Me quito los pantalones. El brazo ortopédico de momento aún lo tengo. Bueno, y bueno, los más cafeteros pues ya empezaban a, bueno, a, bueno, vale, tiempo. Voy. Vale, ¿estamos? Sí, ¿se cayó? No, no, no, Arturo. Ah, vale, vale, vale. Pensaba que Arturo se había caído. Sí, yo también. Es que no está. No, no está. Porque no le veo. No le veo en la... No le veo en el StreamYard. Pensábamos, Miguel, demasiada atención está prestando Arturo, ¿no? No, yo me he quedado, digo, no sé. Sí, sí, sí. Pues nada, no pasa nada, porque luego se edita el programa. Sí, veo que llevamos una hora dieciocho. Sí, pues vamos a tener que ir. A ver, ¿qué te gustaría que habláramos ahora así un poco para ir...? Bueno, si queréis un poco el tema de la accesibilidad en equipos... Sí, venga, sí, yo creo que sí. Y con ese ya lo hacemos recapitulación. Uy, vale. Tengo ya pájara alimentaria. Tendré que... Uy, ahora se ha pitado algo, ¿no? Soy yo, no, que tengo un walkie en la mano. Ahí soy yo, es bici, ¿eh? Hombre, ya te digo yo que aquí... Eso es una transmisión digital de aquí del repetidor de Tarragona. Sí, es una persona con hemiplegia. Sí, correcto, correcto, sí. Echo Alpha 5 Whiskey Mike. Sí, sí. Sí, era por si queríais que intentara... Era una llamada en directo que... Genial, genial. A ver si alguien... ¿Qué ha pasado, Arturo? Que me habías caído, Ricardo. Ahí, Arturo. Se me ha caído, no sé qué ha pasado. ¿Hay algún corte de internet? ¿O he cortado la página? No sé qué ha pasado. Claro, has estado haciendo pitiditos todo el tiempo. Ya te has caído. Hay que caer, ¿eh? Has caído la batería de litiofosfato este. Ferrofosfato. Pues luego vas a tener que arreglar esto. Adiós. Adiós.
Gafotas, cegatos y sus aparatos #19
Fecha: sábado, 3 de mayo de 2025, a las 00:00:00
En este decimonoveno episodio de Gafotas, cegatos y sus aparatos”, nos enfrascamos en una apasionante charla sobre las dos grandes plataformas móviles del momento: iOS y Android.
Para debatir las bondades, diferencias y curiosidades de cada sistema operativo, contamos con la valiosa compañía de David Santos y Norbey Salazar:
David nos habla de su dilatada experiencia con varios dispositivos y marcas (Nokia, HTC, Alcatel, Xiaomi, Samsung…), y de cómo acabó adoptando el iPhone tras sopesar factores como la accesibilidad y la estabilidad del sistema.
Norbey, desde Colombia, comparte su recorrido, que comenzó con Nokia y lo llevó más tarde a probar el iPhone 3GS y, posteriormente, a sumergirse en el mundo Android. También explica cómo su formación y labor profesional lo han motivado a conocer a fondo la accesibilidad de ambas plataformas.
Temas destacados en este episodio:
Las ventajas y desventajas de iOS y Android en cuanto a usabilidad, coste, actualizaciones y ecosistemas.
La importancia de la accesibilidad en cada sistema: lectores de pantalla, manejo de gestos, aplicaciones más y menos accesibles…
Experiencias personales de los invitados al pasar de un sistema a otro, sus trucos y consejos para sacarle el máximo partido al teléfono que tengamos.
Además, debatimos sobre la curva de aprendizaje en iOS frente a Android, la seguridad y las precauciones a la hora de instalar apps de fuentes externas, las famosas capas de personalización de distintos fabricantes, y cómo elegir un teléfono de segunda mano sin morir en el intento.
Todo ello, con el estilo cercano y desenfadado que caracteriza a “Gafotas, cegatos y sus aparatos”. ¡No te pierdas este Episodio 19 para descubrir de primera mano qué ofrece cada sistema y cómo sacarle el mejor provecho a la tecnología móvil, tanto si eres usuario ciego como si simplemente buscas la opción más eficiente!
¡Dale al play y acompáñanos en esta tertulia tan completa como divertida!
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Información sobre accesibilidad (Apple Accessibility).
Sección de accesibilidad en Android.
Información y guía de LECTOR DE PANTALLA TalkBack (sitio oficial de Google).
Información oficial de lector de pantalla VoiceOver.
Jieshuo (lector de pantalla alternativo para Android) Página de descarga (versión internacional en inglés).(La app no está disponible oficialmente en Google Play, sino en repositorios externos. Se recomienda precaución).
Apple (iPhone, iPad, Apple Watch, etc.).
Samsung (Galaxy S, Galaxy Note, Galaxy Buds, etc.).
Xiaomi / Redmi. Destacada por la poca personalización de Android.)
Google Pixel. (Se citan los Pixel como ejemplo de Android “puro”.)
HTC. (Marca mencionada en los inicios de los smartphones Android.)
Nokia. (Mencionada por sus modelos clásicos con Symbian.)
Créditos:
Duración: 01:40:36
Descripción detallada del logo de Episodio 19. Cambios de bando, trucos y tropiezos: la vida entre iPhones y Androides
La imagen muestra una escena surrealista que mezcla el estilo del viejo oeste con elementos futuristas y tecnológicos. En una polvorienta calle desierta de un pueblo del oeste americano, bajo un sol anaranjado y cegador, se enfrentan dos figuras. A la izquierda, un androide femenino vestido con sombrero vaquero, gafas de sol, botas y una pistolera. En su mano derecha sostiene un teléfono móvil Android con la pantalla encendida que muestra una silueta, posiblemente de otro vaquero. A la derecha, el personaje de nuestro logo, un hombre humano vestido de cowboy, con bigote, sombrero, gafas de sol, traje marrón, pañuelo al cuello y también con un teléfono móvil en la mano, mostrando el logo de Apple. Parece responder al gesto del androide con su propio móvil. Ambos están en posición de duelo, como si en vez de desenfundar pistolas estuvieran enfrentándose con sus smartphones, en una especie de duelo digital. El ambiente tiene un tono sepia o anaranjado, evocando las viejas películas del oeste. Al fondo se ve una bola de paja rodando, el típico "tumblin' tumbleweed", y edificios de madera alineados a ambos lados de la calle. La imagen es una sátira elegante y muy original sobre cómo los duelos del pasado se transforman en duelos tecnológicos en la era digital, incluso entre humanos y máquinas.
Transcripción de Episodio 19. Cambios de bando, trucos y tropiezos: la vida entre iPhones y Androides
Episodio 19. Cambios de bando, trucos y tropiezos. La vida entre iPhones y androides. ¿Qué tal estás, Ricardo? Pues encantado, como siempre, de estar de nuevo aquí, botarse gatos y sus aparatos y grabando un nuevo episodio. Genial, genial. Esto va a sonar buenas. ¿Y tú qué eres más de...? ¿Qué te gusta más, mamá o papá? ¿Qué prefieres? Hombre, en cuanto a mamá y papá, los dos, para que no se sientan mal. Pero si me lo estás preguntando por el tema de hoy... Eso es. Yo prefiero mamá. Más los teléfonos de la manzana que los androides. Vaya, pecador de la madera. Pues yo también, pero porque no me queda, por lo menos hasta ahora, no me queda más remedio. Porque la accesibilidad, que es un punto sumamente importante para nosotros, pues no había color entre uno y otro. Y por eso no me queda más remedio que elegir la manzana. Pero si no fuera por accesibilidad, pues la verdad que no tendría tan claro qué hubiera elegido. Probablemente estaría en el lado oscuro. Sí. Sí, en cuanto a la accesibilidad, si recordáis y recuerdo nuestros oyentes, tuvimos a David y tuvimos a Héctor hablando de los lectores de pantalla para Android. Y verdaderamente, aunque habían mejorado, sí que es cierto que aún tenían algún tipo de dificultades a la hora del manejo de los gestos y demás. Pero bueno, no era un hándicap en sí, sino era una circunstancia que hoy supongo que también hablaremos de ella. Porque en cuanto a lo que es el uso de los distintos terminales, la accesibilidad va a tener que ver mucho y el feedback que ésta nos da cuando la utilizamos. Y así que hoy hablaremos también más de los sistemas operativos y de las prestaciones que éstos tienen. Y lógicamente luego con lectores o sin lectores. Así que yo creo que podemos comenzar. Sí, para ello hoy tenemos dos invitados, ha faltado uno. Y por un lado, pues repetimos con David. Muy buenas, David. ¿Dónde estás? ¿Qué tal? ¿Qué tal estáis? Muy bien. Encantado de participar de nuevo con vosotros. Muchas gracias a ti por estar con nosotros en esta tertulia. Bueno, y tenemos también a Norbey Sarazar desde Colombia. ¿Qué tal, Norbey? Hola, hola a todos. Ricardo, David, Arturo. Muchas gracias por la invitación, hombre. Muy contento de estar en este podcast tan maravilloso. Bueno, a ti sí que te vamos a preguntar un poco, pero muy brevemente, en un minuto, minuto y medio, quién es Norbey Sarazar. Porque a David ya tuvimos ocasión de conocerlo. Y un episodio anterior. Y a ti es la primera vez que participas como colaborador. Así que, cuéntanos. Bueno, básicamente soy una persona apasionada y apasionada por la tecnología. Me dedico a trabajar de forma profesional con ella en una empresa que opera un proyecto en Colombia de licencia país de Joe's. Me dedico también a probar diferentes dispositivos tecnológicos. Soy muy amante de lo que es conocer la tecnología, los lectores de pantalla, los diferentes dispositivos. Y a partir de eso he establecido mi historia de vida para dar precisamente servicio a las personas ciegas y con baja visión. Y pues me encanta trabajar con esto porque la tecnología sin duda es transversal para todos nosotros. No obstante, y rápidamente les cuento, estudié Comunicación Social en la Universidad Cooperativa de Colombia. Pero ya llevamos más o menos 20 años de experticia en tecnología para personas ciegas y con baja visión en Colombia. Muy bien. Excelente. Pues gracias. Gracias por participar. Y bueno, creo que tenemos dos personas maravillosas para hablar de estos dos sistemas operativos y de los terminales que conllevan. Y lo primero que yo os pediría, si os apetece, bueno, comenzamos ya a charlar, es que cada uno de nosotros, incluimos los cuatro, expliquemos un poco cuál ha sido nuestro histórico de uso de terminales en el caso de los que hayamos visto con visión y sin visión. Y cuál es nuestro terminal actual. Para que un poco, pues bueno, los oyentes se hagan idea del conocimiento que tenemos de los distintos sistemas operativos. Así que, pues por ejemplo, David. Bueno, pues yo comencé hace muchísimo tiempo con varias marcas de las que había entonces, como Nokia, donde era un teclado que no era táctil, que era con botones y una pantallita muy pequeña. Luego cambié por diferentes terminales, marcas como por ejemplo Alcatel, que a día de hoy ya creo que no se dedican a dispositivos móviles. Luego, con el tema de smartphones, me acuerdo de empezar con una marca, que era HTC, que hacía dispositivos que había precio de muy buenas condiciones. Y luego, cuando empecé a trabajar, ya que tenía visión, empecé a utilizar iPhone. Pero recuerdo que no me daba una de las características que yo necesitaba, que era poder llevar dos SIM en el mismo dispositivo, para no llevar dos terminales. Entonces, eso sí que me lo podía brindar otras marcas como Xiaomi, por ejemplo. Cambié a este tipo de dispositivos. Y luego, bueno, pues he tenido diferentes, ¿no? Tipo Samsung, he tenido Xiaomi, he tenido también de Motorola. Y a día de hoy he podido adquirir un iPhone. De nuevo, he vuelto con él. Un iPhone 16 Pro. Y también tengo un Samsung S24 Plus. Entonces, pues bueno, sí que estoy curtido y he probado diferentes, pues, tecnologías, ¿no? David, con lectores de pantalla, ¿qué tipo de sistemas has utilizado? Empecé con... Con TalkBack. Lo comentaba en un episodio anterior con Héctor. Luego utilicé Yesor, el lector chino. Muy rápidamente cambié, porque no me brindaba lo que yo necesitaba. Me parecía un sistema un tanto lento. Un tanto que las características que tenía no satisfacían lo que yo necesitaba. Pero con Yesor sí que lo tuve. Y luego ya voy sobre con iPhone. Muy bien. Pues vamos a escuchar a Norbey. Que nos comente también el que... Que recorrido ha hecho con sus distintos terminales y sistemas operativos. Así que cuando quieras, Norbey. En mi caso particular, mi experiencia fue un poco inversa a la de David por diferentes circunstancias. Pero también empecé por los teléfonos Nokia. Empecé por el 6670. Lo recuerdo muy bien en el año 2005. Y a partir de allí también tuve bastantes teléfonos. Teléfonos de todo tipo de Nokia. Empecé también por los teléfonos iPhone en el 2011. Fue que empecé por este lado. Por VoiceOver. Por el iPhone 3GS. Y a partir de allí, por determinadas razones, me había casado con esa marca. Con la marca Apple. Y su accesibilidad. Realmente yo no creía mucho en la accesibilidad de los teléfonos táctiles. Pero encontré una persona que no habló de forma fanática, sino de forma objetiva. Dije, oiga, ¿y por qué no invertir en un teléfono iPhone para que yo pueda probar a ver cómo es que funciona? En esa época, para ustedes quizás cercana, para nosotros lejana. En Colombia no teníamos usuarios de iPhone. No había más de uno o dos a lo mucho. Entonces, en ese orden de ideas, inclusive debo decir que aprendí con un podcast de Ricardo a utilizar el iPhone. Así fue que aprendí. Por lo cual, me empecé a meter con este tema de los teléfonos táctiles en ese momento. A partir de allí, hasta el año 2013, sólo tuve iPhone. Después de ello, me dediqué a conseguir información sobre Android. Dije, ¿por qué no probar Android? Y me compré un Samsung Galaxy S3 en esa época. Para hacer las primeras pruebas. Con Android y TalkBack. Y a partir de allí, siempre he trabajado con ambas marcas. En razón a que, primero de forma profesional, necesito conocer todo lo que incluye ambas marcas. Qué es lo bueno, lo por mejorar. Yo no diría malo, sino lo por mejorar. Qué me ofrece una marca. Qué me ofrece otra. Qué me ofrece un sistema. Qué me ofrece otro. Qué me ofrece un lector. Y qué me ofrece otro. Después conocí Yesu hace unos 4 o 5 años. Y he decidido apoyar la licencia de este lector para tener todas las prestaciones del mismo. Y ahora Android. Para mí es mi teléfono principal gracias a Yesu. Porque comparto con David plenamente que TalkBack es extremadamente lento. Y realmente no da una buena experiencia de usuario en diferentes teléfonos. Por más gama alta que sean ellos. Muy bien. ¿Y tú Arturo? Yo, bueno, pues también empecé un poco como han comentado ellos, ¿no? Es que estamos dando muchas pistas de los años que tenemos cada uno. Pero bueno, yo también empecé con un... No veas que te vas a poner coqueto ahora. No creo que el club de fan femenino que tengas de baja a nadie. Estás dando muchas pistas de los años que tenemos. Yo que también empecé con un Philips E-Genie. Era el primero que tuve que no tenía accesibilidad porque no había accesibilidad en aquel momento. Y luego me pasé a un Nokia 3660. Que este sí que tenía el Mobile Accessibility inicialmente. Que todavía no había ni lectores de pantalla. Luego ya sí que estuvo el Talks. Y había los primeros lectores de pantalla para el Symbian, ¿no? Luego tuve el Nokia N70 y el N85. Y ahí Dier soltó al iPhone 4S. Que me costó. Porque pasar de unos botones físicos. Que se podían encontrar fácilmente y pulsar fácilmente. Aunque todo se ha hecho paso... Había varios modelos de Nokia con el N85. Que era un horror buscar de forma física los botones. Pero bueno. Pero aún así, aún contó con eso. Saltar al iPhone 4S me costó. Y me costó bastante. Hubo momentos ahí de crisis de quererlo tirar por la ventana. Porque la pantalla táctil inicialmente para una persona ciega pues cuesta hacerse a ella, ¿no? Y luego después del 4S pasé al 6S. Bueno actualmente pues tengo el SE del 2022. Creo que es el último SE que ha salido de Apple, ¿no? Y con Android pues ahí ando coqueteando un poco. Pero bueno. La verdad que entre modelos de gama baja y muy baja. Nunca he tenido así un modelo de los de gama alta, ¿no? Que ahí se nota mucho la diferencia de uso. La experiencia de usuario y más desde el punto de vista de la accesibilidad, ¿no? Pero bueno. Por motivos profesionales yo necesito conocerlo. Y por motivos personales pues también me interesa, ¿no? Pero no he coqueteado. Eso han sido coqueteos con Android. Pero no he profundizado. No he profundizado demasiado en ellos. Y luego además también, bueno, ya hablaremos. Pero hay otro punto, ¿no? Que una vez que ya uno se mete en un sistema pues empieza ya a comprar aplicaciones y demás. Y pasarte de uno a otro supone volver a empezar otra vez a buscar esas aplicaciones para esa productividad. O para esas cosas que estás haciendo ya de una forma. Tienes que empezar a buscar cómo hacerlo de otra. Y muchas veces pues tienes que volver a pasar por caja. Y pagar dos veces por diferentes aplicaciones en diferentes sistemas. Cuando ya lo tienes solucionado en uno de ellos pues tampoco... A veces hace mucha gracia, ¿no? Entonces, bueno. Pues por comodidad pues me he quedado de momento. Me he quedado en iPhone. Aunque no descarto algún día pasar a Android. ¿Y tú? Muy bien. Pues yo te lo voy a contar. Me hace mucha gracia que te justifiques porque no utilizas Android. Eso es más bien por una cuestión filosófica e ideológica, ¿no? Algo de... Bueno, es que Android... A ver, si no fuera por el tema de accesibilidad. Pues probablemente estaría en Android. Por su... Porque es mucho más abierto. Porque te permite hacer muchas más cosas de forma más sencilla. Sin tener que dar tantos rodeos. Y por lo cacharrero que soy. Un poco friki. Pues yo creo que Android te da más posibilidades para cacharrear. En ese sentido, ¿no? Pero claro. iPhone te da más también la tranquilidad de que funciona. Lo que funciona, funciona bien. Y da menos guerra. Pero hay veces que tienes que dar un rodeo. En el mejor de los casos. Cuando es imposible hacer ciertas cosas. Entonces, bueno. Correcto. Pues yo tengo un perfil muy similar al tuyo y al de North Bay. Yo comienzo con un teléfono sin accesibilidad. Era un Symbian, supongo. De la marca Triumph. Y luego ya entró en todos los Nokias con lo que era el Talks. Que era... Y el Mobile Speak. Y todo este tipo de lectores. Y es cuando comienzo ya a manejar el teléfono ya con bastante... Bueno, con cierta autonomía. Ocurre un hecho destacable. Que son unas jornadas de Outline. En Madrid, en Prim. Y me... Bueno, iba de invitado para dar una ponencia sobre voces CTS. Y me encuentro a Jonathan Chacon y a Anteke Varela. Que se habían comprado recientemente dos iPhone. Con 3GS, creo que se llamaba. Estuve en los descansos viéndolo. Aparte de ver una batalla que hicieron los dos con espada láser. Que me llamó mucho la atención. ¿No? Que... Y entonces, bueno. Me di cuenta que la resistencia esa. O el miedo que yo tenía a la pantalla táctil. Como ha comentado North Bay. Pues viendo cómo estaban manejando. Y en aquel momento era muy limitada la accesibilidad. Pero bueno. Viendo cómo la manejaban. Pensé, digo. Yo puedo hacerlo también. Sí que es cierto. Que hasta el año 2009 o 2010 no me compré el iPhone 4S. Que ahí es donde hice esa audiodemostración. Que tuvo mucho éxito. Que publiqué en Tiflinforma. Porque estaba tan sumamente emocionado. Entusiasmado. Que dije. La gente tiene que saber cómo yo estoy manejando esto con pantalla táctil. Y lo fácil que es. Y todo lo que me está permitiendo. Porque recordar que antes estábamos prácticamente encarcelados en máscaras. De accesibilidad. Que nos permitían movernos en entornos muy, muy restringidos. Y ya con iPhone ya se nos permite un poco recorrer más el sistema. Y acceder a una información mucho mayor. Esa demostración de la que tú estás hablando. Precisamente fue la que a mí me demoré como 15 días en encontrarla. O sea, yo tuve un iPhone que definitivamente los primeros días quería tirarlo contra mi cara. Por la ventana. Pero esa demostración. Mejor dicho. Descubrí la rueda. El flick. El flick con tu demostración fue que lo descubrí. Y ahí descubrí que se puede manejar un teléfono táctil. Porque en principio como no tenía quien me apoyara. La persona que veía no sabía cómo manejar estas cosas. No teníamos ni la más remota idea cómo se manejaba eso. Y descubrí el flick. Que para mi gusto fue el paso trascendental para lograr el uso de estos teléfonos. Y esa es la parte que obviamente uno debe manejar. Pero en mi caso me demoré 15 días en descubrir el santo grial. Pues entonces yo estoy satisfecho. Porque ese era el objetivo. Un poco transmitir en esa audio demo. A través del sonido. Cómo estaba respondiendo un teléfono al tacto. Porque yo sí que lo iba audiodescribiendo. Todo lo que estaba haciendo. Y a una velocidad. Y creo que en aquel momento intenté que la calidad de sonido fuera buena. Porque valía la pena. Porque además iba todo muy bien. Daba mucho juego para hacer la audio demostración. Me alegro mucho que fuera así. Bueno pues a partir de ahí. Ya tuve más iPhone. Bueno. Un iPhone 6S. Y luego tengo un SE también. Y bueno. Y con Android. Siempre he tenido algún Android de retiro. De mis familiares. Porque todos mis hijos. Mi mujer. Y demás utilizan Android. Y conforme me iban dejando. Cambiando de terminal móvil. Yo me los iba quedando. Iba probando con TalkBack. Aplicaciones. Hasta ahora que tengo uno. Que me regaló un amigo. Que es un Xiaomi Redmi Note 8 Pro. Que como veréis. Yo creo que ya van por el 13 o el 14. Los de Xiaomi debe tener más años que nada. Pero bueno. Que en principio siguen funcionando muchas aplicaciones. Y nada. Yo vamos. Definitivamente soy de Apple. Y de su accesibilidad. Y también de su filosofía. Siendo Android un sistema operativo. Que me llama mucho la atención. Y que también lo utilizo. Sobre todo por si encuentro cosas. Que luego pueden ser útiles para terceros. Porque yo particularmente. Como te pasa a ti Arturo. Lo tengo para bichear. No lo tengo como prioritario. Y que instalaste Gsua en ese Redmi. Lo instalé gracias a ti. ¿Sabes? Y porque... Bueno. Porque lógicamente también me llamó mucho la atención. Que se hablara de un nuevo lector. Que... Habían transmitido mucho miedo. Entonces pues yo no lo instalaba. Y cuando tú me dijiste. Que... Bueno. Que no pasaba a priori. Nada. Si tomamos precauciones. Pues lo probé. Y bueno. Sí. Realmente. No me ha dado tiempo a... A profundizar en él. Pero está... Bueno. Ahí lo tengo. Es excelente. Yo tuve una controversia por lo mismo. Con algunas personas. Por el mismo uso de... O lo mismo que se habla del Gsua. Sin siquiera probarlo. En razón a ese punto. De lo que se hablaba. De que ponía en riesgo nuestros datos. Todo lo chino genera sospechas. Ricardo. ¿No? Sí. Lógicamente. Que todo lo chino genera sospecha. Pero... En este caso. Las sospechas. Eran... No eran infundadas del todo. Dado que... Retiraron la aplicación. De la Play Store. Y eso generó mucha desconfianza. Antes de entrar un poco de lleno en la sensibilidad. Como sistema operativo. Tal cual. Que el sistema operativo os parece... Mejor. Peor. Probablemente no haya uno ganador. Porque si no, no existirían los dos. Qué ventajas y qué inconvenientes le veis a cada uno de ellos. Bueno. Yo en cuanto a los dos dispositivos que estoy probando ahora. Ya hablo con conocimiento de causa. Ya que estoy empezando con iPhone. Con VoiceOver. Y he utilizado todo el maquillaje. Tienen ventajas e inconvenientes cada uno de ellos. La principal ventaja que veo a VoiceOver en iPhone. Es la estabilidad. La tremenda robustez que propone el sistema. Es como que me da una sensación de calidad. Una sensación de que es cierto. De que a lo mejor no ha evolucionado mucho VoiceOver desde hace tiempo. Según comentábamos hace tiempo también en... Valga la redundancia. En un capítulo anterior con Héctor. Pero me he dado cuenta de que lo que funciona. Funciona y funciona bien. Esa es la sensación que me da iPhone. El teclado va muy sutil. Va muy rápido. Es una experiencia muy buena. Pero es un sistema muy capado. Muy cerrado. Cuando quieres hacer algo. Simplemente. Yo que sé. Que te genere ChatGPT. Un atajo. Y lo quieras importar dentro de la aplicación atajos. Tiene que ir firmado. Y tiene que ser con una cuenta de iCloud. Cosas de esas que dices. Esto me cuesta mucho. Y en Android. Al ser un sistema más abierto. Es mucho más fácil. Android. La ventaja que tiene es esto. El tema de la personalización. El tema de poder cambiar tantas cosas. Las opciones que tiene. Y con el Yesuayo. Por ejemplo. Hablaba también antes con Arturo. Creo. Contigo Ricardo. El tema de poder. Personalizar hasta el extremo. El tener esa edición de texto. La cantidad de opciones que tienes. Temas de sonido. Muchas cosas. Puedes hacer mucho con él. No es tan cerrado. Pero a mí se me ha quedado colgado. Y de momento no. Nunca se me ha quedado colgado. Yo creo que. Ahí va. Yo creo que si hiciesen un mix. De todos. Darían con la clave. Y creo que la gente de Apple. No cuenta con. Con los recursos. No suficientes. Porque ellos tienen mucha pasta. Sino con el interés de poder utilizar. Pues Yesuayo. Y decir vamos a integrar esto. Vamos a hacer esto otro. Y los otros al revés. Yo que sé. Pues decir vamos a ponerlo. Como decíamos. En la Play Store. Dar ese voto de confianza. Entonces. Anda un poco ahí. Yo creo que en el mix de todos. Estaría la virtud. De hecho. Yo creo que se van acercando. Cada vez más. Android cada vez se va. Iosificando más. Y. Apple. Cada vez. Va abriéndose más. Y se va acercando un poco más. A Android. En cuanto a la personalización. Y. Hay cosas que yo echo de menos. Por ejemplo. Hace mucho tiempo. Tuve la necesidad. De que cuando recibiera un SMS. Que. Crear una automatización. Para que ese SMS. Fuera. Reenviado. A diferentes. Números. Eso. Con Apple. Es imposible. Y. Con Android. Por ejemplo. Sí que se puede. Hay. Cientos de. Aplicaciones. Que. Te lo pueden hacer. Un. Detalle. Como otro. Porque hay muchas cosas. En. Android. Es completamente personalizable. Y. Se puede hacer absolutamente. Todo. Lo que. Puedes hacer con el sistema. Y. iPhone. Porque luego. También está. Claro. El tema de la seguridad. Cuanto más. Abierto. Pues es más. Inseguro. Y al revés. Bueno. También. Tenemos que pensar. En vuestros perfiles. Tanto. En el de David. Como en el tuyo. Es decir. El usuario. De a pie. No usuarios avanzados. Como vosotros. Con conocimientos informáticos. Muy altos. Realmente. Haces sota. Caballo y Rey. No va. A complicarse. Más la vida. Y yo. Yo se entiendo. A vosotros. Que lógicamente. Tensionéis todo. A ver. Qué es lo que os da más. Qué es lo que os permite más. Para hacer las cosas. Más a vuestra manera. Y. Lógicamente. La versatilidad. Esa la tiene Android. No la tiene. iPhone. Pero bueno. Yo supongo. Que un usuario. De a pie. Y si no. Ahora que nos diga. Norbeck. Él también. Tiene unos conocimientos. Muy elevados. Pero. Trabaja con. Como. Formador. Y como difusor. De ese tipo de. Tecnologías. Y supongo. Que conocerá. A mucho. Alumnado. Mucha gente. Que. Que se ha formado. En Android. Utiliza. Cuatro cosas. No utiliza más. No. Bueno. Richard. En efecto. Tú tienes razón. Que. Cada quien utiliza. El teléfono. O el dispositivo. Para lo que considera. En efecto. Pues. Hemos tenido la fortuna. De enseñar. En ambas. Plataformas. Y hacer. Diferentes tipos. De cursos. Que nos permiten. Sacar. Como lo mejor. El problema. Consiste. Precisamente. En que. Hay personas. Que. Por determinadas. Razones. De tipo. Económico. No pueden acceder. A un teléfono. Que quisieran. Sino. El que les toca. Y eso. También. A veces. Frustra. Un poco. Al. Al usuario. De a pie. Como tú. Lo acabas. De decir. Sin embargo. Afortunadamente. Y gracias. Al tema. De la evolución. Tecnológica. Y tenemos. Posibilidades. Para todos. Los bolsillos. Y todos. Los gustos. Que realmente. Es una. De las conclusiones. Que más. Adelante. Vamos. A conversar. A profundidad. Y es una. De las cosas. Que no me gusta. Por ejemplo. Ya. Pero ustedes. Lo decían. Hace un rato. El tema. De que parece. Como que voy. Sobre. Entrar. En una meseta. En una meseta. De desarrollo. Siento. Que le falta. Pero no se trata. Que definitivamente. De una decisión. Está bueno. O está malo. Sino. Que nuestro objetivo. Precisamente. Es decir. Qué es lo bueno. Y qué es lo. Por mejorar. Cada plataforma. Y cómo. Podemos sacar. El máximo. Partido. De esa plataforma. Qué es lo que yo necesito. Para dónde voy. Y de esa forma. Sugerir al usuario. Qué utilizar. Sí. Eso es lo bueno. Que haya. Diferentes. Sistemas. Diferentes. Modelos. Y diferentes. Precios. Para que cada usuario. Pues pueda. Elegir. Dependiendo. De sus necesidades. No. Y. Efectivamente. Sin tener en cuenta. El tema. De la necesidad. Pues. No sé. Si el 90 por ciento. De usuarios. Utilizan el teléfono. Para llamar. Y cada vez menos. Y sobre todo. Para WhatsApp. Y poquito más. No. Y alguno. Incluso. Para redes sociales. Alguno. Tampoco todos. Alguno. Alguna red social. No. Pues. El Twitter. El X. O. Instagram. O. Alguna cosita así. Pero muy poco. No. Entonces. Para esto. Pues vale. Cualquier Android. Súper. Básico. De 100 euros. Es suficiente. Y también. Porque. Un poco más. A día de hoy. Hay más especialización. Y. Y. Se basan más. Los criterios. En los ecosistemas. Yo comentaba. Hace poquito. Con un amigo. Digamos. Al final. Tú puedes tener. El mejor modelo. Con la mejor tecnología. En cuanto a hardware. Pero. Donde está el valor añadido. Yo creo. Que a día de hoy. Está. En los ecosistemas. Y en el software. Porque. Lo vemos. En marcas. Como Poco. Poco. Es una gama de terminales. Que tienen lo máximo. El mejor procesador. Mejor pantalla. Memoria RAM. De 32 gigas. Que no son necesarias. Pero. Su sistema operativo. No es. Como el que puede tener. Por ejemplo. Samsung. Samsung. A día de hoy. Integra frigoríficos. Lavadoras. Lavavajillas. Micrófonos. Altavoces. Auriculares. De todo. Barras de sonido. Es un ecosistema. Muy completo. Y Apple. Te brinda eso. Y siempre lo ha brindado. Tú en Apple. Te compras el teléfono. Lo enciendes. Y empiezas a funcionar. Te compras los AirPods. En el momento que los abres. Están emparejados. Te compras también el Apple Watch. Y en un momento. Está. Todo eso. Esa calidad. Esa sensación. Para el usuario. Super cómoda. Es muy cómodo. Poder trabajar así. Es muy rápido. Muy inmediato. El quitar aplicaciones. El desinstalarlas. Todo eso. Es muy rápido. En Android. Hay más pasos. Es algo más complejo. Tiene una curva de aprendizaje. Más amplia. La configuración. Es mayor. Pero no quiere decir. Que sea una mala experiencia. De usuario. Mis padres. Tienen Android. Son personas. Que no son muy mayores. Pero sí. Que tienen Android. Pero en cambio. Mis antiguos compañeros. Todos. Compuestos de responsabilidad. Han cambiado a iPhone. ¿Por qué? Porque no buscamos. Ya más. No buscamos. Traquetear. Cuando llegas a casa. ¿Quieres? Algo inmediato. Algo que funcione. Algo que vaya bien. Y que dure en el tiempo. Yo creo. David. Que eso es un poco relativo. El tema. De la curva de aprendizaje. Porque Android. Precisamente. Como tiene. Esa diversificación. Cada marca. Tiene sus propias políticas. Y su propia forma. De trabajar. Pero. De pronto. En las versiones de hoy. No compartiría. Tanto el concepto. En razón. A que hoy día. Es casi que todo. Muy sencillo. Lo que no podemos pretender. Bajo ninguna circunstancia. Es. IOSar Android. La curva de aprendizaje. A mí me parece. Que. Ya es muy relativa. Es cierto. Que iPhone. Es muy sencillo. Pero Android. También hoy día. Es muy sencillo. Según la marca que utilices. Ya es muy diferente. Los ajustes específicos. De cada una de las plataformas. Precisamente. La marca. Que tú hablas poco. Es una de las marcas. Más complejas. En ajustes. Pero eso. Es un tema diferente. Pero. En la curva de aprendizaje. Creo. Que ya. No es tan desigual. Entre uno y otro. En mi concepto. Sí. Lo que comentaba David. De que. Es la forma. De. Diferenciarse. ¿No? De la competencia. Quieren que todos sus dispositivos. Se entiendan muy bien. Entre ellos. Lo que ha hecho. Que puedes. Emparejar unos auriculares. Con el iPhone. Y automáticamente. Ya te pueden funcionar. Con el iPad. Y con el Mac. Te funcionan. Sin tener que. Volver a emparejarlos. Y nada. A través de tu. Apple ID. Pues ya. Se hacen. Esos auriculares. Hacen amiguitos. De todos tus dispositivos. De la manzana. De estas. ¿No? Que Apple. Pues sabe hacerlo muy bien. Y que cuando. Tienes dos. Dispositivos. De la manzana. Pues hacen. Más cosas. Juntos. Que por. Separado. Cada uno de ellos. ¿No? Sí. Es algo que. Samsung. Se ha puesto. Ahora. Más las pilas. En ese tema. También. Te lo. Te lo permite. Han ido. Un poquito. Más lento. Han avanzado. Más. Tiene. Que mejorar. En cuanto a visores. Pero sí. Que están haciendo. Cosas. Sí. Que están mejorando. Y luego. Otras marcas. No. Podemos hablar. Como Xiaomi. Como Poco. Como. Hay muchas. Pues. Están intentándolo. Poquito a poco. Es lo que decía. Norbello. También. A día de hoy. Las actualizaciones. Lo que van dando. Como. Ese valor añadido. Esas actualizaciones. De Samsung. Que te dan siete años. Pues. Poco. Ya están empezando. A salir. Como dos o tres años. O sea. Se están poniendo las pilas. Y se está igualando. Todo. Un poco más. En esto. También. Tiene mucho que ver. El tema. De la presión ambiental. Por ejemplo. No. Por parte. De algunos organismos. El tema. De que la gente. No cambia de teléfono. Tan seguido. Porque no. Que. En esa obsolescencia. Programada. Tan seguido. Y eso. Por ejemplo. Apple sí. Que lo tuvo en claro. Y es algo. Que hay que reconocerle. La marca de la manzana. Porque. Obviamente. Teléfono. Como el mío. Que es un XS. En este momento. No he querido renovarlo. Porque sí. Tengo. Claridad. Sobre lo que quiero. A futuro. Y a presente. Pero. Vemos. Que hasta de 18. Se actualiza. Ese teléfono. Eso implica. Por ejemplo. Que las personas. Pueden disfrutar. De las novedades. Con más. O con menos. Recursos. Pero finalmente. Que ya la gente. No esté cambiando. Tanto de teléfono. Y que no tengamos. Que generar. Unos impactos ambientales. Impactos económicos. Donde el consumismo. Ustedes saben. Que influye en esto. No. Pero realmente. Creo que. Esa. Esa parte. Sí. En Apple. Fue fuerte. Y ha sido fuerte. Y es de valorar. Y resaltar. Y que los demás fabricantes. Han puesto también. Las pilas. Google. También ya se subió al bus. Con sus Google Pixel. Ahora inclusive. En el último Pixel A. Hasta el 2032. Actualizaciones. Implica. Que estamos hablando. De una concienciación. De los fabricantes. De darle a conocer. A todos los usuarios. Novedades. Con más uso. Y con menos impactos ambientales. Para que todo el mundo. Con más. O con menos recursos. De hardware. Pueda disfrutar. De algunas novedades. De software. Eso es importantísimo. Resaltarlo. En Apple. Esto es curioso. Porque tan pronto. Te dan una década. Como una de arena. Solo. Terminas dejando. El dispositivo. Porque. No porque se haya. Deteriorado. Físicamente. El hardware. Y demás. Normalmente. Porque no le dan. Más actualizaciones. Al software. Porque si está operativo. Ya llega un punto. Que dejan de. Actualizarlo. En el gusto. Para. Precisamente. Yo creo. Que empujarnos. A comprar. Dispositivos. Más modernos. Pero el. Dispositivo. En sí. Es de una. Suelen ser. Los que se han tenido. Que proponer. A propósito. Hacerlo. Con la velocidad. De los. 2.0. Que manda. A narices. Pero bueno. Ha visto. Contra. Muy importante. Y yo creo. Que de cara al usuario. Es. Determinante. Que es. Un poco. La potenciación. De los ecosistemas. Y de. Como. Si tú. Utilizas. Por ejemplo. Todos los productos. De Apple. Estos. Se conectan. Con mucha facilidad. Tú. Prácticamente. No tienes. Que hacer. Nada. Desde. Después. De la primera. Configuración. Y eso. Da una. Serie. De ventajas. Y de comodidad. Al usuario. Maravillosa. Pero. Pienso. Que tampoco. Es una cuestión. De. En este caso. Del. Tipo. De. Sistema. Operativo. Porque. Habéis. Nombrado. Marcas. Como. Son. Pixel. De. Google. Habéis. Nombrado. Samsung. Que. Y habéis. Nombrado. También. Creo. Que. Oppo. Y. Xiaomi. Y. Si. Os. Daís. Cuenta. Todas. Estas. Marcas. Empiezan. A. Tener. También. Sus. Propios. Ecosistemas. Y. Empiezan. A. Funcionar. Prácticamente. Igual. Que. Está. Funcionando. El. Ecosistema. Apple. Y. Verdaderamente. Ya. Da. Igual. Que. Tener. Un. Android. O. Tener. Un. Apple. Que. Todo. Va. Si. Todo. Va. A. Funcionar. Bien. No. Y. Yo. Creo. Que. Si. Que. Es. Importante. Es. Ir. A. Toma. Nota. Como. Decía. Y. Se. Se. Han. Puesto. Las. Pilas. Y. Lo. Han. Hecho. Así. Pero. Bueno. Es. Que. Hacerlo. Así. Porque. Es. Que. El. Usuario. No. Es. Un. Informático. Y. Respeto. A. Todas. Ellas. Pero. Que. Apple. Tiene. La. Posibilidad. De. Hacerlo. No. Y. Los. Otros. Pero. Es. Cualquiera. De. Estas. Marcas. Pues. Tiene que. De alguna forma, alinearse con Microsoft, por ejemplo, que es la otra en cuanto a ordenadores de escritorio, pues es un poco el gran rival de Apple. Entonces, pues es que la facilidad que tiene Apple dentro de su ecosistema, que copias un texto en el Mac y luego puedes ir y pegarlo directamente en una aplicación dentro del iPhone. Porque el FaceTime, pues todo se integra. Puedes llamar en un dispositivo y continuar la llamada en otro, coger la llamada en uno o en otro indistintamente. Todos esos pequeños detalles que son transparentes, quieren que sea transparente para el usuario, para esa experiencia de usuario que sea premium. Pues claro, nosotros lo tienen mucho más difícil porque tienen que ponerse de acuerdo entre varias empresas y algunas de ellas son competencia entre ellas. Entonces no está tan fácil. Les está costando mucho. ¿Más allá de que Microsoft ahorita está...? Está funcionándose mucho con Android y trabajando muy comúnmente con una mente especial con Samsung y Windows 11, que ahora Windows 11 te ofrece la posibilidad de incluir muchas cosas de tu teléfono Android, recibir las llamadas, enviar mensajes. O sea, que en vez de como de rivalizar, están tratando más bien como de tratar de, no sé si de emular, pero sí por lo menos de copiar algo parecido a lo que tiene Apple con ese ecosistema. ¿Te encanta también de crear este tipo de ecosistemas, burbujas, donde los fabricantes están viendo que no solamente con teléfonos y que te pueden...? Sí, en vez de incluir wearables como tablets, como relojes, como auriculares. Entonces, mirad, un ejemplo muy práctico y muy claro. Yo tengo los Samsung Buds Pro 2. Estos son unos auriculares que venían con Samsung cuando me compré el terminal. Bueno, pues los he intentado poner con iPhone y se pueden porque van por Bluetooth. Pero no tienes la experiencia de esa cancelación, no tienes la experiencia de poder pues pararlos y pausarlos cuando vas a la casa. No tienes una experiencia completa, te funciona en sí, pero no es lo mismo. Lo mismo pasa con, imagino que los Airpods, no sé si se pueden... Al revés pasa lo mismo. Pasa lo mismo. Por los relojes también. Entonces todo esto, tú compras una tablet de Samsung y compras un teléfono Samsung y puedes hacer lo que comentabas también como con Apple, pasar un texto de un lado a otro, una llamada, incluso notas, arrastrándolas directamente. Exactamente. Entonces hacen que, ya que te compras el teléfono de Samsung, pues oye, cómprate la tablet de Samsung porque dentro de mi ecosistema tienes unas características que te van a venir muy bien. Y eso poquito a poco, todas las marcas creo que se están dando cuenta, y tanto Google con sus Pixel, que te ganan como con muchas actualizaciones, muchos años, te ganan con la cámara, bueno, todos tienen muy buenas cámaras, pero los Pixel sobre todo. Entonces pues yo creo que están intentando con unos ecosistemas muy potentes... Intentando llevar a los usuarios a su mundo. Claro, arrimar el asco a su sardina y que toda la gente compre productos de su marca, es lógico, es un buen planteamiento comercial y para nosotros una faena, lógicamente, porque esto que tengas tú un pedazo de auriculares maravillosos que, lógicamente, en el momento que ya no los puedes conectar a tu Samsung, ya no te van a dar las mismas funcionalidades, pues es una pena. Pero es así. Y viceversa, claro. A nosotros nos limita mucho más, porque si tienes ya un dispositivo, tienes un iPhone, pues los auriculares que mejor se van a llevar con tu iPhone son los de la manzana, ¿no? Los otros van a funcionar, pero ya no se van a llevar tan bien, ¿no? Entonces ya, si quieres esas características adicionales, pues te está limitando a que lo que compres sea también de esa marca, claro. Muy bien. Antes Norbey hablaba del precio de los distintos terminales, dio por poner unos precios sobre la mesa. Y dado que recientemente... Y dado que recientemente han presentado el último modelo económico, y lo digo entre comillas, de Apple, que es el iPhone 16E, el terminal más económico de Apple hoy en día, me refiero a nuevo, no hablo del mercado de segunda mano, estaría creo que en 700, ¿no? 705 euros, una cantidad así. ¿Es cierto? Sí, son 709, creo recordar. Por 709. Sí, por el modelo que comentabas, sí, el 16E. Pues bueno, dentro de la marca de la manzana, el terminal más económico son ya 709 euros, ¿no? ¿Qué precio tiene un terminal de gama media que estaríamos hablando que esto sería un 16E en otra marca de Android? Por ese precio consigues una muy buena gama media y casi tirando alta, Ricardo y compañeros. Realmente en Android, como hay tanta diversidad de fabricantes y de competencia entre sí, entonces vamos a tener una oferta un poquito mayor, definir por pequeños detalles, pero por ese precio sí que consigues inclusive unos gama media alta bastante importantes, de lo mismo es poco, por ejemplo, de los que hablábamos, Samsung también tiene, por ejemplo, incluso por menor valor los A56 y similares, que son teléfonos que ya te ofrecen prestaciones de gama alta con una inversión un poco menor, entonces realmente sí que la marca Apple sigue siendo premium, para mi gusto, así sea de bajada de supermóvil económico. Pero cuando estamos hablando de móviles de gama alta de Android, ya se... ¿Cualan los precios con Apple? Sí, sí, sí, claro, porque si ustedes observan cuánto cuesta el S25, estamos hablando de teléfonos de más de 1000 euros, en el caso pues de la moneda de ustedes, aquí en nuestro caso hablamos de más de 5 millones de pesos colombianos, entonces obviamente claro, ya en cuanto a gamas altas, dependiendo de lo que tú persigas en la gama alta, pues hombre, ya tenemos unos costos muy similares, ¿qué es lo que pasa? Que en Android, gracias a la diversidad de fabricantes, la gama media casi que es gama alta en algunos fabricantes. Y en Android, gracias a la diversidad de fabricantes, la gama media casi que es gama alta en algunos fabricantes. Está copiando el modelo, inclusive en las mismas gamas medias, pero si hay que una inversión menor, en Android es un dispositivo muy cercano a la gama alta, sin gastar tanto dinero. David, tú que has tenido un Samsung de gama alta recientemente hasta hace un mes, y ahora estás con otro terminal Apple 16 Pro de gama alta también, ¿qué diferencias has notado en cuanto a lo que es manejo y sensaciones? En cuanto a diseño, prestaciones... Y además son muy parecidos, quitando el lector de pantalla, lo dejo a un lado, tocando el terminal, los dos se sienten muy premium, pero sí te diría que en el caso de Apple y la manzana, un poquito más premium. Esa sensación de esos, no sé cómo decirte, la vibración, aunque tiene sónicos los dos, pero es más pulido dentro de Apple, como que es un dispositivo que lleva en el mercado más tiempo, más rodado, con más experiencia. ... He notado eso en el terminal, he tenido los dos, de hecho los tengo a día de hoy, ¿no? Los dos, sí que he notado eso, esa sensación de ser un poquito superior el de Apple, son los dos muy buenos dispositivos en cuanto a pantalla, te diría que son prácticamente iguales, en cuanto a fotos, según me han comentado, también son muy muy parecidas, aunque ganan en este caso también Apple, pero ese toque de premium, un pelín más, sí que he notado el iPhone. Luego ya con lectores de pantalla ya es otro cantar, así que ya es lo que hemos comentado antes. En cuanto a carga y autonomía energética y eso, también similares, ¿no? No, en cuanto a carga, sí que para mí gana Samsung, sobre todo en la rápida. De lejos. De lejos, sí. Y luego otras cosas como la transferencia de archivos, hay muchas más cosas en Samsung, sí que notas. Al final, yo creo que es lo que comentamos, ¿no? Que el dispositivo de Apple es un dispositivo muy bueno para funcionar con el sistema con el que funciona. Entonces ellos no necesitan más, ¿para qué te van a poner 32 GB de RAM? Si con 16 o con 8 van sobrados. En este caso, creo que el de Samsung son, si no recuerdo mal, son 12 GB. Pero claro, a lo mejor Android sí que lo necesitas más pesado. Todo es más pesado dentro del dispositivo de Samsung. Yo se lo veo más por el, perdóname, por el tono del fabricante que pone, porque Android como tal no es tan pesado. Yo, por ejemplo, tengo un Motorola que es un gama media y es un Android casi puro y el teléfono funciona como la seda con 8 en RAM, por ejemplo. Entonces creo que es más un poco la personalización que el sistema operativo. Eso es, es la capa de personalización que pone cada fabricante. No te ponen, a lo mejor, tantas aplicaciones. Un dispositivo de OnePlus que uno de Xiaomi. Samsung. Entonces, en cuanto a Samsung, sí que notas como cada año te van a poner algo nuevo. Vas a mejorar en RAM, vas a mejorar en pantalla, los nits, vas a mejorar el sistema de vibración, lo que sea. Como que tienen que ir mejorando poquito a poco. No? Y en este caso en Apple, pues hacen pequeños detalles, pequeños cambios que supone a lo mejor el año que viene comprarte el nuevo terminal. Pues es que mucha gente a día de hoy te recomienda seguir comprando del año pasado. No? Y es que no han evolucionado tanto como pueden evolucionar otros terminales. Llega un momento también que estamos un poco tocando techo en los terminales móviles. Yo hace unos ocho meses aproximadamente tuve que comprar un Android y era un poco, con 8 GB de RAM, 256 GB de memoria interna y costó 120 euros. Es que la diferencia, lógicamente la pantalla no es tan buena, la cámara foto no es tan buena, el procesador no es tan bueno. Lógicamente como un modelo de 400 o como un iPhone, pero es que es un teléfono muy, muy bajo por 120 euros. En una pelea, en un ring, si ponemos en un lado el S24 Plus que yo tengo contra el Apple que tengo ahora, gana Samsung. Porque tiene mejor RAM, tiene mejor transferencia de ficheros, la pantalla también se supone que es mejor con Magnets. Va ganando en todo. Lo que pasa es que luego el sistema operativo es el que... Va ganando en todo. Lo que pasa es que luego el sistema operativo es el que... Pega el último puñetazo, ¿no? Claro, objetivamente, técnicamente, pues quizás es mejor Samsung u otras marcas. Pero desde un punto de vista subjetivo, como experiencia de usuario y como está todo integrado y como va todo de fino, pues ahí Apple ha sabido hacer muy bien. Tengo un amigo que dice que pagamos a precio de oro tecnología obsoleta cuando compramos un terminal nuevo Apple y no va desencaminado. ¿Y de esto qué es positivo? Es decir, porque tú, dicho así, suena muy negativo, ¿no? Me han engañado, estoy comprando algo caro. Pero lo positivo es que sí que está contrastada y muy probada, con lo cual ellos están ofreciéndote esa estabilidad y esa garantía que antes hablaba David. Pero realmente es una tecnología antigua, no es una tecnología puntera. Y bueno, siempre han funcionado así, ¿eh? No han sido... En cambio, en Android sí que ves que esa diferencia la marca, pues... Pues nuevas tecnologías. Incorporadas en cada nuevo modelo, ¿no? Claro, con todo el riesgo que eso lleva. Y la gente que empezó a probar los teléfonos plegables, pues lo experimentó en sus propias carnes, ¿no? Pero yo creo que tampoco te están engañando. Es decir, esto ofrece lo que hay, esto es lo que hay. Si lo quieres lo compras y si no, no. Hace poco voy a hablar precisamente de un Apple genius, de una tienda de Apple, que un directivo que se había comprado un... Bueno, creo que tenía un Samsung o algo así, se había pasado a iPhone. Y fue a la tienda a los 15 días a quejarse, porque con mi anterior Samsung puede hacer esto, puede hacer esto otro, y con este no puedo hacerlo. Con este no puedo hacer esto, este otro tampoco, no sé qué. Y el hombre le dijo, es que usted a lo mejor no es un cliente de iPhone. Ahora mismo, si quiere, le devuelvo el dinero. Porque esto no es para todo el mundo. Hay que saber qué pretende uno cuando compra un teléfono o un dispositivo. Es que hay que tener muy clarito para dónde apunta. Si no, obviamente puede equivocarte en la compra. Conozco usuarios ciegos y videntes de los con los que yo he trabajado, que me dicen, no, a mi iPhone no me gusta por esto, por esto. Y el otro iPhone me dice, no, es que a Android me parece difícil por esto, por esto, por esto, por esto. Y no estamos hablando, como bien lo decía David al principio, de temas de accesibilidad. Estamos hablando evidentemente de experiencia de usuario ciego o no ciego. Entonces, uno también tiene que mirar qué es lo que pretende, para dónde va, qué quiere, qué busca, qué satisface o qué necesidad busca satisfacer. De manera que se pueda sacar una experiencia de usuario limpia y completa. Y no es porque uno sale hablando, no, es que Apple es muy malo, no, es que Android es muy malo. Y resulta que de pronto el del malo está entre la pantalla y el dispositivo, ¿ya? Efectivamente. Claro, así es. En este caso, hombre, Arturo y yo tenemos los Android como bancos de prueba. Es decir, no podemos hablar con propiedad de la experiencia de usuario porque somos, bueno, hablo por mí, unos zotes. Pero en cambio vosotros dos sí. Y lógicamente es muy enriquecedor lo que estáis comentando acerca de lo que son ambos sistemas. Sí, perdonad, os quería comentar antes que hay también un punto que ahora mismo, yo creo que no es relevante como era antiguamente, que era el tema de la exclusividad. Yo recuerdo hace tiempo que quien llevaba un iPhone era un poder también como de estatus, ¿no? A mí me pasaba en la empresa. Yo podía llevar el iPhone y me miraban como diciendo, este tiene pasta, este maneja, ¿no? O sea, ha podido comprar un terminal. A día de hoy no, porque se ha igualado un poco, ¿no? Y el poder adquisitivo se ha ido enriqueciendo un poco más. Pero antiguamente yo recuerdo esto, que los directivos llevaban Apple. Y los demás, pues bueno, a lo mejor llevaban un gama alta de Android, alguno llevaba un iPhone si era un directivo mediano, manager o demás. Pero si no, era como el jefe de la compañía, si iPhone, iPad y el resto, pues bueno, no podían llevar esto. El propio diseño marcaba una distinción. Eran más tipo joya, ¿no? El acabado de los terminales. Ahora ya no, ahora hay móviles Android preciosos, ¿no? Que también están muy bien rematados. Y con menores costes. En principio. No, seguro, seguro. Sí, Apple también ha tenido muy claro siempre saber aunar la tecnología y la moda. Tanto en el Apple Watch como en el iPhone, siempre han sido muy importantes los colores. Por ejemplo, de los teléfonos, de los iconos, el hacer las tipografías, una curva, una esquina un poco redondeadita, todas esas cosas. Que Apple siempre ha sabido cuidarlo extremadamente bien. Y otros, pues, han sido más ingenieros, más técnicos. Y no les ha importado tanto esa apariencia, esa parte de moda. Que mucha gente sí que le da importancia, ¿no? Que cuando sale un nuevo modelo de iPhone, mucha gente lo primero que pregunta es en qué color está. Sí, sí. Bueno, pero ya sin ver también es lo mismo. Porque yo con mi 4S, creo que ya lo conté también en otro episodio. Pero es que me gusta insistir en esto. Yo no le puse funda por tocarlo, porque la sensación táctil que me daba era muy agradable. Entonces me parecía un sacrificio el ponerle una funda y perder esa experiencia hasta que raye la pantalla. Entonces ya me lo pensé, pero bueno. Apple siempre ha cuidado todo eso. Ha cuidado hasta la caja, el boxing, cuando abres la caja el olor que desprende de un dispositivo nuevo. Sí. Es que todos esos detalles también se pagan. Es una experiencia completa. Completa, sí. Pero sin embargo, por ejemplo, hay otros aspectos en cuanto a seguridad que opináis. A ver, el tema de la seguridad, sin duda alguna, hoy día es una situación a analizar en todo sentido. Estamos hablando de que la seguridad de los datos está comprometida porque nuestros teléfonos se han convertido en billeteras digitales. Tenemos todo allí. El DNI para ustedes. Para nosotros la cédula de ciudadanía. Las tarjetas. Bueno, en fin. Pero también en esto de la seguridad hay que tener en cuenta un factor y es el usuario dónde o qué está haciendo y cómo lo está haciendo con su dispositivo. Es verdad que en eso IOS sí ofrece una garantía. IOS es un sistema extremadamente seguro por el cierre. No invulnerable. Cuidado porque una cosa es que sea seguro y otra invulnerable. Ningún sistema informático a hoy es invulnerable. IOS ha tenido sus filtraciones, ha tenido sus cositas, pero no hay duda que el manejo férreo que tiene Apple sobre IOS hace que sea un sistema que nos dé la sensación de seguridad. En Android, ¿qué pasa? Android ha mejorado mucho el proceso, pero Android también al tener tantas posibilidades de personalización, de que el usuario haga determinadas cosas, pues también se puede volver un sistema que podríamos catalogar de inseguro, pero no por el sistema en sí, sino por el uso que le estemos dando a nuestro dispositivo. Por ejemplo, en esto no hay ningún tipo de secreto. La gente, por ejemplo, busca instalar aplicaciones de otras fuentes y eso genera inseguridad. Entonces, en cierta forma, yo como usuario, ¿qué pasos estoy dando para sostener la seguridad de mi dispositivo, para sostener la seguridad de mis datos? Instalando aplicaciones de fuentes desconocidas como lo permite Android, por lo menos hasta Android 15 con alguna manía, realmente estoy dando un paso por un terreno fangoso, un terreno de arenas movedizas. Si yo conservo mi dispositivo, descargo aplicaciones de la tienda correcta, si no me pongo a generar... Por ejemplo, a tener Bluetooth abierto, a conectarme a cualquier red Wi-Fi, que eso le puede pasar a un iOS o a un Android, donde me puedan interceptar los datos, etc. Yo creo que como usuario también estoy aportando. Yo creo que los sistemas no son los inseguros. Yo creo que los sistemas han trabajado mucho en ese tema. Yo considero que es un poco también como yo, usuario, ¿qué hago? ¿Cómo manipulo mi teléfono? Porque también hay formas de manipular iOS, como el G-BREAD, por ejemplo, que generan vulnerabilidades y abren puertas desconocidas. Entonces, en ese orden de día, me parece que la seguridad planteada como tal en los sistemas está robusta. Hasta donde yo como usuario puedo manipular esa seguridad y cometer una inseguridad. Mi casa tiene las llaves, pero las dejo pegadas a la puerta, ¿qué pasa? Entonces, es un tema que va más allá de los sistemas. Para mí los dos sistemas hoy día, un poco más por supuesto iOS, son seguros de utilizar, pero soy yo quien decide qué tan seguro es mi sistema. David, ¿tú también lo ves igual? Totalmente de acuerdo con Orbello. Fíjate que yo siempre he pensado que el mayor virus que existe es el propio usuario. En el momento en el que le das a un dispositivo y empieza a hacer cosas como descargarse aplicaciones desde fuentes no confiables, ya no del Apple Store, poder instalar APKs, eso es impensable en el mundo de Apple. Existen, yo me acuerdo que cuando yo empecé con el lector de pantalla de Yesu en Android, existían Yesus craqueados. En el momento en el que el usuario tiene la capacidad de poder... dar unos permisos especiales, poder entrar y descargarse aplicaciones, lo que decía, de fuentes no confiables, instalarlas, estás abriendo tu dispositivo a un mundo muy desconocido. Pero siempre y cuando hagas un uso responsable, hagas un uso serio de lo que estás haciendo, de ese terminal, no tiene por qué haber mayor problema. Recuerdo que en el episodio que hablábamos de los lectores, tú comentabas, David, y lo traigo aquí también a nuestra tertulia para que... lo hablemos, que una forma de protegerse es utilizar lo que son entradas biométricas en lugar de contraseñas escritas y demás. ¿Pensáis que es así? ¿Cómo hay que hacerlo? Sí, definitivamente es una muy buena manera. Y hay otra cosa que yo iba a comentar sobre ese tema de la seguridad, radicando en que hay aplicaciones ahora en Android, sobre todo de tipo bancario, de tipo financiero, de tipo personal, que si detectan que tu teléfono tiene alguna modificación, dígase root, dígase bootloader, etc. Si el teléfono está abierto, que ese es un tema un poquito más técnico, no permiten su ejecución. Entonces creo que la seguridad en los Android también ya, que es como el tema polémico, obviamente sí está muy, muy garantizada ya. El tema está claro que depende mucho del usuario, pero finalmente los datos biométricos sí que garantizan seguridad, sobre todo en la huella. Yo creo que es un poco más fiable la huella que el rostro, porque el rostro en algunos teléfonos con la foto lo pueden emular y el desbloqueo facial podría eventualmente, a pesar de que ha mejorado, podría ser una puerta de seguridad complicada para un usuario, de pronto, no tan experto. Entonces el tema biométrico sí me parece que contribuye a la seguridad desde mi punto de vista. Es un punto que a mí no me gusta en Apple, que ahora han quitado el tema de la huella, ahora es con el Face ID. No me gusta. Yo también coincido con Orbello que prefirieron la huella. Y luego hay otra cosa que los usuarios deberían de poner, la doble autenticación, doble factor, ¿no? Que puedas poner tu huella y que te llegue un mensaje al número de teléfono que tengas asignado y confirmes, ¿no? Con un pequeño código. Ciertas cosas que te van a dar seguridad extra a tu dispositivo. Tenemos autenticadores también, tanto de Google como de Microsoft para diferentes aplicaciones. Y que puedes poner hasta triple factor de autenticación, es decir, la huella, luego puedes poner que te llegue un mensaje y luego entrar en la autenticación de uno de estos programas y poner un código que te generan para... Unas cuantas horas o demás, ¿no? Es como todo, depende de donde te metas, depende de lo que hagas, necesitas unos niveles u otros. Pero yo creo que un mínimo deberíamos de tener todos y lo que comentamos, ¿no? Dejar los perfiles abiertos y poner huella o sistemas como el Face ID, ¿no? O detector de cara. Sí, es que esto es muy curioso porque te puedes comprar un iPhone, como habéis dicho, ¿no? Mínimo 700 euros de ahí para arriba. Puedes tener un iPhone de 1.000, 1.600 euros. Y luego muchas veces a la gente el comprar una aplicación de un pago único de por vida de 5 euros le duele como si no hubiera mañana. Y quieren que las aplicaciones sean todas gratis y en Android, pues, craqueadas, ¿no? Las APKs famosas gratis. Y luego, pues, tenemos problemas de seguridad y no sabemos por qué. Así es. Antes comentaba Norbey que en Android una de las garantías es descargarte las aplicaciones de la Play Store. Yo no sé cómo estará ahora la Play Store, pero yo recuerdo que no hace mucho algunas de las aplicaciones que te descargabas te abrían una puerta de troyano magnífica y te entraban hasta la cocina. ¿Esto sigue siendo así o no? No, ya ha mejorado, pero, sin embargo, no se puede desconocer, Ricardo, compañeros, que aún pasa. De hecho, esta semana Google Play Store eliminó un sinfín de aplicaciones que estaban permitiendo. Ahora el problema realmente no está. No es tanto los virus. El problema ahora consiste en el adware o la publicidad esta que te meten a las malas. Que a veces tú eres una aplicación en Android y te da más publicidad de la debida. Te invaden toda la pantalla. Entonces, obviamente, ahora el negocio de pronto no es tanto infiltrar un troyano, un gusano en la aplicación, sino meterte el adware, la publicidad. Allí Google Play Store está trabajando. Todavía sí creemos que en eso estamos vulnerables. En eso todavía sí creemos que Android tiene que mejorar. Está mejorando, sí. Está trabajando, sí. Y hay unos protocolos ya de seguridad en Android 15 y 16, que ya ha salido también la beta de Android 16, que Google está implementando. Por ejemplo, ese tema de la instalación de fuentes desconocidas. O por lo menos restringir el permiso de accesibilidad en bastantes aplicaciones. Sobre todo en aquellas instaladas de fuentes desconocidas. Entonces, en ese particular sí creemos que allí todavía hay una puerta medio abierta. Han ido cerrando la puerta, sí. Pero sí todavía hay un agujerito que se está metiendo. No se puede tampoco negar eso. Yo te haría un símil muy rápido. Imagínate en un escritorio que tiras un montón de lápices de colores, bolígrafos, rotuladores y gomas de borrar. Ha habido un momento en el que en la Play Store pasó eso. Todo entraba. Y ahora lo que están intentando es sacar poquito a poco los rotuladores que están en ese escritorio porque no son confiables. Entonces, tienes que ir identificando dónde está ese rotulador, quitando uno, buscando otro y quitándolo. Entonces, ha habido un momento en el que había muchas aplicaciones y ahora, como dice Norway, están sacando, están quitando, están moviendo, porque se están dando cuenta de que no tienen la seguridad que ellos estiman. Han puesto el nivel ahora, imagínate, en un punto tres y todas las que no llegan al punto tres, pues las están quitando. Pero poquito a poco. Tienen que ir quitando poco a poco porque han dejado entrar mucho. Entonces, están como reordenando un poco la Play Store. Esa es la sensación que a mí me da. En cuanto a apps, ¿qué os parece dónde hay, no tanto más, sino mejores, mejor calidad? ¿Cuáles notáis que están mejores, más cuidadas, que tienen más diversidad, que puedes hacer más cosas? ¿Dónde hay mejores apps? Aquí yo me mojo y digo que Apple. He notado una mejor, a igualdad de aplicación. Bancarias, ING, yo utilizo ING y Open Bank. En las dos he notado mejor depuración, mayor etiquetado. Una aplicación como mejor diseñada, como más pensada. Ahí sí que creo que Apple lo ha hecho mejor que en el tema de aplicaciones. En mi caso, por ejemplo, yo tengo una observación sobre lo que comenta David. Lo primero que hay que decir es que estoy de acuerdo, pero porque Apple tiene unos protocolos ya de accesibilidad muy estructurados. Es decir, tiene toda una documentación cierta. Tiene una documentación muy estable, muy establecida. Y eso hay que también tenerlo en cuenta. Y me parece que es extremadamente importante que la estén aplicando los desarrolladores a rajatabla. Sí, tengo yo mi observación. No es tan así. Porque, por ejemplo, David habla de unas aplicaciones evidentemente españoles. Pero miremos, por ejemplo, vamos a ver una aplicación más usada por todo el mundo como Telegram. Telegram en iPhone es casi que imposible de usar. Al menos yo no lo he conseguido. Botones no etiquetados que no hacen su función. En Android es casi que imposible de usar. O sea, completamente accesible o con clientes adicionales totalmente oficiales. Y si, por ejemplo, hablamos del diseño de aplicaciones. Sí creo que Apple, cuando el desarrollador de Apple sí me parece que se preocupa un poco más por el diseño. Sí me parece un poco en eso. Pero no quiere decir que sea perfecto. Miren, por ejemplo, vamos a hablar de una aplicación acá en Bogotá, Colombia. Se llama TransmiApp, que es la aplicación que gestiona el sistema de transporte que se llama Transmilenio acá en Colombia, en Bogotá. Y resulta que TransmiApp en iPhone no es posible utilizarla. Yo en Android puedo ver dónde viene mi bus. O a cuánto viene para salir al paradero a coger el bus. En iPhone es imposible eso. Entonces considero que no tanto depende de Apple o de Android, sino depende del desarrollador. A dónde quiere apuntar, cómo lo quiere hacer o cómo logró el objetivo de que su aplicación sea mejor visible en un sistema o en otro. Porque uno presume que el desarrollador lo que pretende es que su aplicación sea utilizada sin importar el sistema. Sino que la aplicación cumpla su función y que visualmente se vea atractiva. Pero realmente aquí no es de fabricante Apple, Android, Samsung. O lo que sea del sistema. Sino de cómo el desarrollador implementa la tecnología de la que dispone. En este caso, por ejemplo, Apple, la tecnología de accesibilidad que es tan buena. Norbey, ahí tienes razón. Podemos hablar de la manzana pinchada. Porque con telegramas es un touché a tope que realmente no ha conseguido sacar ninguna aplicación. Ni de terceros ni nada. Apple que permita acceder con cierta usabilidad o accesibilidad. A los contenidos de telegram. Y es una lástima. Pero hablando de aplicaciones que sí que funcionan en ambos sistemas. Por ejemplo, WhatsApp, que es muy popular y muy conocida. Y los dos tenéis experiencia con uno y otro sistema. ¿Cómo lo veis? WhatsApp hasta hace poquito tuvo un bug, un problema en Android. Donde cuando escribías un mensaje, al final del todo te ponía escribir mensaje. Era un problema de accesibilidad. Y tardaron en resolverlo. Tardaron un tiempo. Hablo de dos o tres meses. Pero WhatsApp es cierto que se está actualizando cada dos por tres. Yo comparándolas las dos, sí que me parece más accesible. Sigo diciendo el tema de Apple. Como que la aplicación está más depurada, más pensada. Y con los protocolos que decía Norbey. De que han seguido unos programadores y una serie de guías. Donde han dicho, hay un puntito ahí que pone. Oye, tener en cuenta un poquito la accesibilidad. Y la han seguido. En ese caso yo sí que lo noto un poco mejor en Apple. Pero yo reitero que en Apple hay una documentación un poco más precisa. En el tema de accesibilidad. Pero también había una cosa que tenía Apple. Y yo digo tenía porque en Android se ha logrado. Y yo particularmente, la verdad, no creí que se fuera por lo menos a acercar tanto como lo ha hecho. Y es el tema, por ejemplo, de aprovechar ese menú de acciones. Que puede equivaler un poco al rotor de Apple. El rotor en WhatsApp, por ejemplo, como lo planteaba David, es bastante bueno. Tiene muy buenas posibilidades. Pero ahora en Android. El menú de acciones de TalkBack. O del mismo sistema. Porque en Gizmo también se puede utilizar. Ya se acerca muchísimo a lo que se pretende con el rotor de Apple. No es igual. Porque para mí el rotor es una fortaleza. Que para mí es imposible igualar. Pero el menú de acciones de Android ahorita se acerca mucho a ello. Y nos facilita muchas cosas. ¿Qué está pasando? Que como ese menú de acciones es tan reciente. Apenas los desarrolladores están empezando a sacarle partido. No más, por ejemplo, la aplicación de mensajes de Apple. Tiene las acciones muy desarrolladas en el rotor. Para eliminar. Para copiar. Que se yo. En Android todavía Google no lo ha implementado. Pero está allí. Y eso creo que facilita un poco también. Que el diseño. Que el desarrollo. Aproveche esas tecnologías disponibles. Y que finalmente tengamos unas aplicaciones muy pulidas en ambos sistemas. Pero lo que me gustaría que comentáramos en este caso. Porque lo que comentas tú es cierto. Pero es muy genérico. Experiencia de usuario. En lo que hace. Hace la aplicación en sí. Por ejemplo, una aplicación de WhatsApp. Recibes mensajes. Recorres el listado de mensajes. Contestas los mensajes. Escribes nuevos mensajes. El mensaje puede ser de texto. El mensaje puede ser de audio. Puedes reenviarlos. Bueno, puedes hacer una serie de historias. Eso es WhatsApp. Es decir, en esa experiencia de usuario. Los dos que manejáis WhatsApp. Supongo que en ambos terminales. Entre un terminal Android y otro de iOS. David, ya quedó claro que parece ser que su experiencia con WhatsApp es mejor. ¿Tú no crees que es mejor en WhatsApp que en Android? No. No, Ricardo. Yo no. Y lo voy a decir. Debo hacer la observación y la salvedad de que tengo un iPhone XS. Y eso obviamente influye. O sea, en eso también soy consciente. Pero, por ejemplo, en WhatsApp. En las últimas versiones para iPhone. La pérdida del foco, para mi juicio, es insufrible. Es tremendo. Por ejemplo, uno va a meterse a un chat. Y resulta que se metió a otro chat. Porque el foco empezó a bailar como loco. Y eso me ha sucedido. Y no estoy utilizando ni la beta, ni nada de eso. Sino una aplicación oficial de WhatsApp. Y se me va el foco mucho. Segunda manzana pinchada. Tu share de nuevo. El foco es un desastre. Es que está ahí. Es una realidad que está sucediendo. Con WhatsApp, que es una de las aplicaciones más utilizadas. Si no la más utilizada. Pero realmente es un tema de experiencia de usuario muy frustrante. Para este servidor, por lo menos. Yo creo que depende mucho del lector. Yo con el lector que utilizaba Yesua. Es verdad que lo homenajeaba mejor. La experiencia de usuario era mucho más satisfactoria. Con Yesua que con Apple. Pero en cuanto a la pregunta de... A ver, son muy parecidos. La pregunta que hacía Ricardo de esa experiencia de usuario. En cuanto a TalkBack o Apple. Bueno, ahí difiero. Y creo que a lo mejor sí que gana Apple. Yo me refería más a cómo veo la aplicación de depurada. O de etiquetada. O los problemas que haya tenido. Y que se hayan podido resolver antes en Apple. Que en Android. Y luego una sensación esa que lo comentabas tú. De estabilidad. De que es más rocosa. Más firme. Como que el lector de pantalla está más... No sé. Más vestido. No sabría cómo decirlo. Más cercano. A lo que es cualquier tipo de movimiento y reacción. Yo es que con Android me pasa eso. Es decir. Tengo siempre la sensación de... De inestabilidad. Está más trabajada la aplicación para entornos así. Claro. Pero es que eso tiene también una explicación. VoiceOver está integrado al sistema operativo. Es una gran fortaleza. VoiceOver está concebido desde el mismo núcleo de Apple. TalkBack no. Correcto. Ahí voy. Sí, correcto. A eso voy también. A lo que dice Norway. Que está integrado dentro del sistema. Y han tenido que hacer muchas cosas. De acuerdo a los ajustes que el propio sistema tiene. Entonces por eso la aplicación. Pues se nota un poco más lo que decías tú. Más vestida. Más trabajada. Y en el propio desarrollo. Tanto las aplicaciones de desarrollo. Contemplan las cuestiones de accesibilidad. Y luego. Nosotros tenemos amigos. Que son desarrolladores de aplicaciones. Para Apple. Y realmente se quejan amargamente. De las exigencias que tienen. Incluyendo también. Lo que es la accesibilidad. En cuando quieren publicar alguna aplicación. En el App Store. Eso que ellos se quejan tan amargamente. Es un beneficio para el usuario. Porque. Lo que están haciendo es que el procedimiento. Y esos protocolos se cumplan. A rajatabla. Que eso no quiere decir que hayan cosas sin etiquetar. O que el campo AL. No esté bien puesto. O que hayan exportado. O hayan embebido una aplicación. Html dentro de una aplicación. Para IOS. Hoy por hoy en casuística. Encontramos de todo. Pero por ejemplo. En lo que son las aplicaciones más populares. Pues sí que es cierto. Que notamos esa diferencia. Es curioso lo que comentabais antes. Que Apple tiene un libro de estilo. Muy definido. Muy marcado. Por eso la mayoría de las aplicaciones. Todas se dan el mismo aire. A la hora de situar los botones. Los colores, las formas, los tamaños. Las tipografías. Un detalle por ejemplo. Hasta hace 4 días. Bueno un poco más. En el Apple Watch. El fondo de las apps tenía que ser negro. Era un poco para disimular. Los márgenes del reloj y tal. Pero te obligaba. A que el fondo de tu aplicación. Fuera negro. Igual que eso. Ahora ya no te obligan. Igual que eso. Hay cientos de pequeños detalles. Que Apple te obliga a que sean así. En Android hay mucha más libertad. Y así va. Que para bien o para mal. En Apple por ejemplo. Cuando haces una aplicación. Aunque no tengas ni la accesibilidad. Si sigues un poco el siguiente. Sigue un poco el estándar. Y para poner un botón. Usas un botón y lo pones bien. Y pones cada cosa en su sitio. Esto en Android es un poco más complicado. Y tienes que proponértelo proactivamente. Para conseguir que sea accesible. Eso que decimos. Ese doble vertiente. De libertad. O dejarlo todo un poco más restringido. Que todo tiene sus ventajas y sus inconvenientes. La gran conclusión de aplicaciones. Es básicamente que no todos usamos lo mismo. Sino que todos usamos lo que necesitamos. Y obviamente la experiencia de usuario afecta. Porque si yo utilizo. Hablamos del tema Facebook. Uno lo utiliza y otros no. Yo no puedo decir cómo funciona. Por ejemplo, lo que hablábamos al principio del podcast. Yo utilizo la aplicación de TransmiApp. Otros ni la conocen. Ustedes hablan de la Kaisa. Yo ni la conozco porque no la puedo utilizar. Pero vamos a algo más cercano. Entonces en ese orden de ideas. También hay que tener en cuenta el usuario. Qué tiene, qué usa. Y ahí es donde se ve la experiencia del usuario. Más allá del diseño general. Pero como nosotros no tenemos el resto. Yo por lo menos nunca he visto una aplicación en pantalla. Como seguramente David sí lo ha visto. Entonces uno no se puede hacer una percepción. Muy objetiva. De cómo sería la aplicación. Desde el punto de vista de diseño y similares. O colocación de botones y similares. Contra una persona que ve y que sencillamente encuentra. Lo que está buscando en determinado lugar. Es una observación que debemos tener en cuenta. Claro, también por ejemplo en Android. Puede existir la opción. De tener launchers específicos. Por ejemplo para personas mayores. Con botones grandes. Verde en la esquina que tú quieras. Otro rojo para llamar a no sé quién. O cosas así. Totalmente personalizadas. Que eso en iPhone no es posible. Eso es imposible. Es muy difícil. Al igual que la ejecución de scripts. Tú puedes ejecutar scripts que hagan algo que tú necesitas. Yo lo he hecho. En el caso de iPhone, imposible. Es un sistema cerrado que no te va a permitir. Cada uno tiene sus ventajas e inconvenientes. Y lo que decía Norbey. Depende de cada usuario. Lo que necesite. Y lo que vaya a utilizar. Si necesitas mucha personalización. Eres de hacer muchos cambios. Quizás Android es lo tuyo. Que no necesitas tanto que buscas un sistema más... No robusto. Pero sí de sacar, empezar y funcionar. Y ya. Pues a lo mejor Apple. Cada uno tiene sus ventajas e inconvenientes. David, pero tú sabes por qué Apple no deja ejecutar scripts. ¿Cuál es el motivo? Porque son mala gente. Realmente no. Son muy malas. Son muy malas personas. Tienes toda la razón. Es por una cuestión de seguridad. No es otra circunstancia. Es así. Lo comparto. Que sea así. En mi caso. Yo recomendaría primero. Que cada uno use lo que le guste. Primero que defina qué necesita. Porque el perfil es de usuario y para todos los colores. Desde lo que usted tiene de usuario. Como dijo David que es correcto. Saque, instale y funcione. iOS definitivamente. Si tú eres un usuario que te gusta experimentar. Que te gusta conocer. Que te gusta toquetear un poquito más por abajo. Definitivamente Android es tu solución. Si tú lo que quieres es accesibilidad garantizada. De momento en que lo puedas sacar de la caja. Más allá de que Android te da todo eso. Pero que tú dices. No, yo no soy freaky. A mí me cuesta. Yo soy mayorcito y yo conozco esto. iPhone definitivamente es lo tuyo. En tu razonamiento de qué es lo que tú pretendes. Es donde está el secreto. De hacia dónde vas a apuntar tu elección. A la hora de adquirir un dispositivo. Que tú tienes un Mac. Tienes por allá. No sé, un reloj Apple. Necesitas que todo se integre. iPhone será siempre tu base. ¿Quieres una tablet? iPad es tu tablet. Pero si tú eres una persona que le gusta conocer determinadas situaciones. Probar diferentes marcas. Diferentes experiencias de usuario. Diferente hardware. Android es tu solución. ¿Qué quieres? Instalar aplicaciones de otras fuentes. Android es tu solución. Nadie dijo craqueado. Dije otras fuentes. Para que quede claro eso. No se pretende. Simplemente de fuentes desconocidas. Pero también después no te quejes. De que tu teléfono o va lento. O tiene mucha publicidad intrusiva. O es que mi banco no me deja iniciar sesión. Entonces en ese orden de ideas. Tienes que tener muy claro. Y delimitar cuál es tu aspiración. A la hora de obtener un dispositivo. O un sistema como tal. O una marca. Porque en esto también es lo mismo. La experiencia del usuario. La experiencia del sistema. Y la personalización que te ofrezca la marca. Con su hardware o con sus beneficios. Para que puedas utilizar y sacar el mejor partido. Así que mi recomendación es por ahí. Yo partiendo del hecho que. Lo que ha dicho Norbert. Y coincido completamente. Y aparte diría también. Que tienes que poner en esa balanza. Las posibilidades que tienes. En cuanto a qué dispositivo puedes comprar. Es decir que te puedes permitir. Ya que los precios que tiene en este caso Apple. Es bastante elevado. Si te vas a una gama alta también de Android. Lo vas a tener igual. Pero no va a llegar a lo mejor a ese nivel. Una gama alta en Samsung. Es lo que comentábamos anteriormente. Que puede ser un precio menor. Que puede ser un equivalente en Apple. Luego también miraría mucho. El tema del ecosistema. Qué ecosistema quieres tener. Si ya tienes algún dispositivo. Como decía Norbert. Tienes unos auriculares de Samsung. Siempre te va a funcionar mejor con esto. Tienes una tableta o tablet de Samsung. También te va a funcionar comprándote un terminal de Samsung. Si eres una persona que. Ya no tanto trastear. Sino que quieres ese tipo de personalización. Valoraría. O ese ecosistema. O lo que decía Norbert. De marcas. Que sin tener un ecosistema. Completo o complejo. Puede ser válido para ti. Me voy a marcas como. Ya no OnePlus. O Xiaomi. Que sí que van metiendo pequeños dispositivos. Y a lo mejor con ese terminal. Es más que suficiente para tu día a día. Y las aplicaciones que vas a utilizar. Que quieres esa personalización extra. Pues yo me iría a Android. Que quieres rapidez. Funcionar. Sacar el terminal de la caja. Y empezar con ello. Pues Apple. Y un punto que me parece muy muy importante. Es tener en cuenta. Ese bagaje anterior que has podido tener. Si has utilizado algún otro dispositivo. Si eres de que toda tu vida has utilizado Android. Tienes que tener en cuenta. Que en el momento en el que abras un iPhone. Y empieces con iPhone. Te van a cambiar cosas. Tanto ir al menú de inicio. Como ir para atrás. Lo de recientes. Todo esto te va a cambiar. Y va a suponer algo en ti. Vas a tener que aprender un nuevo sistema. Y al igual con Apple. Y luego otro punto ya por último. Y os dejo hablar. Tienes que tener en cuenta la integración de los sistemas. En cuanto a copias de seguridad. Que tienes hechas en la nube. Sistemas de almacenamiento en la nube. Si estás utilizando iCloud. Y te pasas a Android. Ahí vas a tener un problema. Vas a tener que transferir ficheros. Todo eso metido en un mix. Y eso te hará que te decantes. Por uno o por otro. Y una vez que estés en ese nuevo ecosistema. Marca. O como queramos llamarlo. Tienes que tener en cuenta que en unos años. Vas a tener que seguir por ahí. A no ser que quieras volver a hacer ese cambio. Y es como desandar lo que has hecho. Para otra vez volver a aprender. Y va a ser cíclico todo. Yo estoy muy de acuerdo con lo que han comentado los dos. Es una decisión que depende de las necesidades de cada uno. De lo cacharrero que no sea. De lo que sea. De lo que uno quiera hacer. Con un sistema o con otro. Es muy curioso. La palabra ecosistema. Que en la naturaleza. Es sinónimo de diversidad. En tecnología es todo lo contrario. Cosas de los humanos. Si uno quiere. Que su entorno. Se lleve mejor entre sus aparatos. Es mejor que sea de la misma marca. O uno que sea más abierto. Si uno quiere descargar torrent. Tiene que usar android. Si uno quiere usar cosas específicas. A lo mejor tiene que elegir. Un determinado sistema. Es una decisión importante. Por lo que ha dicho David. Que luego esto te limita. Probablemente. En las decisiones futuras. De comprar otros dispositivos. O una vez que entras en un entorno. Probablemente el resto de dispositivos. Se lleven mejor. Con una determinada marca. Y probablemente. Tienes que permanecer en ese entorno un tiempo. Y también por las apps. Que uno va poco a poco comprando. Te vas acostumbrando a hacer las cosas. De una determinada manera. Y cambiar para volver a hacer lo mismo. Te lleva un tiempo de aprendizaje. A lo mejor está uno cómodo donde está. Y continúa ahí. Yo estoy de acuerdo totalmente. Con lo que decís. Y con las preguntas. Que las lanzo al aire. Y las vais respondiendo como queráis. Una de ellas es. Que habléis. Creo que la gente debe tener conocimiento. De lo que son las capas de personalización. Y la dificultad que puede suponer esto. Y qué tipo de modelos y móviles. Son los más asequibles. Y que menos capas tiene. Es decir. Están más cerca del sistema puro. Android. En este caso. De IOS no procede. Porque todos los IOS tienen el mismo sistema operativo. Y no hay capas. Y luego. Cuando el poder adquisitivo que uno tiene no es mucho. Y quiere entrar a disfrutar de la tecnología. Ya veis que son dos temas distintos. Pero los comento ahora. Y luego los vamos diseccionando. Cómo veis la cuestión de adquirir. Dispositivos de segunda mano. Y qué recomendaciones tendréis para esto también. Así que vamos con el primer tema. El de las capas. Bueno. En mi caso por ejemplo. Que utilizo Motorola. Que Motorola es una de las marcas que menos personalizaciones tiene. Es una marca que yo puedo recomendar. Después por supuesto de Pixel. Que es lo que sucede con Google Pixel. Que es un teléfono que ya tiene unos costos. Un poco altos. Entonces digamos que ahí se fusionarían tus dos preguntas Ricardo. Primero si ustedes recuerdan. Estos días hace un tiempecito. Ya pero relativamente corto. Google sacó ya el nuevo Google Pixel. 9A. Que es el presunto modelo económico de la marca. Llega en un precio de 549 euros. No sé eso qué tan económico sea en España. ¿Verdad? Pero yo creo, por lo menos acá en Colombia. No es fácil ese tipo de economía. En este país. Porque aquí se gana en peso colombiano. Y eso equivale más o menos a unos tres millones y medio de pesos de nosotros. Mal contado. Con todos los impuestos. Entonces. Si hablamos de no personalizaciones. Lo más sencillo posible. Los Pixel son los teléfonos de la marca de Google. Con todo y que ahora Google. Se está subiendo un poco al bus del Blackware. Como se conoce técnicamente. A los añadidos que traen estos teléfonos. Que una aplicación de X. Yo sé cosa del fabricante o del operador. Y en segundo lugar. Que es aquí donde sí me parece que tenemos una diversificación interesante. Motorola. Motorola es un teléfono que viene con 95-97% de Android puro. Con dos o tres cosillas. Que no generan mucho impacto. De manera que Motorola es una marca. Que para mi juicio. Cumple Ricardo la pregunta en sus dos facetas. Uno. No tanto Blackware. No tanta personalización. Y dos. Tiene teléfonos y tiene digamos así. Posibilidades para todos los presupuestos. Motorola tiene teléfonos de 120-130 euros. Al cambio de ustedes. Lo que implica que un usuario. Que de pronto no tenga tanta posibilidad económica. Va a contar con un teléfono muy bueno. Y sobre todo como no tiene personalización. Con características de entrada. Con 2 o 4 gigas en RAM. Aunque hoy día el estándar es 4 o 8 más o menos. Va a tener una experiencia de usuario bastante interesante. Y en especial también. En esto también hay que tomar en cuenta. La expectativa del usuario. Yo no puedo comprar un teléfono de gama baja. Para ejecutar un Adobe Premiere en edición de video. Cierto. No puedo comprar un teléfono de gama baja. Para jugar lo último de Fortnite. O de Pokémon. Estamos hablando en general. De manera que eso también aplica un poco. Para las personas ciegas. Si nosotros queremos usar un lector de pantalla. Como TalkBack. Un teléfono de gama media de resolución. Pero en la media de las posibilidades. Sin personalizaciones. Porque la personalización. Hace que el teléfono tenga que mover más recursos. Mover la personalización. Y mover el lector de pantalla. De manera que Motorola es una opción muy recomendada. Respondiendo a tus dos preguntas. Y el mercado de segunda mano. Como lo ves. Porque ese es un tema delicado. Si que te permite acceder a dispositivos. Probablemente más potentes. Aunque sean de la temporada pasada. Pero se corren riesgos. Claro. Hoy día en la segunda mano. Aquí en Colombia se mueve mucho. Sobre todo en plataformas como Mercado Libre. Puedes conseguir muy buenas posibilidades. Pero en esto de la segunda mano. Hay que tener en cuenta factores. Que ya hoy cuentan en nuestros teléfonos. Por ejemplo el estado de las baterías. Ya Android también tiene la posibilidad. De medir el estado de la batería. Pero sin duda yo creo que un mercado de segunda mano. Más fiable si se puede llamar de alguna manera. Es el mercado de los iPhone. Porque los iPhone pierden poco valor. Pero como las piezas son controladas por Apple. Son piezas que se garantizan originalidad. Y hoy día Apple tiene muy cuidado. Ese tema de las piezas. Las baterías originales con sus ciclos y todo. Pues si consideramos que en Android. Hay que tener un poquito de cuidado. Yo por lo menos. No recomendaría tanto. Meterle al mercado de segunda mano en Android. En especial en teléfonos de gama de entrada. Porque los precios que hoy día. Te dan los mercados de entrada. Te permiten comprarte un teléfono. Que quizás de segunda mano te puedas comprar. Un Moto E84 por ejemplo. Pero con ese mismo precio puedes comprarte un Moto E15. Que es un teléfono de entrada. Que casi viene al igual que el Moto E84. Es mejor que compres el Moto E15. Porque tienes teléfono garantizado. Sabes que viene de fábrica. Piezas originales y similares. En iPhone. Lo que toca mirar es el tema iCloud. Ustedes saben como funciona. Por lo cual hay que comprarle a vendedores confiables. Y siempre tener en cuenta la eliminación. De las cuentas y similares. Que te entreguen cincuentas ese tipo de cosas. Que es que no todos los usuarios. Están en la capacidad de analizar y ver Ricardo. Porque un usuario por ejemplo. Tendrá el teléfono funcionando. Pero no sabe detrás cómo está funcionando. Y con qué tipo de modificación. Y yo tuve una experiencia sobre eso. Cuando compré mi primer teléfono 3S. Yo lo compré de segunda mano. Y tengo que contar ese caso. Yo no sabía nada de teléfonos. Y mi teléfono estaba funcionando. Abierto para todos los operadores. Pero de forma ilegal. Entonces en ese orden de ideas. Todo ese tipo de situaciones. Hay que tenerlas muy en cuenta. Y asesorarse uno muy bien. Yo por lo menos no satanizo. El mercado de segunda mano. Lo que yo digo es que. Si te vas a meter en ese mundillo. Métete preferiblemente asesorado. De alguien que tenga conocimientos. Si tú de pronto no los tienes. Porque no todos los usuarios. Tienen por qué saber de todo. En ese orden de ideas. No lo satanizo. Pero en Android sí preferiblemente. Yo haría el esfuerzo. De poner 30 euros más. Y comprarme un teléfono nuevo. Con todas las garantías y prestaciones. Bueno yo en cuanto a Android. Sí que veo que las capas de personalización. Tienen mucho que ver. Hay ciertas marcas. Que te pueden meter más o menos. Como dicen Orbea y Motorola. Creo que las cosas las están haciendo muy bien últimamente. Añadiría una más también. Que es OnePlus. OnePlus tiene una capa con color OS. Que va muy bien, va muy fluida. Y tiene poquito de personalización. Con aplicaciones suyas propias. Los Pixel por supuesto. Ya que son de Google. Estas tres son las que yo recomendaría. Para la gente que quiere optar por un terminal de estos. Con diferentes precios. Como decía Orbea. Desde la gama baja. Entre comillas. De los Google Pixel. Hasta tienes el Google Pixel 9a. Que comentaba. En cuanto al tema de segunda mano. Yo solo recomendaría. Parte de reacondicionados. Quizás en tiendas como Amazon. Donde te dan una garantía de cierto tiempo. O páginas web. O algún tipo de garantía. El tema de Apple. Hay un sistema de reacondicionados. Donde tienen varias piezas. Que son propias de Apple. Pero en Android. Es un poco más jungla. No creo que merezca tanto la pena. Ir a un reacondicionado. O segunda mano en Android. Cuando puedes coger. Uno de otra marca. Como hay más variedad. Puedes coger por el mismo precio que te vas a gastar. Por uno de segunda mano. En Android te coges otro modelo. Puede ser en otra marca. Yo recomendaría eso. Estirar a lo mejor 20 o 30 euros. Irte a uno de primera mano en Android. O tener muy claro. Donde lo compras. Opciones como Amazon. Black Market. Cosas así que te pueden dar una cierta garantía. En caso de tener problemas. Poder hacer una devolución o reclamación. Pues muy bien. Que interesante. La verdad que habéis dado consejos. Que hay que tener en cuenta. Y sobre todo que no son muy conocidos. Y creo que no se encuentran fácilmente. Cuando alguien está. Decidido a. Comprar un dispositivo. Con lo cual van a ser de mucha utilidad. Como último punto. Siempre encuentras vídeos en YouTube. Audios por ahí en podcast. Donde hacen batalla. Entre Samsung S25. Y iPhone 16 Pro Max. Bueno. Hay batallas. Pero batallas de qué. Batalla de hardware. De software. De experiencia de usuario. No lo creo. Ahí es donde está la clave. Qué es lo que necesitas. Qué vas a utilizar. Cuál es tu mejor ecosistema. Sistema. Qué tienes ya. Qué vas a integrar. Qué vas a utilizar. Ahí es donde tienes que poner una balanza a todo. Y ahí sí que puedes hacer el combate. Este combate me vale. Para ver qué es lo que quiero yo. Pero comparar dispositivos. No se pueden comparar. El hardware es diferente. El software es diferente. Todo es diferente. Y sobre todo que el marketing ayuda poco. Porque quieren lanzar. Con palabras grandilocuentes. Lo que es un dispositivo. Para que tenga éxito en el mercado. Y realmente la información que necesitamos como usuario. Es otra. Y sobre todo. Que la generalista nos sirve para todos. Es decir, lo que tú dices. Tienes que hacerte primero bien las preguntas. Qué quiero. Para qué lo quiero. Dónde lo quiero. Cómo lo voy a utilizar. Y a partir de ahí empezar a hacer tu elección. Eso es así. Yo creo que esa es la clave. Que no hay una batalla. Y aquí no hay un ganador y un vencido. Sino que depende de cada caso. De cada necesidad. De cada perfil. Quizá haya uno que sea más conveniente. Para él en esas circunstancias. Una última cosita. Richard y Arturo sobre este tema. Yo creo que ese tema. De pronto nosotros. Siempre ver. Yo digo nosotros por meternos. Pero yo soy de los que trato de no serlo. Pero ver lo bueno en un sistema. Y lo malo en otro. Eso no es correcto. Como usted hablando de un vencedor y un vencido. Eso no es correcto. Y a veces lamentablemente. Hay marcas que tienen fanáticos. Y no hablo de ninguna en especial. Sino marcas tienen fanáticos. Que siempre tratan de... No es que es que Android. Eso es malísimo por esto o por aquello. No es que Apple es muy cerrada. Pero lo dicen con ese tono de decir. No es que usted es tal por cual por usar tal marca. Yo creo que aquí no se trata de eso. Aquí se trata de que nosotros evaluemos. Cual es nuestra necesidad. Nuestra disposición a aprender. Nuestra disposición a mejorar. Si es que lo queremos mejorar. O sencillamente seguir igual. Porque estoy acostumbrado por determinada razón. A usar X o Y o tal cosa. Hay personas por ejemplo que ven. Ni siquiera personas ciegas. Que hacen comparativas entre uno y otro. Que es que en iPhone el botón atrás lo tengo. Por allá lejos en Android tengo el botón. A uno nos puede gustar el botón. A otros no les puede gustar el botón. Entonces en ese orden de ideas. Hay que pensar muy bien. Que espero del teléfono o dispositivo. Y cual es el objetivo. Es que creo que ese es lo más importante. Creo que es la gran conclusión que tenemos acá. Y la otra conclusión final. Para mi gusto de este tema. Es que por lo menos hoy. Hay muchas más posibilidades. Desde el punto de vista presupuestal. Desde el punto de vista hardware. Desde el punto de vista software. Desde el punto de vista experiencia de usuario. Que realmente yo creo que el usuario. Hoy día puede darse por muy insatisfecho. A lo que está buscando. Solo es que sepa elegir bien. O que se asesore correctamente. Y lo que es maravilloso. Y estaréis de acuerdo conmigo. Que es que 18 años después. De que surgieran los teléfonos con pantalla táctil. A fecha de hoy. Tengamos tantas posibilidades accesibles. Tanto en un sistema. Como es IOS. Y otro como es Android. Antes esto impensable. Y hoy es una maravilla. Es decir, nos podemos quejar. Y nos podemos quejar a lo mejor de pequeños detalles. Podemos utilizar los terminales. Sin ver. Y eso es maravilloso. Y de forma accesible efectivamente. Porque los primeros terminales que tienen pantalla táctil. Creo recordar que había algunos de Nokia. Que no se sabía. Que iba a ser de las pantallas táctiles. Y los ciegos. El IOS 3.6. Antes de IOS hubo otros teléfonos. Apple toda la vida. Lo que ha hecho es copiar a otros. De a poco vamos a meternos aquí. Ah bueno. El N58. El N97 que era híbrido. Sí, tienes razón. Había unos Nokia que eran con pantalla táctil. Incluso Talcs. Creo que tenía unas primeras ideas. De cómo hacer eso accesible. La pantalla lo dividía en cuatro zonas. Con un cuadrante así para adelante. Otro para atrás. Para que sin ver. Pudieras utilizar esa pantalla táctil de alguna forma. Pero esos primeros intentos. Fueron muy pobres. Y no eran nada funcionales. Hasta que luego. iPhone lo hizo de forma. Muy fácil, muy accesible. Y muy cómoda. Pero antes había pantallas táctiles. Y no se consiguió dar una buena solución desde un punto de vista de la accesibilidad. Sí, pero Jobs lo hace en 2007. Si pensamos. Eso es antes de ayer. Eso está aquí muy cerca. Realmente en 2007 presenta. El iPhone 3G. Y luego. Es un año después. El primero operativo era. iPhone OS. iPhone OS creo que se llamaba el sistema. Ni IOS se llamaba tan siquiera. Y luego. Al año siguiente es cuando saca la App Store. No tenía ni aplicaciones el primer año que lo saca. Decía que no. Hacían falta. Que nadie necesitaba estar las aplicaciones. Al principio era otro concepto. Y luego ha ido evolucionando. Con lo que la gente ha ido pidiendo. Pero esa idea. Incluso de ese primer iPhone. Las piezas por separado ya existían. Estaba el iPod como decía Steve Jobs. Que eran tres dispositivos en uno. El teléfono ya existía por un lado. El iPod ya estaba por otro lado. La cámara foto ya estaba. Unir en un único dispositivo. Diferentes tecnologías que existían. Y las pantallas táctiles en los teléfonos móviles ya existían de antes. No es algo que inventó él. Pero bueno esa integración. Y luego más el diseño. Y toda la filosofía. Que hablábamos antes. De un sistema operativo. Robusto y sin filtraciones. Sin que dio como resultado. Un producto único. Que te gustará más o menos. Que tiene una seña de identidad propia. Y que hoy por hoy. Lógicamente nos está dando muchas satisfacciones. Y que dure. Hemos estado hablando de muchas cosas. Entre ellas ecosistemas. Diferentes marcas. Diferentes dispositivos. Pero con una idea casi en común. Y como resumen. Quién decide y quién tiene que poner en una balanza. Qué es lo que necesita. Y cuál va a ser el uso de ese dispositivo. Teniendo en cuenta. Todos esos ecosistemas existentes a día de hoy. Eso es lo más importante aquí. Yo creo que siempre debería ser el usuario. Dependiendo de lo que necesite. De sus conocimientos. De dónde quiere ir. Que pueda elegir. Y que tengamos dónde elegir. Que haya diferentes posibilidades. Diferentes marcas modelos. Que cada uno tenga sus ventajas. Sus pros, sus contras. Y que podamos elegir lo que mejor se acomode. En cada circunstancia. Pues muy bien. Vamos a agradecer primero la participación. Tanto de David como de Norbey. Y agradecerles todo el conocimiento. Que tienen. Acerca de Android y de iOS. Y bueno. A que no sea la última vez que nos encontremos. Porque hemos estado muy a gusto. Yo también quiero permitirme. Agradecerles la invitación. Ricardo, Arturo. Un placer compartir contigo David en este espacio. Y quisiera también decir lo último. Y es que afortunadamente. La tecnología de hoy. En el momento en que estamos hablando. En este hermoso podcast. Es que hay posibilidades. Hay opciones para todos los gustos. Para todos los colores. Para todos los sabores. Para todas las ideas. Y para todos los bolsillos. A escoger informadamente. Creo que eso es lo más importante. Hoy día tenemos suficiente información. Que permite que un usuario. Por más novato que sea en tecnología. Tenga posibilidad de escoger. De la mejor manera posible. Y no por moda ni por marketing. Que ese es el error que cometemos. Escoger por moda o por marketing. Porque me lo dijo el comercial. No. La información hoy día está. Es cuestión de buscarla. Sacarla. Y pues también queremos y creemos. Que este episodio. Pueda ser importante para todos ustedes. En cuanto a documentarse de la mejor manera. Más allá de la accesibilidad. Que es un poco la base de nuestro trabajo. Pero más allá de eso. Hay posibilidades de sistema, de marca. Y de ecosistemas. Así que un agradecimiento también por la invitación. Ricardo, Arturo. Por permitirnos compartir un poco de nuestra experiencia. Desde el punto de vista colombiano. Muchas gracias Rubén. Y muchas gracias David. Por haber estado con nosotros. Y esperemos volver a encontrarnos en otros episodios. Sin plazos ordenes. Muy bien. Muy nutritivo ha resultado el episodio. Bueno pues. Vamos con nuestros medios de comunicación. Nuestro correo electrónico. Es gafotas. arroba cgatos.es Y nuestro WhatsApp. Para mensajes de audio o de texto. En el más 34. Pues muy bien. Os agradecemos como siempre. Que hayáis llegado hasta aquí. Y os esperamos en el próximo episodio. Así que hasta luego. Adiós. Adiós. Pues bienvenidos a Goteham. Bueno venga. Todos arriba. Vamos a ponernos aquí ya las pilas. Que estamos todos muy relajados. Perfecto. Venga. Vamos entonces. Y qué tal. Norbey Sarazar. Desde Colombia. Norbey. A ver, a ver si está por ahí, me escuchen, por favor. Muchas gracias, hombre, por la invitación, señores. Ahora el segundo es para el corte. Espera, no, no, repetimos, repetimos. Entonces estoy listo. Bueno, y tenemos a... Perdón. No, no te preocupes. Eso es problema de edición luego para Arturo, que se acuerda. Ya me estoy empezando a acordar. Nada, nada. Bueno, no es tu madre, ¿sí? Nada, nada. Sí, a día de hoy he escuchado con Samsung, tanto como con iPhone. No sé si habéis escuchado ruidos. Muchos. Sí, eso se va... Aquí hay un mute. Si no tenéis mute físico de alguna forma, con control D, también tenemos un mute en el Stranger. Que luego os lo agradeceré. Y vuestras familias también. Pero vamos a... Si queréis comienzo... Yo estaba... Yo estaba quieto. No, no, si no... Yo no señalaba a nadie. Sí. Bueno. En mi caso particular... ¿Me escuchan? Por favor. Sí, te escuchamos. Ahora sí. Pero te has quedado como silenciado. Sí, en mi caso particular... En tu caso particular te has quedado... Voy entonces otra vez. Voy a ser otra vez en la respuesta. Voy a ser en la respuesta. Tranquilo. Voy a ser en la respuesta. Silencio. No más y vaya... No haces la interrupción, hombre. Correcto. Y lo que es maravilloso, y estaréis de acuerdo conmigo, que es que 18 después... Uy, repito. Hola. Y así. Y así. Sí, ha terminado. Nos has dejado aplazados. No, sí, no. No, es que, claro, la conclusión, pues, ¿qué podemos decir? Realmente es absolutamente... Venga, pero les cuento. Y bueno, llegados a este punto, yo creo que podemos ya recapitular y decir lo que hemos hablado en el episodio. Creo que los primeros fueron HTC, ¿no? El primer Android, el primer dispositivo con Android fue un HTC. Estaba boicoteando, tú. No me dejáis ir, ¿eh? Me quiero ir ya. Dejadme en paz, hombre. Usted nos da un... Está cansado de hablar, Arturito, hombre. ¡Ja, ja, ja, ja, ja, ja! ¡Archurito! Ese es el de la Guerra de las Galaxias, ¿no? Sí, Artur... Sí, es Arturito. Hay reloj de dos, ¿no? El rey Arturo. No, Arturito, el de la Guerra de las Galaxias. En latino, ¿no se llama Arturito? Sí. No tengo ni idea. Archu. ¿No? ¿No es de la Guerra de las Galaxias? No, esa no la tengo. No vi esa película. ¿Ah, no? No soy amigo del cine, ¿no? Joder. Me di Star Wars. Eso, pero aunque no seas amigo del cine, la Guerra de las Galaxias sí que es verdad. No, no, pues ya que me la recomendáis, pues vamos a tomar nota aquí para salir a la tardecita y verla. Por favor, hay que ver la Guerra de las Galaxias. Yo quiero dar recuerdos ahora a Arturo cuando vaya a editar esto y que se acuerde de nuestros padres. Sí. Cuatro pistas, con cuatro pistas ya cuesta bastante más. Y todos los cortes que estamos teniendo hoy, pero bueno, bien. Venga, termina ahora sí. Ahora no voy a decir yo nada. Ahora no quiere, ahora no quiere. No, para no pisarnos. Es que jamás... Quedamos pensando y no pisamos, ¿eh? Los difusores no nos sincronizan. Entre bomberos no hay que pisarse la manguera. El ecosistema, el ecosistema de gatos no ha sincronizado. No recapitula ahora. Bueno, pero despide esto, David. A tu manera. Adiós. Chispún. Adiós. Adiós.
Gafotas, cegatos y sus aparatos #18
Fecha: miércoles, 23 de abril de 2025, a las 00:00:00
En este decimoctavo episodio, titulado “¿Es la IA una amenaza real para el
sistema laboral y las instituciones?”, recibimos nuevamente al experto
informático Alfonso Calvo para analizar el impacto que la Inteligencia
Artificial (IA) está teniendo y tendrá en el mercado laboral y en el
funcionamiento de las instituciones. A lo largo de la conversación se tocan
temas como la posible masiva sustitución de empleos, la necesidad de reentrenar
a los trabajadores (y a las propias IA) para garantizar la competitividad, y el
reto de adaptar la legislación y la cultura política a estos cambios tan
acelerados.
Se destaca también cómo la IA no solo afectará a trabajos considerados “mecánicos” o rutinarios, sino que, gracias a los últimos avances (especialmente en modelos de lenguaje), puede llegar a impactar seriamente a puestos de alta cualificación, como consultores, creativos o incluso investigadores científicos. Además, se reflexiona sobre la falta de reacción de las instituciones políticas para legislar y regular esta disrupción en materia laboral y social.
Por último, se profundiza en la influencia de las big tech y la IA en ámbitos como la democracia y la transparencia (caso de la votación electrónica), y se mencionan ejemplos como la “tractorización” de mediados del siglo XX para ilustrar de forma histórica cómo la tecnología desplaza o transforma sectores enteros de la población cuando no se produce una adaptación oportuna.
Temas destacados
-Transformación del empleo por la IA
La IA ya sustituye trabajos tanto repetitivos como creativos o intelectuales.
Las empresas deben adaptar estos sistemas a sus propios métodos, mientras los
trabajadores necesitan formación continua para no quedar obsoletos.
-Desempleo masivo y renta básica
Se prevé una posible subida drástica del paro, lo que reabre el debate sobre
una Renta Básica Universal financiada, por ejemplo, mediante impuestos a la IA.
-Riesgos democráticos y falta de regulación
La IA facilita la manipulación política y electoral. Aunque existen soluciones
tecnológicas, la falta de voluntad política impide una democracia más segura y
participativa.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Créditos:
Duración: 01:15:23
Descripción detallada del logo de Episodio 18. ¿Es la IA una amenaza real para el sistema laboral y las instituciones?
La imagen presenta una escena de agricultura futurista con un estilo gráfico claramente inspirado en el cómic retro, en tonos azul oscuro sobre fondo beige, como si estuviera entintada con técnicas tradicionales. Todo en la imagen transmite una atmósfera de avance tecnológico en un entorno rural. Descripción general de la escena: Nos encontramos en un campo de cultivo cuidadosamente plantado, con hileras de plantas organizadas entre hileras de árboles que, por su forma, parecen olivos. El paisaje se extiende hasta el horizonte, con suaves colinas y un cielo parcialmente nublado. Personajes y tecnología: 1. Humano con estética retro-futurista (derecha, primer plano): - Hombre con bigote perfectamente peinado y barba perfilada. - Lleva unas gafas de sol redondas de estilo vintage que reflejan el paisaje. - Viste pañuelo al cuello, camisa y chaqueta, en un estilo que mezcla lo clásico con lo moderno. - Lleva auriculares de gran tamaño, conectados posiblemente a un dispositivo de comunicación o de control. - Su actitud es relajada pero atenta, mirando hacia el horizonte mientras sostiene un perro robótico. 2. Perro robótico (primer plano, delante del hombre): - De forma realista pero mecánica: tiene un cuerpo articulado con segmentos metálicos, tornillos visibles y diseño ergonómico. - Su cabeza es redondeada y sus orejas parecen estar moldeadas de forma fija. - Tiene ojos grandes, sin pupilas, lo que le da un aire neutro y robótico. - Está sostenido con cuidado por el hombre, con una mano en su lomo, como si fuera su compañero inseparable o un ayudante de apoyo inteligente. - Su postura es serena y observadora, como si también estuviera escaneando el entorno. 3. Robots humanoides (en el campo, al fondo): - Hay al menos cinco humanoides repartidos entre las hileras de plantas. - Tienen apariencia humanoide sencilla: cuerpo blanco, articulaciones marcadas, y sin rasgos faciales. - Algunos están recolectando o inspeccionando cultivos, otros parecen en movimiento, lo que indica que están desempeñando tareas agrícolas automatizadas. 4. Dron volador (parte superior media): - Flota en el aire sobre el campo, en posición estable. - Diseño típico de dron cuadricóptero, con cámara en su parte inferior, presumiblemente haciendo análisis aéreos o inspección del terreno. 5. Vehículo robótico agrícola (parte inferior izquierda): - Tiene seis ruedas grandes con tacos profundos, ideal para moverse entre los surcos. - De forma rectangular, con una antena en la parte superior. - Probablemente autónomo, está patrullando o realizando labores como recolección, inspección del suelo o fumigación. Relación entre los elementos: El conjunto sugiere un ecosistema agrícola completamente automatizado o asistido por inteligencia artificial, donde los humanos supervisan el trabajo pero no lo ejecutan directamente. El hombre del primer plano parece representar a un operador, técnico o incluso un "pastor" de tecnologías, acompañado por su perro robótico, que podría ser una herramienta de asistencia visual, emocional o funcional. El perro en la imagen: - El perro robótico ocupa un lugar muy especial: está en el primer plano, junto al humano principal, lo que sugiere que no es simplemente una herramienta, sino un compañero simbólico o incluso un asistente personal. - Podría representar la fidelidad de la tecnología al servicio humano, con una estética amigable para generar confianza. - Su posición tranquila, mirada al frente y el gesto del hombre apoyando la mano en su lomo refuerzan una relación de cercanía, casi afectiva.
Gafotas, cegatos y sus aparatos #17
Fecha: domingo, 13 de abril de 2025, a las 00:00:00
En este decimoséptimo episodio titulado "Apple Watch y Pixel Watch: Relojes inteligentes y accesibles", contamos con Rosa Chacón y Emi Madrid, dos usuarios expertos que nos muestran cómo estos dispositivos han transformado su día a día.
Desde un recorrido sobre cómo el ser humano ha medido el tiempo a lo largo de la historia, hasta las funciones que un reloj inteligente nos ofrece hoy, más allá de simplemente dar la hora.
Rosa analiza el Pixel Watch 3 desde la experiencia de una usuaria Android, mientras Emi disecciona el Apple Watch Series 10 como usuario avanzado de iOS que practica Fitness. Hablamos de lectores de pantalla integrados (TalkBack vs. VoiceOver), respuestas auditivas, gestos con la muñeca, configuración inicial, carga, autonomía, aplicaciones disponibles y sincronización con asistentes virtuales (Google Assistant vs. Siri).
Momentos destacados:
- -Rosa nos cuenta cómo usa su reloj para gestionar WhatsApp, transporte, calendario, domótica e incluso… ¡abrir la puerta de su casa!
-Emiliano nos hace una demostración sonora con Mickey Mouse diciendo la hora en su Apple Watch. ¡Una delicia nostálgica! Y como le asiste en su ejercicio diario.
-Explicamos cómo funcionan los sensores de salud, incluyendo el electrocardiograma, la monitorización del sueño, el ritmo cardíaco y el oxígeno en sangre.
-Debatimos sobre el posible futuro de los relojes con cámara integrada y su compatibilidad con gafas inteligentes.
-Reflexión final sobre el valor real de estos dispositivos para mejorar la salud, la autonomía diaria y el estilo de vida.
-Destacamos la necesidad de un diseño universal como clave para una tecnología inclusiva y valoramos la accesibilidad de los relojes actuales: lo que funciona y lo que aún falta por mejorar.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Instalar y actualizar aplicaciones en Google Pixel Watch - Ayuda de Google Pixel Watch.
Descargar apps en el Apple Watch - Soporte técnico de Apple.
WatchChat 2: app para Chatear en el Apple Watch en la App Store.
Sitio oficial de Fitbit para monitores de actividad y smartwatches.
Créditos:
Duración: 01:42:30
Descripción detallada del logo de Episodio 17. Apple y Pixel Watch, dos relojes inteligentes y accesibles.
La imagen es una ilustración con estilo de cómic retro, en tonos crema y azul oscuro, que representa una escena urbana con un enfoque muy peculiar: el tiempo y los relojes como protagonistas omnipresentes. Personaje principal (en primer plano): - Es el personaje de nuestro logo, un hombre elegante con un aire de hipster vintage. - Lleva gafas de sol redondas, grandes, y unos auriculares de diadema conectados por cable. - Tiene un gran bigote y peinado con raya y mucho volumen, muy al estilo años 40. - Viste una chaqueta, camisa y bufanda bien ajustada al cuello, con estilo sofisticado. - En su mano izquierda sostiene un reloj de bolsillo con tapa abierta, mostrando la hora (alrededor de las 10:10). - En la muñeca lleva no uno, sino dos relojes: un reloj inteligente moderno y otro analógico clásico. - También lleva un anillo en el dedo anular de la mano izquierda, posiblemente de casado. Fondo y entorno: - La escena transcurre en una ciudad, entre altos edificios rectangulares con ventanas regulares. - Hay un reloj grande colgado en la fachada de un edificio, visible al fondo. - Toda la gente que aparece en el fondo también está consultando relojes: - Algunos miran sus relojes de pulsera. - Otros revisan relojes en sus móviles o sostienen relojes con gestos similares. - Tanto hombres como mujeres participan en esta escena de "obsesión colectiva" por la hora. - La mayoría parecen caminar apresurados o atentos al tiempo, sin relacionarse entre ellos. Elementos destacables: - En total, hay al menos *17 relojes visibles*, entre los de bolsillo, pulsera, pared y otros dispositivos. - El estilo gráfico recuerda al grabado o serigrafía de los años 50, con punteado y líneas gruesas.
Mostrar transcripción de Episodio 17. Apple y Pixel Watch, dos relojes inteligentes y accesibles.
Transcripción de Episodio 17. Apple y Pixel Watch, dos relojes inteligentes y accesibles.
y sus aparatos podcast Episodio 17 Apple y Pixel Watch, dos relojes inteligentes y accesibles ¿Qué hora tienes? Bueno, pues tendría que mirarlo, pero supongo que me lo preguntas porque el tema que vamos a tratar hoy tiene que ver con relojes, ¿no? Eso es, efectivamente, aunque no siempre ha sido así de fácil y sencillo, ¿no? Estamos acostumbrados a mirar la hora con mucha naturalidad, pero no siempre ha sido así Cuéntanos un poco de eso Pues no, pues mirando la documentación me ha sorprendido que los relojes mecánicos que conocemos solo están desde el Renacimiento Anteriormente el ser humano tuvo que guiarse de otra forma y manera para saber la hora Básicamente, pues, por el sol y la luz, por los sonidos del ambiente, cuando los pájaros se van a acostar a hacer ruido cuando el gallo, en cierta hora, pues, canta Y luego, pues, por otros sistemas que, como son las campanas, esto aquí en Occidente era muy común Realmente marcaban el ritmo de todo el día y la gente sabía así las horas Y en otras latitudes, como es África, pues los tambores, que prácticamente tenían la misma misión Aparte de informar de la hora, informaban de lo que había que hacer o lo que venía Y los gongs asiáticos, que nos resultan muy simpáticos, pero que también estaban para marcarlos Para marcar el tiempo Luego ya, claro, luego ya están los relojes, pero bueno, pues si quieres háblanos un poco, Arturo, de los relojes Es muy curioso, ¿no? Que al principio, como muy bien has dicho, pues no había relojes Luego había relojes comunitarios, ¿no? En las torres de las iglesias y torres del campanario, de algún ayuntamiento, cosas así Y lo de tener reloj así, individual, pues no era tan común Y luego, además, ya encima un poco más, pues, de la forma en que se veía la vida, ¿no? Más panota, pues las personas con alguna discapacidad visual, como puede ser más en nuestro caso Pues encima es más complicado el tema, ¿no? Curiosamente, al principio, los relojes que eran más mecánicos, quizá podía ser más sencillo Porque hubo unos relojes, ¿no? Que levantabas la tapita y podías tocar las agujas Sí, podías tocar las agujas y además era muy curioso porque la esfera estaba dividida en doce partes Entonces, a las doce, a las tres, a las seis y a las nueve, habían dos puntos Y luego, las horas restantes tenían un punto Las saetas, una era más larga y otra era más corta Saetas me refiero a las manecillas Y entonces, pues, con el tacto, con el dedo, podías saber la hora que era Hasta hace muy poco los hemos tenido estos relojes Hasta, pues, podemos decir que prácticamente finales de los años 80, mediados de los 90 Que ya vinieron los relojes digitales Pero, realmente, ahí tengo yo algo que me ha gustado mucho Que he tenido que contar, Arturo Yo perdí por esa época la vista Yo lo que tenía era un Casio, que era un reloj en aquel momento digital Porque veía Y era muy moderno y podía hacer muchas cosas con él Entonces, cuando fui a la once Lógicamente, mi Casio ya no lo podía utilizar porque no veía la esfera Y tuve que acceder a uno de estos que has comentado tú Que se levanta la pantalla y toca así Me pareció algo muy arcaico Pero, al mismo tiempo Entrañable Es decir, me gustó muchísimo la sensación Y fue uno de los primeros dispositivos Tiflotécnicos, por llamarlos de alguna forma Que, aparte de Que me hicieron asumir mi nueva situación Me vino muy bien Porque, al no ver tampoco la luz Andaba un poco desorientado Pues yo también tengo una anécdota Que uno de los primeros dispositivos también Tiflotécnicos que me pusieron Entre comillas, pues fue un reloj Pero, bueno, en mi caso fue digital De estos que dicen Además de pasivos, pasordos Que te dicen Son las 3 y 45 de la tarde Y te lo dice para todo el barrio Y además te lo dice como muy despacio Y muy alto, ¿no? Y me acuerdo que al principio yo me desesperaba mucho Porque cuando miras la hora con vista En un reloj de muñeca Pues la ves en una décima de segundo Es algo instantáneo Y esperar a que esto te diga la hora Que puede ser en dos segundos Pero era un cambio importante, ¿no? Y además, oírlo Oírlo todo el barrio Y te lo dice todo el barrio Y te lo dice todo el barrio Y te va a tardar ese tiempo en escucharlo Claro, esa cuestión era Es que es cierto Hubo ya una época que todos los relojes Los despertadores y demás Para personas ciegas Empezaron a venir con este tipo de chips Que estaban muy bien Que te permitían programar una alarma Y al mismo tiempo También te decían la hora Cuando por petición O podías también programarlos Para que en cada hora te lo dijera Pero cuando tú querías oír la hora Se enteraba todo el mundo Y esto era muy indiscreto Porque en una reunión Si la mirabas tres veces seguidas Y te lo dijera Estabas transmitiendo Que estabas muy inquieto Y que era un rollo Y que te querías ir, ¿no? Entonces, bueno Faltaba discreción Una cosa que sí que te aportaban Era que, por ejemplo Podías configurar alarmas Que con los relojes táctiles Pues era más complicado, ¿no? Pero con los digitales Pues te aportaban Alguna funcionalidad Un poco adicional, ¿no? Aunque, pues eso Luego ya poco a poco Pues esto ha ido evolucionando mucho La tecnología exponencialmente Y de repente Pues aparecieron los relojes Que te daban cualquier cosa Menos la hora Y ya tenía Un montón de cosas Un montón de sensores Y te daban un montón De información Y bueno, pues una vez más Al principio parecía Que nos quedábamos Fuera de juego, ¿no? Estos eran los relojes inteligentes Yo aquí quería hacer Una puntualización Realmente es más correcto Llamarles smart band Como les llaman, ¿no? Porque son unas bandas Que ocupan el lugar del reloj Porque lo que tú dices Menos la hora Que también la da Lo que hacen Es una brutalidad de funciones Que, bueno De ellas vamos a hablar Y, bueno Y se le llama reloj Por la posición que ocupa Porque está en la muñeca Y ahí estuvieron Históricamente los relojes Pero no porque sea El sitio donde más miremos la hora De hecho, yo miro más la hora En el móvil Que en el propio Rolgo de pulsera inteligente Sí, eso es Tienen muchísimas funciones Y, bueno Como siempre, pues no Han sido accesibles Desde el primer momento Y, de hecho Actualmente existen Muchas marcas y modelos Y no todos Ellos son accesibles, ¿no? Pues no Hay algunos que se pueden utilizar A través de la aplicación Pero te tienen que ayudar A configurar algunas cosas Sí que llegas a Sí que puedes acceder A los datos Pero, básicamente Utilizas el 30 o 40% De la funcionalidad del reloj Porque no está hecho Para personas que no ven Siendo buenos relojes De marcas, además Muy conocidas Pero no están adaptados Pero hay otras que sí Hay otras que No siendo productos específicos Para personas ciegas Sí que tienen funciones Que lo hacen Bueno Hacen un dispositivo Que se puede utilizar Perfectamente De forma Muy accesible La inmensa mayoría De las funciones Aunque eso No son productos específicos Y hoy vamos a hablar De un par de ellos, ¿no? Que nos parecen Muy interesantes Y sobre todo Vamos a nombrar La palabra mágica A ver si cala Que es diseño universal Diseño para todos No productos específicos Para personas ciegas O con cualquier otra discapacidad Sino que cualquier producto De consumo Que utiliza cualquier persona Puede ser también utilizado Por personas con algún tipo De necesidades especiales Diseño universal Diseño para todos Y en este caso Sí que estos dos relojes Que vamos a hablar Sí que los cumplen Eso es Que sea el mismo producto Para todos Y que cada persona Dependiendo de sus necesidades Pues pueda activar Unas determinadas funciones Que pueda tener el dispositivo Y que lo pueda utilizar mejor De esa forma, ¿no? Pero que el producto Sea el mismo para todos Y para eso, bueno Hoy tenemos a dos invitados Con nosotros, ¿no? Tenemos a Rosa Muy buenas ¿Cómo estás? Buenas ¿Cómo estamos? Muy buenas Doña Rosa Chacón Desde Córdoba Desde Córdoba, mañana Sí, señor Y también Emiliano Madrid Emi Madrid Desde Sevilla Hola, Emi Hola, Arturo Hola, Ricardo Hola, Rosa Y hola a toda la audiencia Muchas gracias por invitarme Y efectivamente Los relojes Sí, sí Me encanta Muchas gracias Muchas gracias a ambos Por estar hoy con nosotros En esta tertulia Como solemos decirlo Pues si queréis saber Un poco más de sus perfiles Los pondremos en las notas Del episodio Pondremos los enlaces Exactamente Y así no perdemos tiempo aquí Ahora vamos a saber Un poco más de sus relojes Eso es Pues ¿por quién empezamos? Rosa, por ejemplo Cuéntanos, ¿qué reloj tienes? Pues yo tengo El Pixel Watch 3 O sea, el último modelo Que ha sacado Google Porque yo llevo En el bolsillo un Android Y entonces, pues claro La gente Lo lógico normal Es que quien lleva iPhone Lleva un Apple Watch Y quien lleva un Android Pues lleva un Pixel Este Este relojito Tiene un diseño redondeado No es como los cuadrados De De iPhone Es la primera diferencia Que a mí me viene muy bien Porque yo tenía un problema Con los Apple Watch Yo en su momento Llevaba Apple Watch Pero es que me sobraba reloj Me faltaba muñeca Me pusiera Es que me pusiera Me quedaba horrible Porque me quedaba Y era grandísimo Para mí Este es como Bueno, este como no Este ocupa menos Los hay en distintos tamaños Pero claro Yo me lo he puesto Acorde a mi muñeca Es más gordote Si lo coges en la mano Es más gordote Pero es más chiquito Así que en diseño Y luego el diseño Igual Tiene La Donde tenían antes Los relojes Lo de la cuerda Para entendernos Esto se llama corona Pues aquí tiene corona Pero no se le da cuerda Se carga con batería Y tiene un botón lateral Que es el que sirve Entre otras cosas Para activarle el talba Sí Me hace gracia Rosa Decirle Se da cuerda A mucha gente Y sobre todo A la gente más nueva No sabrá qué es eso De dar cuerda Que es igual Cuando dice Tira de la cadena Cuando tienes que tirar De la cisterna del váter Yo supongo Que habrá gente Que mirará y dirá ¿Qué cadena? Descolgar el teléfono Y cuelga Y descuelga el teléfono Es lo mismo Entonces Pues sí Donde se le daba cuerda Antiguamente Eso se le llama corona Y está muy bien Que conozcamos este término Porque no vamos a referirnos A él En distintas ocasiones Adelante Y bueno Pues nada Pues tiene Este reloj mío Tiene pues lo que todos Los relojes De este tipo de relojes Tienen ¿no? Da la hora También Casualmente No hay nada Bien bien Bien bien Pero vamos Aparte de dar la hora Pues te monitoriza la salud Te obliga Entre comillas Obviamente Bueno te da una descarga Pero casi Te obliga A que hagas ejercicio Te monitoriza el sueño Las pulsaciones cardíacas El oxígeno en salud El sangre Te hace electrocardiogramas Si ve que Si él cree Que te está pasando Algún Tienes un problema cardíaco Te Vamos Te avisa Y si no responde Llama a urgencia Por ti Y llama a tus contactos Obviamente hay que configurar esto ¿No? Evidentemente ¿Y qué tal es la aplicación? Para configurarlo Pues se puede manejar Perfectamente Sin verla Vamos La configuración La puedes hacer A través del teléfono O a través del reloj Como en Apple Y lo puedes hacer Con cualquiera de las dos cosas Porque Se puede hacer Sin problemas Sin ayuda Eso es interesante O sea Tú este reloj Desde que lo sacas de la caja Evidentemente A más vez Si no sabes Cómo se activa Talva Porque nadie te lo ha dicho Búscalo en Google Pero una vez que sabes Cómo se activa el Talva Del reloj Del reloj que estoy hablando Puedes hacer lo que quieras Con él Desde el primer momento Vale Cuando hablamos de Talva Que estamos hablando Del lector de pantalla Que es el que le permite Que una persona ciega Pueda manejarlo ¿No? Exactamente Talva Que es el lector De pantalla de Android Tanto del reloj Como del móvil Se llama Talva Igual que iPhone Y el reloj de iPhone Tiene el suyo Ajá ¿Y se puede poner Otro lector de pantalla? No Que yo sepa Por lo menos No A ver Para los muy cafeteros El sistema operativo Que lleva Es algún sistema Distinto Android Es un Android Trucado Para el reloj Que no se llama Android Que se llama Weros Es el Weros ¿Verdad? Muy bien Ajá Y las aplicaciones Que llevan son para Weros O algunas de Android También funcionan Son para Son para Weros Para Para Para Para Para Para Para Para Para Para Para Para Para Que no Que venden paraguas ¿No? Que no Que Optimus Que no Que sean paragueros De paraguas Son para Para el sistema operativo De Esto es como El del LG ¿No? Que se llama Huevos Exactamente Sí, sí Pues igual El de la Manda huevos Manda huevos huevos. Mi televisión tiene huevos. Porque claro. La mía también, que suena LG. Por eso. Bueno, ¿nos paga LG por hacerle publicidad? No, ¿no? No, no. Y aparte no van muy bien todos los electrodomésticos. Yo tengo dos que han fallado, ¿eh? Así que cuidado. A mí me van muy bien los que tengo LG. Pero vale, eso ya es para otro podcast. Tiene la Play Store del reloj y hay aplicaciones que están en teléfono y que también están para el reloj. En cuanto al uso cotidiano de un día normal, cuando tú, bueno, te levantas y demás, ¿cómo utilizas el teléfono? ¿Consultas primero el sueño? Sí, yo soy una friki para eso. Perdón, el reloj. El reloj. Yo, a ver, como un amigo me dijo en su momento, hace ya más años de los que quiero recordar, y el amigo está aquí, además, cuando me fui a conocer, he comprado un reloj en aquella época de Apple, porque en aquella época todos tenemos un pasado, yo llevaba iPhone. En aquella época me dijo un reloj es algo que se puede vivir sin ello, pero en el momento que lleves un día con él, vas a pensar ¿qué vivía yo sin ello? Pues, igual. O sea, yo me puse este reloj y dije, pues yo es que no... Yo ahora mismo no tengo el cuerpo para tonterías y para configurar el reloj y para esto, si a mí esto no me hace falta, pero al día siguiente aparte de haberle quemado la batería, ya estaba pensando, ¿y vivía sin esto, de verdad? Muy bien. O sea, yo es que casi no me saco el móvil de bolsillo. Ajá, eso es interesante. ¿Puedes manejar cosas del móvil desde el reloj? Los WhatsApp, casi todos los gestiono con el reloj. El calendario con el reloj. La aplicación del transporte público para saber de dónde me tengo que bajar, va con el reloj. Pagar con la tarjeta en vez de pagar con el teléfono, pago con el reloj. El utilizar... Yo sí de poco he usado asistente, porque no me gusta, pero va con el reloj también. Además, es muy curioso porque en el móvil tengo Gemini, pero en el reloj tengo Google. Y hay pequeñas problemáticas de contestaciones, porque uno dice una cosa y el otro dice otra. No se ponen de acuerdo. Y son de la misma casa, pero bueno, eso es otra historia. Gemini es la inteligencia artificial de Google, ¿no? Sí. Y Google, que es la aplicación Google. Claro, es que yo en el móvil, en vez de llevar al asistente de Google, que va nativo, puse la inteligencia artificial, que no se puede poner, vamos. Pero en el reloj, no. En el reloj, el asistente que me deja poner es el asistente sin Gemini. O sea, es el asistente de Google de toda la vida. Correcto. Entonces, ¿qué pasa? Pues que depende... A ver, si yo digo, ok, y lo otro, no digo la palabra para no hacerle saltar a nadie ningún dispositivo, saltaría el de la muñeca, porque en el móvil no lo tengo puesto. Pero puedo coger, darle a mano al reloj y darle a mano al móvil, invocarlo a los dos y hacerle la misma pregunta. Por aquello de que una es friki hasta que se muera. ¿Y el resultado? Pues, hombre, si le dices que te enciendan la luz, te la encienden. Ahí no se discute. Sí. O le dices que te abra la puerta, te la abre. Yo tengo una frase mágica para que me abra la puerta del portal. Pero si le preguntas por algo, pues ya ahí tenemos pequeños problemas de contestaciones. Correcto. Pero me estás diciendo que con tu reloj abres la puerta de tu portal. Sí, le digo una frase y bloquea la puerta. No, esa no, porque esa es muy previsible. Vale, va. Vilma, ábreme la puerta. Muy bien. Pero vamos, eso es, lo configuras con el asistente, con lo cual me responde con el reloj o con cualquier cosa que lleve al asistente, claro. Todo lo que sea compatible con Google, ¿verdad? Claro, eso es cosa del reloj, eso es cosa del asistente de Google. Interesante. O sea, la manta eléctrica de mi cuarto también me la pone el reloj, pero no es porque me la ponga el reloj, es porque él tiene el asistente. Sí, bueno, pero te está haciendo de puente y es muy cómodo sin dar un... ¿Tienes el reloj? Siempre lo tienes en la muñeca, eso es buenísimo. Claro, es que además el reloj, mi reloj, este es LTE, pero yo no lo tengo conectado, yo no llevo tarjeta virtual, este es el Wi-Fi, pero claro, yo en mi casa dejo el móvil la mesita de noche y se queda. No tengo que estar pendiente del móvil prácticamente para nada. Porque si me llama alguien, hombre, le puedo coger la llamada con el reloj, pero es como que suena horrible. Pero pasa a los cascos inalámbricos. Ya está. Eso sí, es interesante. ¿Qué tal el altavoz y el micrófono del reloj? Ahí me temo yo que Apple Watch barre, pero por goleada, supra goleada. También el precio es distinto. Son mejores componentes. Hombre, sí. Vamos, hace mucho que no cojo un Apple Watch nuevo, pero vamos, sí, lo cogí hace 15 días, pero quiero decir, imagina porque a lo mejor el dueño del Apple Watch nos oye pero digo, cogerlo y tenerlo puesto en la muñeca para jugar con él. Y sí, hombre, el Apple Watch seguro, seguro, seguro que tiene mejores componentes, pero claro, vale el doble. ¿Cuánto cuesta el tuyo? ¿Qué precio suele tener el Pixel con LTE? Con LTE, 300. No, el mío es sin LTE, el mío es Wi-Fi, nada más. Ah, vale, vale. Y anda por los 300. Ahora mismo cuando estamos grabando esto. Vamos a ver. El LTE estamos hablando de lo que se le llama también celular, que se le puede poner una tarjeta SIM para que conecte. ¿Es así? Correcto. Vale, vale. ¿Con tarjeta SIM? No, para aclararlo. ¿O es SIM? ¿Es virtual? Es la virtual, vamos. La virtual. Sí, sí, sí, es SIM. Muy bien. Y también aclarar que para cosas de domótica como calentar la manta o abrir la puerta, pues hace falta algo más. El reloj solo no hace más. Pues la manta. Porque la manta. Claro. Al ser de la manta, queda de manta. No, pero la aplicación de Google Home también está en el reloj, ¿eh? Pero que eso, ¿hace falta un chifre inteligente o hace falta una cosa más? Esto no hace magia, vamos. El día que hagáis el programa de domótica podemos también ver, porque hay muchas modas de domotizar un hogar desde cualquier plataforma y utilizando puentes y demás. Pero básicamente para los oyentes necesitas siempre un dispositivo que tenga esa capacidad y un dispositivo que permita gestionar esa capacidad. Es decir, por ejemplo, el reloj de rosa a través de la plataforma Google Home puede gestionar los enchufes, porteros y demás que sean compatibles con esa plataforma. Y todas las aplicaciones que existen para móvil también tienen su equivalente para el reloj. Puedes manejar todas las aplicaciones desde el reloj. ¿Tiene sentido? Todas no. De hecho, la de mi banco no está. Cosa que en Apple Watch sí que estaba y el banco era el mismo. Sí, pero en Apple Watch tampoco están todas las aplicaciones que tienes en el teléfono. Algunas sí que tienen como un widget o un acceso directo en el teléfono o una mini aplicación que te permite manejarlo, pero no todas tampoco. Es que tampoco tiene sentido, ¿no? En muchos casos. A lo mejor la del banco, pues, para ver el saldo, pero si quieres ver los movimientos en esa pantallita tan chiquitita, hay que pensar que esto la gente normalmente lo ve en esa pantallita. Pues aplicaciones que necesitan mostrar mucha información, pues no. En el caso de mi banco, que es de los de Caixa, lo que sirve es para encontrar un cajero cercano en Apple. El mismo banco, sí. Pero antes has dicho, Rosa, que tú puedes seguir el WhatsApp por tu teléfono. Puedes enviar WhatsApp. Puedes enviar WhatsApp, recibir WhatsApp, leer cheiros de audio. ¿Puedes o no puedes? Puedo, lo que pasa que, evidentemente, en el teléfono es más cómodo. Pero poder, poder, poder, puedo. Es que creo que, no sé si en el Apple Watch se puede, por lo menos en el mío, ¿no? En el S2022. Si queréis que abra un poquito el melón, simplemente de forma nativa, ¿no? Con la aplicación que tengo yo, además de bastante sencilla, sí. Puedes recibirlo. Puedes recibirlo. Puedes recibirlo. Puedes recibirlo. Puedes recibir, enviar, iniciar conversación y recibir y enviar audio. De forma nativa solo puedes responder el que te llega. Con una aplicación que no es oficial. No. Sí, sí, lo curioso. Yo lo único que he hecho ha sido abrir la Play. Bueno, porque creo recordar, creo recordar, corrígeme, Emiliano o cualquiera que tengáis Apple Watch, que cuando tú configurabas el Apple Watch, de forma, él te bajaba las aplicaciones que ya estaban en el reloj. Sí, correcto. Con el Pixel, no. Yo me puse mi, configure mi reloj pensando en aquello y dije, pues vaya birria de reloj, porque esto no tiene nada, pues vayan a leche, pues anda que cuando tú configuras el reloj por primera vez, las únicas aplicaciones que están puestas son las que el reloj trae por defecto, pero no te bajan las que tú tienes en el teléfono. Entonces, abres la Play Store del reloj y ahí ya sí, la ves, está Audible, está WhatsApp, está algún banco que otro, pero Caixa no, por lo menos ahora que lo estamos grabando, está Mubi, de mapa hay muchísimas, yo no entiendo cómo la gente se deja la vista ahí, o sea, yo no me imagino viendo un mapa ahí, pero vale, de veces que la gente lo hace, porque hay muchísimas, de monitoreo de actividad física hay tropecientos millones de millones también, y eso que el reloj ya lleva, lleva una que se llama Fitbit, que es muy chula, vamos, muy chula, porque es accesible, por lo menos. Claro, porque en estos relojes, los temas médicos, como es el control del oxígeno, la frecuencia cardíaca, los pasos que damos, y otro tipo de actividades, es lo que más se consulta, además del tiempo, y algunas cuestiones así, porque eso básicamente es lo que más se consulta, y donde prácticamente todas las marcas, lo ofrecen como aplicaciones base, ¿no? Y hacer deporte yo creo también, ¿no? Sí, sí, las de Fit, ¿no? Le llaman, de fitness, ¿no? Sí, fitness. A mí me sorprende que te haga un electrocardiograma, y que te lo hace de verdad, quiero decir. Te da hasta una primera impresión, en plan diciendo, parece que todo está bien, si te sientes mal, claro, no es como el electro que te pueden hacer en un hospital, en un centro de salud, porque eso solo tiene un punto, no tiene los seis o más que pueden tener en un centro de salud, ¿no? Pero bueno, algo peor es nada, ¿no? ¿El pixel te lo hace? Sí, te hace el electro, pero, porque lo que hace es que ese electro, digamos, te lo puedes exportar a PDF con el móvil, o sea, te dice, abre la aplicación en el móvil, ahora abres la aplicación en el móvil, exportas a PDF, ese PDF lo imprimes, se lo das al médico, y yo por curiosidad, ya que tenía que ir al médico, dije, se lo voy a llevar, a ver si me dice que esto es una basura, o que me dice, porque claro, yo dije, anda, que gracioso, y se lo llevé, y me dijo, bueno, pues punto uno, está sana, punto dos, ríete lo que quieras, pero estas cosas tienen bastante fiabilidad. Y eso tienes por ahí para oírlo un poquillo, a ver qué impresión, qué impresión da. Bueno, pues a la hora de configurarlo, el reloj tú puedes hacer que cuantito lo toques, en cuanto lo toques, suene, cosa que a mí no me gusta, porque lo rozas con la manga, estás durmiendo, te mueves y le das con la almohada y te despiertas, y no es plan. Entonces, a la hora de configurarlo, yo lo que le hice fue, que si yo no toco la corona, el reloj no habla, bueno, la corona o el botón lateral, el reloj no habla. Entonces, yo le puedo estar pegando a la esfera, que no, puedo sacudir la mano, puedo hacer lo que quiera, que el reloj no, ahora, en el momento en que yo le toque la corona, 6 y 31 de la tarde, 6 y 31 de la tarde. Y ahora, a partir de ahí, si quiero ver las notificaciones, por ejemplo, deslizo dos dedos hacia arriba, si quiero, quiero ver las, ajustes rápidos, deslizo dos dedos hacia abajo, si quiero ver los elementos de la esfera, que tengo configurado, se hace haciendo flick, y si quiero ver las aplicaciones, que tengo instaladas en el, en el reloj, se hace pulsando el botón lateral. Vamos a verlas. Vamos a cotillear, a ver que llevas el reloj. Si, si, vamos a verlas, a ver que es lo que ves. No sé si lo oís, ha dicho grabadora. Bueno, lo he dejado de forma, bueno, lo he dejado de forma, como lo íbamos a grabar, de forma que si yo, hago flick, y, y, y, si, si tú vas sobre una aplicación, mira lo que pasa. Tiene la, digamos, la ayuda de que sepas lo que tienes que hacer. Eso lo puedes quitar. ¿Subir y bajar la velocidad de la voz es fácil? ¿O hay que hacer un...? Claro, eh, a fin de cuentas, esto no deja de ser un talback. Entonces, ¿se baje? ¿Se baje? Sí, sí, bájala un poquito. Te lo digo porque, la tienes puesta para ti, y suena muy de brisa. ¿El segundo? Ajá. Ah, mira. Paro donde me digáis. Ya, para allá, para allá. Está casi a punto de decir, la vida es una caja llena de bombones. Sí. Tenemos una pilla de años todos, eh. Yo lo he entendido, pero más de uno está diciendo, eh. El que no pille esto es buena señal para él. No pasa nada. Venga, buba, adelante buba. Buba. Bueno, que viejo es Romo. Pero, Rosa, se escucha muy bien, eh. Y, la voz que tiene, ¿qué son las voces de Google? Son, solo tiene esta, bueno, tiene, esta, sí, son las voces de Google, lo que pasa es que suena muy a lata. A mí, por lo menos, me parece que suena muy a lata. Por el altavoz, ¿no? Pero, con los auriculares también. Sí, pero es que no puedo hacer nada. Con los auriculares también. No, no, con los auriculares es otra historia. Pero el altavoz es así. Luego, se le puede subir y bajar. Tiene una buena voz, eh. Tiene una voz muy clara de Google. A mí no me gusta, ¿ves tú? No. Ahora, el volumen del reloj se puede subir y bajar también. Sí, por ejemplo. Claro, ahora, lo tengo a todo lo que da, y no parece que suene mucho, pero yo te digo a ti que a estas 3 de la mañana, despierto al bloque, entero. Correcto. Entonces, o es lo que tú has dicho antes de que te vas a una reunión. Te vas a una reunión, y te pones a mirar la reunión con el jefe, y miras en la hora tres veces, y el jefe te da el pasaporte final. Y ya no miras la hora más, ¿no? Bueno, pero has dicho que puedes emparejarlo con tus auriculares, ¿no? Hombre, sí, pero no te vas a ir a una reunión con los cascos puestos. No, no, me refiero que es una opción que tienes. Bueno, no se sabe, es decir, depende de los auriculares que lleves ahí. También vibra, también te puede dar la hora por vibraciones. No, solo te da la hora diciéndote la hora, pero le puedes bajar el volumen y solo te enteras tú, y ya está, no pasa mucho. Además, con que muevas un poco la muñeca, también es como lo configures, tú lo puedes configurar de forma que giras la muñeca, y él te da la hora, pero es que eso te hace que la batería dure un día nada más. Pues, habla norte de la batería. Pues mira, la batería de este bicho, cuando, si lo dejas tal como viene, tal como está en la caja, sin configurarle nada, viene con pantalla siempre activa, por ejemplo, viene con esto que digo de girar la muñeca y que hable, el brillo al máximo, todas las animaciones maravillosamente bonitas, la batería dura, a mí me duró, pues ponle que 17, 18 horas, no duró más. Ahora, que lo tengo optimizado para mí, le he quitado notificaciones de aplicaciones que no me interesa que me notifiquen, le he bajado el brillo, en fin, le he quitado lo de que al girar la muñeca hable, o sea, lo he configurado como me gusta. Por cierto, los gestos de tal vez también se pueden configurar en el reloj. Tú puedes personalizarles esto. Muy bien. Y a mí me está durando la batería día y medio. Y ya digo que yo lo uso, que yo, yo, yo, el móvil sale poco del bolsillo ya. Y cómo lo cargas, Rosa? Trae, trae un cargador parecido al del Apple, si Apple no le cambió el nombre. Una moneda como es, como es, sí, como si fuera una monedita con pinchito. Ah, con pinchito. Exactamente. Y entonces, pues acercas la moneda. Además, solo tiene una forma de ponerse, porque si la intentas poner de otra, como que no se queda encajado, vale? Lo tienes que emparejar de forma, que la, la cuerda o la corona, como os guste más, quede paralelo al cable. Muy bien. Y ya está y se queda y te dura la, la, la carga en 15, 20 minutos más no, eh? Te hablo siempre del cable que viene con el reloj. Luego hay que ver a cargadores que te puedas comprar y lo que tú, pero estamos hablando del cable que viene con la caja. Lo tienes siempre con el Bluetooth, siempre con el Bluetooth, siempre con el Bluetooth. Sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, sí, con el Bluetooth y el Wi-Fi conectado. Sí, siempre lo tengo. Vale, vale, vale. Conectado a Móvil con Bluetooth y se lo podría quitar en casa, por ejemplo, porque se entienda por Wi-Fi. Ajá. Pero luego me voy a la calle y se me va a olvidar. Así Click. ¿Para qué? Con Bluetooth. Vale. ¿Tienes alguna aplicación o alguna funcionalidad que te haya llamado la atención? Yo al principio eh, la verdad es que eh, se me quedaba corto, o sea, y con todo el dolor de mi alma, pero yo decía es que esto no es un Apple Watch. Ya, sí, está chulo, vale, pero es que esto no es un Apple Watch. Pero no sé, ahora yo estoy muy contenta con mi reloj. O sea, no le he hecho nada en falta. Lo que me costó fue cambiar el chip. Pues como cuando cambias el chip de pasar de tener un iPhone a ponerte un Android, que los primeros dos días son esto que es y luego ya pues te gusta o no te gusta, eso ya para gustos colores. ¿Y los puntos débiles? El altavoz no me gusta como suena, me gusta más como suena Apple Watch. Vale, la voz tampoco te... la síntesis tampoco te ha gustado. En el reloj suena muy lata, a mí me suena muy lata. Luego con los cascos no, pero en el reloj me suena muy latera, muy plastiquera. Pero vamos, yo estoy contenta, bastante contenta con él, no me ha hecho todavía... llevo un poquito con él, llevo dos semanas. Pero vamos, me costó, me costó dos días y luego ya no... es que no me lo quiero quitar. Ah, bueno, no lo he dicho porque lo estaba dando por hecho, pero mejor no dar nada por hecho. Después duchas con él, no hay problema. ¿Puede mojarse a más de un tiempo y demás? Para fregar los platos y mojarse, da. Para nadar no lo sé porque no lo he hecho. Y a la playa tampoco he ido porque ahora mismo hace frío. Y para deportes dices que es perfecto, que en el sudor no hay ningún problema ni más. Está perfectamente preparado para eso, ¿verdad? Sí, a esa faena sí se la he hecho. He puesto a correr con él y no... perfectamente, no me he hecho ninguna cosa rara. Además tú puedes ir mirando a cada momento, a tiempo real las estadísticas que te vas sacando en pantalla como si lo vieras, ¿no? O si no quieres que te vuelva loca la cabeza, pues dejas que se bloquee la pantalla y ya la mirarás al final. Genial. Muy bien, pues este es el Google Pixel Watch 3. Muy bien. ¿Con qué lo tienes conectado, Rosa? ¿Con qué móvil? Con el Pixel 7a que es el que tengo yo. Vale, perfecto. Ahí no supongo que no haya ningún problema con, por ejemplo, poner un Samsung o un Oppo y demás, ¿verdad? En teoría, según las especificaciones del reloj, no lo hay. Pero no lo he hecho. Bueno, genial. Y ahora para comparar un poco, ¿no? Vamos a comparar el clásico de Apple. Comparamos un poco, bueno, ventajas incoherentes de cada uno. Cuéntanos un poco del Apple Watch. Pues os cuento un poquito. Lo que tenemos hoy aquí es un Apple Watch Series 10. Es de Apple y es el último dispositivo que ha sacado la casa. En concreto, en mi caso, es el de tamaño de 46 milímetros, de caja en aluminio y color jet black, negro azabache. Lo máximo. No hay más por encima, ¿no? El tamaño, no. El tamaño, excepto si te vas a un Apple Watch Ultra, que es más grande la caja, pero lo que es la pantalla en sí, la zona de tacto, creo que es incluso más pequeña. Fíjate en lo que digo. El Ultra 2 le gana a este porque una de las novedades de este año es que sin que el tamaño incide la caja, que es lo que se supone que utilizamos como donde tocamos, ¿no? Donde está la pantalla, la corona, el botón, los altavoces y el micrófono. A eso se llama la caja del reloj. Es más grande. En el Apple Watch Ultra 2, que está más orientado a deportes extremos, frente al Series 10, pero el Series 10 tiene una pantalla más grande. Es decir, le han quitado bordes, le han quitado marcos y han hecho que en una caja más pequeña entre un área de toque más grande. En el día a día yo no noto gran diferencia entre el Series 10, que es el que tengo, y el Series 7, que es el que tenía. Pues vamos de menos a más. Hablamos de Apple Watch en sí, lo que puede dar de sí, y luego en concreto el que tienes tú. Muy bien. Es el alto de gama, ¿no? Os cuento. Por lo que yo he podido vivir, efectivamente un reloj de 500 euros no es algo imprescindible, pero se vuelve el día a día fundamental. Desde que me levanto por la mañana lo primero que hago es utilizarlo porque él me despierta. Y me despierta de una forma muy curiosa. Se ha convertido en un estilo de vida que monitorea cada fase de mi vida. Desde el sueño hasta mi gimnasia, educación física, lo que vosotros queráis decir, ¿vale? Es decir, junto con cada hora de mi día si me estoy mucho tiempo quieto o si estoy mucho tiempo él me avisa, lo tengo configurado para eso. Entonces para mí Apple Watch exactamente, se ha convertido no solamente en un reloj que efectivamente da la hora, sino en un compañero de día a día. Como Apple o como la industria ha conseguido hacer esto dándole una serie de capacidades al reloj que saca mucho más partido que un simple reloj. El reloj tiene un altavoz, el reloj tiene micrófono, tiene pantalla, tiene la corona que es una parte redondita donde nosotros giramos y podemos movernos por las aplicaciones. Yo no lo utilizo para eso. Lo utilizo para hacer clic, para entrar en una aplicación o para ir para atrás. Para volver atrás, como si dijésemos el botón de inicio de los iPhone antiguos o el gesto de doble tap de abajo arriba en los iPhone nuevos que no tienen botón. No sé si me estoy explicando. Una pantalla inicial que es lo que se llama la esfera que además nosotros podemos personalizar. ¿Y cómo lo podemos personalizar? De miles de formas. Desde que la esfera solamente parezca la hora con lo cual cuando nosotros toquemos la pantalla o levantemos la muñeca o toquemos la corona, nos diga simplemente la hora hasta ponerle lo que se llaman las complicaciones. Las complicaciones son como pequeñas ventanitas a distintas aplicaciones que nosotros podemos establecer. Las aplicaciones que instalemos en el reloj serán aquellas que podremos poner nosotros en esas complicaciones. ¿Alguien sabe por qué le han puesto nombre de complicaciones a este tipo de ítems en pantalla? Me explicaron hace mucho tiempo que es una forma complication y no sé realmente por qué. Se llama, bueno, los relojes analógicos, estos caros, por así decirlo, que había, pues además de darte la hora, pues tenían ahí una pequeña zona mejor que te ponían, pues, eso. El calendario, ¿no? Había algunos que te ponían incluso un dibujito de la luna, por ejemplo, en qué fase está la luna, cosas de estas. Todo eso lo hacían de forma mecánica, no eran digitales y esas pequeñas funcionalidades adicionales se llamaban complicaciones. Y por eso se ha heredado en estos relojes. Un dato curioso a la historia del reloj que decís antes que quería deciros es que en todos los anuncios visuales de relojes de esfera con manillas, siempre el reloj está dando las once y cuarto porque parece una carita sonriente. Sí, parece que está sonriendo. ¿El reloj de Rosa también tiene complicaciones? Mi reloj tiene complicaciones, pero no se llaman complicaciones. ¿Cómo le llaman? Elementos, simplemente. Claro, ítems, ¿no? Tiene más historias. Pero vamos, en ese sentido es como el de Apple. Tienes esferas muy simples con cuatro cositas o tienes esferas con ocho cositas que tú dices, vamos, se deja a la vista quien que sea seguro. Sí, además en Apple al menos, supongo que en Android también, en Pixel, cuando vas a elegir la esfera, te dice el nombre de la esfera y una descripción en la que incluye el número de complicaciones que hay, cinco complicaciones, seis complicaciones o como dice Rosa, ocho complicaciones. Es una forma de ir después poniendo en cada complicación lo que quieres. Y en Apple te dice complicación arriba a la izquierda, centro, arriba a la derecha, abajo a la izquierda. Pero hay un detalle. Según el tamaño de la complicación, pequeño, mediano o grande, podrás visualizar una información u otra. Es decir, en una complicación pequeña lo que suele ocurrir es que verás nada más que un dato muy pequeño o simplemente el nombre de la aplicación. Sin embargo, en una complicación grande o mediana, por ejemplo, el tiempo no te pondrá tiempo, sino que te pondrá 17 grados despejados y en una grande te pondrá Sevilla, en mi caso, 17 grados despejados, probabilidad de lluvia 25% e incluso puedes ir viendo datos día a día u hora a hora, como hayas configurado. A ver si esto lo he entendido bien. Una esfera en sí conlleva lo que es una propuesta estética, que la esfera puede ser o clásica o futurista y demás y una distribución de los ítems o complicaciones. Haciendo un equivalente con los teléfonos podríamos estar hablando de una pantalla principal, un salvapantallas que le daría la parte estética y una pantalla principal. Y la distribución de los elementos. ¿Sería esto? Más o menos, sí. El reloj, tú tienes el fondo, que puede ser una fotografía o un logotipo, pero es que también cambia porque la esfera que en el Apple Watch es curioso porque el Apple Watch es cuadrado, pero se le llama esfera. Puedes cambiar incluso cómo quieres que te muestre la información. No solamente es una fotografía, sino, por ejemplo, si quieres que se vea una manilla para darte la hora, de forma clásica, con la forma de las manillas clásicas, o un reloj como el que tenías tú del Casio, con los números digitales grandes. Y después, alrededor de esa base es lo que dices que aparecerían las distintas ventanitas o complicaciones. Y según el lugar donde se encuentre, si está en una esquina, puede ser más pequeñita, si está en el centro puede ser más grande, y según cómo le deje el espacio visual. Yo os tengo preparado en algún momento, una de las demos que quiero, una esfera que utilizo mucho simplemente para cuando salgo y no quiero nada más que enseñar el reloj a la gente. Y luego otra esfera, que es la que he preparado para demostrarles un poquito las capacidades del reloj. Una es muy graciosa, que le va a gustar mucho a la gente, porque es muy auditiva. A mí me gusta mucho Mickey. Ahí voy. Me está reventando. Que te quiero. Sí. No, pero es verdad que Mickey... Mickey es precisamente lo que os iba a enseñar. Lector de pantalla... Muy bien, pues mirad. Es muy sencillo. Vais a escuchar primero la voz del VoiceOver, que en este caso le puedes poner distinta... VoiceOver es el lector de pantalla que utilizamos para poder acceder a la información tanto de los iPhone como de los iPad, como de los Mac, como de los Apple Watch y Apple TV. Es decir, es el lector de pantalla oficial de Apple. Y no hay más. No se puede poner otro lector. Es este y ya está. Totalmente. En Android se puede poner el chino, o puedes poner el TALBA... ¡No! En el teléfono sí, pero en el reloj no. Como lo que decía Rosa, se puede configurar el reloj para que nada más que levante la muñeca me hable. Pero yo no lo tengo puesto así. Lo tengo puesto para que yo toque la corona, la parte redondita que se utiliza para dar la cuerda en los relojes antiguos, o para la pantalla. Si toco la pantalla, lo primero que me dice es con la voz de Siri la hora. ESG. 18 y 51. 18 y 51 es la hora. Si yo aprieto... O sea, hago un doble... Está mantenido un tap-tap en la pantalla sin tocar ninguna parte central, me aparece el selector de las distintas esferas. Lo hago. Y entonces me dice modular, personalizable. Hay complicaciones y me dice lo que hay. Y ahora, si hago clic a la derecha, me dice añadir esfera. Y si hago clic a la izquierda... ESG. 18 y 51. ESG. 18 y 51. ESG. 18 y 51. ESG. 18 y 52. Activo la pantalla y me dile automáticamente la hora con la voz de Mickey. No es la síntesis de VoiceOver, ¿vale? Es una síntesis propietaria de Disney que hizo un trato con Apple. ¿Y ya no tiene a Minnie? Sí, también lo tengo. Tiene a Mickey y a Minnie. Son los personajes... Además, es una esfera que conmemora el reloj que salió en 1933, que era un reloj mecánico, en el que los brazos de Mickey daban la hora y el minuto y el pie iba haciendo un que marcaba los segundos. No hablaba. Y este, además de hacer todo eso... De vez en cuando se ríe. Vamos a quitarlo porque si no va a estar dando la hora cada dos por tres. Apreto dos veces con un doble tap mantenido. Y hago clic a la derecha. Y hago doble tap. Y ya está. Velocidad. Con el reloj. Vamos a... Ahí vamos bien. Perfecto. ¿Y ahora? El volumen se puede subir hasta el 199. Pero bueno, creo que con eso ya... Ya observamos que tiene más volumen el Apple Watch que el Pixel Watch. Pero de largo. Independientemente de que... Tiene mejor volumen y mejor voz. ¿Ese qué? Vale. No es... Simplemente son cositas que... Supongo que Apple lleva ya 10 relojes o 11 y Pixel está empezando ahora con el tercero. Por lo cual irá mejorando. Y lo que dice Rosa. El precio de un Apple Watch es de 550 y tantos euros. O sea... Este que es el de 46 milímetros. Luego el de 44 es un poquito más barato. Y ambas versiones con LTE pues suman 100 euros más. Luego el Ultra. El Ultra 2. Pues estamos en 900 euros. Que ya viene con LTE incluido. Pero ese... 900 euros el reloj. Ajá. Sí. Y eso te pone la aspiradora en casa, te frega los platos, te abraza cuando llega. O algo. La aspiradora seguro porque si es compatible con HomeKit... Mal ejemplo. Bueno. Os quiero... Os voy a enseñar... Os voy a enseñar algunas cosillas de... Que se pueden hacer rápidas, ¿vale? Por ejemplo... SG. SG. Que es un... El Instagram. El Instagram. Vamos. Entro dentro. Que he hecho... Pero... Le tengo activado también como Rosa. Que os diga pues cositas que se puede hacer cada vez que entras en un... En un elemento para que nos diga más fácil las cosas pero también se pueden desactivar este tipo de ayudas, ¿vale? Electrocardiograma. Entramos dentro. Todo esto está en la misma corona, ¿vale? 72 LPM. Hace 3 minutos. Oxígeno en sangre. Bien. SG. Entramos en electrocardiograma y me dice... Ok. Botón. Me dice... Para hacer... Escuchad. Para hacerme... Ahí. Ok. Para hacerte un electrocardiograma correctamente debes llevar el Apple Watch bien ajustado a la muñeca que esté seleccionada en ajustes que actualmente es la derecha. Encabezamiento. Le damos a ok. Ok. Botón. Actual. Muñeca. Botón. Botón atrás. Puedes cambiar la muñeca si no lo tuvieras ahí puesto pero como yo lo tengo puesto en la derecha con la corona porque esto es totalmente personalizable, ¿vale? Tú puedes personalizar donde quieres la muñeca pues en donde quieres poner o todo. Es absolutamente personalizable en todo. Tanto la muñeca... Puedes elegir la muñeca y si la corona quieres que vaya mirando para la mano o para el brazo y tú dices... Exacto. ¿Alguien lleva el reloj del revés de verdad? Pues por lo visto sí. Yo llevo la muñeca... Por usuario de perroguía para poder acceder mejor a las funciones del reloj yo prefiero llevarlo en la mano derecha con la corona hacia el codo para que cuando yo doble la mano y demás no le vea. Totalmente al revés. Y me lo permite y todos los gestos cambian para estar perfectamente así sincronizado. Sí, sí. El de Android también lo permite. Coloca el dedo sobre la corona. Me dice, coloca el dedo sobre la corona. Y en el momento en que lo coloco... Toca. Nota. Nota. El Apple Watch no comprueba si hay infartos de miocardio. Procura no mover los brazos. Muy bien. Entonces coloco el dedo. Asegúrate de que tienes el dedo sobre la corona. Igualito, igualito. Vale, entonces... El Apple Watch no... Nota. No muevas el EPM. No muevas las manos. Vale. Entonces ahora... No muevas las manos. Estaría haciendo el electrocardiograma ahora. Y cuando lo termina de hacer me dice automáticamente en el reloj, en el móvil, pon. Ya tiene usted un PDF con sus datos de electrocardiograma. Esto es así de sencillo. En el Android es igual y te va haciendo una cuenta atrás. 30, 25, 20. Para que tú sepas lo que te falta. Ahora. Perfecto. Luego. Como tengo puesto lo de los latidos por minuto en otra complicación que es más grande, además de LPM, me dice que tengo... 75 LPM. Ahora. 75 latidos por minuto. Ahora. Sí, porque a veces me pongo un poco alterado. Entro dentro y me dice midiendo. Midiendo. Entramos dentro. Y me dice... 77 LPM. Me voy a poner un poquito... Me voy a poner un poquito más nervioso. ¡Ahhh! Entonces te va dando la versión actual. 72, 74, 78 hace un minuto. Y ahora le damos otra vez a la corona para ir para atrás. Vamos a ver el último que es el oxígeno en sangre. Por ejemplo, he cogido estas tres cositas para... Oxígeno en sangre. Oxígeno en sangre. Aquí tienes algunos consejos que te ayudarán a... Siguiente botón. Vamos a la siguiente. Oxígeno en... Asegúrate de que el Apple Watch no esté demasiado bajo en la muñeca. La correa tiene que estar ceñida sin que te moleste. Lo escucháis todo, ¿verdad? Sí, sí, perfecto. Asegúrate de que... Siguiente botón. Imagen de un brazo colocado sobre una superficie. Coloca el reloj mirando hacia arriba e intenta no moverte. OK, botón. Y a partir de ahora... 95%. Hace tres horas. Iniciar botón. Ese era hace tres horas, pero ahora no soy yo. A ver. Escuchad. Ah, mira, se escucha... el impulso. Sí. Lo hemos perdido, ¿no? Lo hemos perdido. Y ya está. Y me dice... Resultado. 98%. Bien, estoy a tope. Para que veas que somos oxígeno puro, ¿eh? Llevas el rato que llevas hablando con nosotros. Por eso me dicen que soy un vendedor de aire. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Sí. Y la última prueba que quería enseñaros simplemente las notas de voz. Para que veáis cómo un reloj puede utilizarse para muchas cosas. Simplemente abres las notas de voz. Le das... Y te dice... Grabar, botón. Le damos a grabar. Grabar. Y ahora decimos... Estamos haciendo una prueba para el maravilloso podcast de... de gatos, gafotas y sus aparatos. O mejor, gafotas de gatos y sus aparatos. A ver qué tal suena. Cero. Detener. Botón. Y ahora lo podemos reproducir desde el propio Apple Watch. Grabación 8. Grabación. Grabar. Botón. Le damos a grabación 8 porque... Esto es maravilloso. Después automáticamente te vas al iPhone y te aparecen las grabaciones. Pero desde el reloj... Grabación 8. Retroceder. Le damos a... Reproducir. 0%. Estamos haciendo una prueba para el maravilloso podcast de... 33%. De gatos, gafotas y sus aparatos. O mejor, gafotas... 63%. Pero bueno, es que está leyendo la síntesis. Avanzar 15 segundos. Botón. Normalmente cuando la VoiceOver no habla suena muy bien. Entonces, si no os importa, os lo voy a dar y voy a quitar... Avanzar 15 segundos. Botón. Estamos haciendo una prueba para el maravilloso podcast de... De gatos, gafotas y sus aparatos. O mejor, gafotas de gatos y sus aparatos. A ver qué tal suena. Cero. Muy bien. Suena muy bien, ¿eh? Y ya está. Para mí es genial porque después lo puedes grabar y mandarlo al reloj... Bueno, no mandarlo, sino ya se te sincroniza y es maravilloso. Cositas más que se me puede olvidar. Si le das dos toques en la parte izquierda del reloj, automáticamente vais a escuchar algo que es... Escuchar. No sé si lo captáis. Sí, se escucha. Una vibración. Esa vibración es para que te dé la hora sin hablar. Puedes configurarlo para que te dé la hora sin hablar. O los minutos y la hora o solo los minutos. Sería discreto. Estaría muy bien. Súper discreto. Te da un feedback vibratorio en formato de 24 horas que te da primero una vibración para decir la hora, es decir, de 1 a 24. 1, 2, 3, 4, 5, 6, 7, 8. Luego se queda un momento quieto. Luego te dice la decena de los minutos. 10, 20, 30, 40, 50, 60. Y luego las unidades del 1 al 9. Esto también se puede utilizar, creo, ¿no? Para que te digas el GPS. El GPS y el resto de las maravillas que tiene, por ejemplo, yo le he puesto que me despide todos los días a una hora y que me monitoree el sueño. Entonces me lo tengo puesto. Y para despertarme poco a poco, primero noto una vibración muy suave, pero muy, muy leve, como alguien que te empieza a tocar suavemente la muñeca. Y va cambiando la vibración hasta que, si no te has despertado a los 3 o 4 minutos, os lo juro, yo una vez me quedé dormido, notaba perfectamente como alguien que estaba clavando un dedo en la muñeca, pero es en un punto justo y parece muy desagradable. ¿Qué es eso? Si no haces caso. Sí. Y la vibración también te sirve para cuando te llaman y demás. Tiene un feedback vibratorio muy completo. Lo puedes incluso personalizar si quieres tú otras vibraciones y demás. Pero lo de la hora es muy chuli. Pues lo del Android, te digo yo que te despiertas, tú oyes el reloj y te dices, son las, la hora que sea. Y entonces tienes 3 segundos para que te pegue una vibrada en la muñeca y te parece que tantas cargas eléctricas bajo un bot de esa cama, pero ya, pero ya. Qué bien. Y las alarmas, pues imagínate como en Apple. Tú puedes hacer que suenen solo en el reloj o que suenen en el teléfono y en el reloj, claro. Suena la boquera. Exacto. Sobre aplicaciones, pues tienes una tienda de aplicaciones, Apple Store. La vibración también vale para GPS, ¿no? Si tienes que ir hacia la derecha o hacia la izquierda. Sí, bueno, es lo que estaba diciendo. Cuando, cuando tú tienes puesto, por ejemplo, en este caso, Apple Maps, pero Google Maps también te hace, pero el que lo hace mejor es Apple Maps, ¿vale? Es decir, que tiene mejor. Si tú tienes que girar a la izquierda en 25 metros, ¿vale? Cuando está, cuando te da el primer aviso, por ejemplo, en 40 metros gira a la izquierda. Bueno, pues te hace una notificación en el reloj, pero cuando ya te quedan 15 metros para girar a la izquierda, ya sí que te hace una vibración como, oye, cambia. Entonces tú levantas la muñeca y ves lo que te dice. En 10 metros gira a la izquierda en la calle Buena Fuente. Y a partir de ahí es impresionante porque llegas a un momento en que hay un cierto cambio de dirección y notas cuál es. Vas desarrollando ese pequeño instinto de que sabes lo que te está diciendo. Gira a la izquierda, gira a la derecha y es muy bueno. Pero siempre es mejor tenerlo, yo no lo reconociendo, sin voiceover, excepto en un caso cuando pones un entrenamiento y le tienes configurado que, por ejemplo, cada 5 minutos te avise o cuando a X calorías te avise o cada X kilómetros te avise, desactiva el voiceover. Entonces, la síntesis del propio reloj, por ejemplo, cuando estés paseando, te va a decir un kilómetro recorrido, velocidad del kilómetro, parcial, pues te dice parcial 1, ritmo del parcial 15 minutos, parcial 2, ritmo del parcial 15 minutos, 26 minutos. Y para activar y desactivar voiceover es como en un iPhone normal, tres veces a la corona. Igual que en un iPhone normal, desde que sale de la caja puede hablar. Igual que en un iPhone normal, la configuración es totalmente accesible. Diferencias con lo que ha dicho Rosa es el cargador. Eso me ha sorprendido que vaya con pinchitos el de Pixel. El iPhone no es así. ¿Cómo es? El de iPhone es una moneda que se pega en el reloj y da igual que esté el cable hacia un lado o hacia otro, es totalmente por inducción y no tiene ningún muellecito ni metalitos. Es decir, es una moneda que tú acercas el reloj a la moneda y automáticamente se pega con imán y te entiendes que está cargando porque ¡ping! carga. En los primeros momentos de carga se calienta mucho el abaste del reloj. Yo no he notado ningún tipo de cosa especial de barra. Ni velocidad ni problemas de calor. No. Es una monedita muy pequeñita. Antes era de plástico y ahora es de aluminio. Y antes era con USB tipo A y ahora desde mi Series 7 por lo menos que yo sepa en adelante es con USB tipo C. Y en el Apple Watch Series 10 le han puesto carga rápida que en 8 minutos de carga tienes para 8 horas. Por ejemplo, si te vas a dormir y te queda nada de batería lo pones 8 minutos de carga y te da 8 horas y en media hora te carga hasta el 80% del reloj. Es una maravilla. A ver, el de Android no es que tenga pinchos que te los cargas en la mano. No. Tiene pivotitos, o sea, tú lo notas, pero que no es una cosa que no son pinchos, vamos. Ya, pero serán como los metalitos que traen, por ejemplo, los auriculares para cargar en las cajas, ¿no? Pero más finitos incluso. Más finitos que eso incluso. Sí, pero tú tienes que poner el cable como has dicho. Sí, sí, eso sí. Eso sí. Pero los pinchitos de la carga del Android yo lo noto y tú lo notas. A lo mejor mi madre no. Pero eso es lo que quiere decir que la moneda del iPhone da igual como lo pongas mientras el lado correcto vaya. Era lisita, lisita, lisita, vamos. Sí, es lo único que cambia que el iPhone puedes ponerlo pues como te dé el Apple Watch, perdón. Te da, puedes ponerlo como quieras da igual que tengas el reloj mirando la corona junto con el cable o dada totalmente a la vuelta o 15 minutillos a cargar mientras me voy cambiando de ropa cuando lo tengo lo tengo al 100% y me voy al gimnasio puedo poner todos los entrenamientos tiene sincronía total con Apple Music con lo cual el que tenga el servicio de Apple Music de streaming es maravilloso porque el móvil te lo dejas en tu taquilla y con unos auriculares puestos en el reloj tienes tu lista predefinida de Apple Music le das a un entrenamiento por ejemplo elíptica tú le dices elíptica libre lo pones y automáticamente escuchas pip pip pip y empiezas a funcionar empiezas a todos los sensores y en los auriculares empieza la música de tu lista y cuando tú cambias alguna canción en tu móvil nada más que pongas a cargar el reloj automáticamente el reloj se vuelve a sincronizar que no quieres música que quieres podcast pues todos los podcasts que tú estés escuchando al menos con la aplicación Apple Podcast pero hay otras tantas aplicaciones que tienes para el reloj porque obviamente no tienes es un negocio el podcasting y en el reloj lo tienes es que todo pero si no es LTE si es Wi-Fi tienes que tener o conexión con el móvil o que se haya sincronizado antes tiene 64 gigas de espacio por lo cual ahí tienes bastante y Wi-Fi tiene Wi-Fi 5 el Bluetooth perdón Wi-Fi 6 y el Bluetooth 5.3 y qué más queréis que os diga si puede mojar puede mojar contadme si si puede mojar si tiene muy buena este de hecho este es el primero que no es el Ultra y que puede meterse hasta 50 metros de profundidad durante una hora puedes hacer no submarinismo como el Apple Watch Ultra que tiene hasta 100 metros vale pero sí que tiene sensor de profundidad sensor de altura puedes meterte en piscina puedes hacer buceo no submarinismo sino buceo vale es decir no a una gran profundidad pero sí que ya te lo permite y por supuesto natación desde el punto de vista hace bastante tiempo puedes hacer natación con los Apple Watch y son resistentes bastante bien al agua con todo y con eso yo recomiendo siempre una pequeña protección o un bumper alrededor del reloj que sea de goma eso sí va a comentar a Rosa y a ti qué tipo de protección lleváis genial Rosa dale tú y ahora cuento yo si queréis yo ninguna porque como yo no hago natación me duché con por la primera vez porque porque se puede uno duchar con el reloj ah sí a ver pues sí oye pues sigue funcionando pero mira cosa no para ducharme me lo quito no me atrevo y para que no se golpee llevas algún tipo de no ya lo cuido yo vale yo para el reloj he visto varias protecciones para golpes pero la última es la que más me ha gustado primero vi una chaquetita como un chelequito que tenía tirantitas y que servía como era un TPU para para un una especie de plástico que se le ponía al reloj y tapaba justo la pantalla luego vi el modo bumper que es una especie de marco de goma que te protegería lo que es el el marco del Apple Watch en la parte de aluminio y deja libre la pantalla pero la pantalla se quedaría hundida en ese marco de goma para que cuando le hidras o sea te cae el reloj cae antes con la goma que con que con la pantalla y la última que he encontrado que es el que más me gusta es imaginaros el concepto de la funda de un móvil pero al revés es decir la parte de atrás del reloj que es donde están todos los sensores es decir el Apple Watch el Apple Watch recibe toda la información que hemos estado leyendo de sangre oxígeno electrocardiograma por medio de tu muñeca entonces lo que está en contacto con la muñeca no se toca pero todo lo demás el borde de aluminio y la pantalla se la he puesto con una conchita de una mezcla entre cristal templado y y otro material que no es ni caro que te deja libre como habéis podido comprobar los altavoces los botones tanto el largo como el corto aunque lo notas un poco más hundido porque está algo alrededor pero te lo está cubriendo todo con lo cual los golpes en la pantalla ya no es la pantalla ya es en ese cristal cositas sutiles que tiene cuando estás haciendo deporte es algo que se me va a pasar y no quiero que se me pase los gestos con la muñeca Apple desde hace un tiempo ha permitido hacer que tú cuando haces para los videntes el gesto de pellizco en el aire se activan unos gestos automáticos en el reloj como para activar una notificación y que se vea en grande o para parar una alarma o un despertador tú pegas un pellizco al aire y se activa pero para la accesibilidad con voice over en concreto creo no sé si lo han hecho con más cosas es maravilloso tú estás en el gimnasio estás escuchando tu música estás sudando porque lo estás dando todo normalmente tanto en reloj como en móviles con el dedo mojado el tacto en la pantalla es complicado como mínimo complicado pero te da una vibración en la muñeca y un feedback auditivo. A ver si lo escucháis, ¿vale? Levanto la muñeca, abro y cierro, abro y cierro. Eso. Sí, sí, sí, se escucha. Vuelvo a repetirlo, vuelvo a repetirlo. Bajo la muñeca y entonces ya esa sección se ha cerrado, ¿vale? Levanto. Eso es. Ya lo ha hecho. Y a partir de ahí, cuando yo abro y cierro los dedos, hace eficacia. Hace como un click hacia adelante y ahora cuando abro y cierro los dedos dos veces. Clic a la izquierda. Sin tocar el reloj. Y ahora, si abro y cierro el puño dos veces, es un doble tap. Un doble click, ¿vale? El reloj está viendo tu mano, por lo que entiendo. La muñeca. No. El reloj lee el movimiento de mi muñeca. Vale, que es la muñeca. Vale, vale, es lo que no había entendido. Es la muñeca en la que te... Tienes puesta la pulsera del reloj, ¿no? Correcto. Vale, vale, vale. Porque dije al principio que como usuario de perroguía llevo el reloj en la mano derecha. Cuando voy paseando por la calle y muevo la mano, si estoy como un perroguía, la mano izquierda está prácticamente quieta agarrando el arnés del perro, pero la mano derecha puede ir balanceándose, con lo cual detecta que estoy paseando. Pero si quiero, por ejemplo, con la mano izquierda llevar el perro y con la mano derecha hacer algo rápido con el reloj, simplemente tengo que levantar la mano. Abro y cierro la mano dos veces. Se activa eso y ya a partir de ahí puedo moverme con el reloj. ¿Vale? Imagínate, por ejemplo, que necesito activar una aplicación o lo que sea. Con el puño dos veces entro dentro y con un solo puño cerrado y abierto te vas a la esfera inicial. Es como muy chulo. Es muy completo. A mí me encanta. Eso me ha vuelto loco. Es que el Series 7 lo hacía, pero cogía muy mal los gestos. Pero es que el Series 10 ha hecho algo. Apple que me ha vuelto loco desde el principio con esa... Con no vas por la calle con el perro en un lado, con la otra mano haciendo gestos raros con el brazo y con la mano y las gafas. Y las gafas Ray-Ban, la gente no está cerca, ¿no? También las tengo, ¿eh? Que, por cierto, enhorabuena por el programa primero. Me encantó. Gracias. También las tengo. Gracias. Cuando me voy a duchar, me voy a duchar con él, pero aprovecho para dejarlo cargando un poquito y para dormir me lo pongo porque me encanta que me monitoree el sueño. El monitoreo del sueño es muy completo. A mí me pasa lo que a mí, a mí, te levantas y lo primero que miras, ¿cuánto he dormido? ¿Cuánto he dormido? Sí, sí, sí. Y siempre me llevo mucho disgusto. Digo, tampoco he dormido. Me dice el otro día, cinco horas de sueño. Y yo me cago. Sí, pero es que además... Con razón. Pero no miráis lo de vigilia, REM y todo eso, ¿no? Sí, sí. Ahí voy. Sí, sí, sí. Pero es que después de esas cinco horas... Veo que el sueño profundo... Ahí está. El sueño REM... Que te deprime. Muy poquito, muy poquito. Cuarenta y cinco minutos. Y yo digo, con razón voy cansado todo el día. Así que es normal que tenga este carácter. A mí lo que me hizo el otro día fue una cosa muy loca. Alguien me llamó y yo le dije, pero hombre, a ver, me he llamado al móvil y te voy a coger la llamada. Y la criatura va y me dice, te he llamado, mira, al móvil. Y yo digo, pues a mí, no me ha llamado, vamos. Dios sabe quién habrá llamado porque a mí no me ha llamado. Porque vamos a ver. Entonces miro al móvil y sí me había llamado. Digo, vamos a ver qué ha pasado aquí. Estabas en el sueño. Esto como es. No. Que el muy bardito, yo estaba leyendo, estaba medio tirada en el sofá y estaba leyendo tranquilamente y el reloj decidió que yo estaba... Que estabas echado de la siesta. Claro. Y entonces él decidió que se ponía en modo descanso, que no es lo mismo que no molestar. Y entonces las llamadas de teléfono no entraban, no sonaban. Digo, pues muy bien. Eso que has decidido tú que estoy en modo descanso, ¿vale? Pero... Pero hablando de esto del sueño es fundamental, por ejemplo, darse cuenta para las personas que tenemos TOC, que a mí me viene bien. Yo cuando he visto que dormía tan poco he empezado a coger distintas cosas que me recomendaba el reloj, como por ejemplo, poner un horario de que a partir de las 10 de la noche todo se desactiva. Todas las notificaciones se desactivan. Todo. Me llega una notificación. Oye, son las 10. Te tienes que levantar a las 6. ¿Quieres dormir 8 horas? Vete ya a la cama. Y a partir de ahí pues se empezaron a monitorizar cosas como deja de tomar cafeína a partir de las 4 de la tarde. Eh... No te desactivo todas las cositas. Y mi sueño ha mejorado de 46 minutos a 1 hora 30. A mí parece una tontería, pero es casi el doble de sueño. Profundo, profundo. Porque te lo divide en distintas cosas. Profundo, ligero, REM. Eh... ¿Cómo es el otro? El fundamental creo que es. Y vas teniendo una serie de datos que no eras muy consciente de ellos y... Es mejor en la salud. Y aparte del sueño... Chicos, ya te coges tanta cantidad de datos que te vas a poner en el sueño. Y te vas a poner en el sueño. Y te vas a poner en el sueño. Cuando yo hace un año empecé a hacer deporte, cuando me han dado el informe ahora de la evolución del año, la gráfica de donde estaba, donde estoy es increíble, pero un montón de cosas que no te dice Apple directamente, pero que tú lo haces desde la aplicación salud, es increíble. Pero otra cosa que a mí me pasa, que yo sé que te pasa a ti, Emi, porque lo hemos hablado cuando llegaba el Apple Watch, el Apple Watch tenía lo de los anillitos. Este tiene una cosa parecida, pero bueno, viene a ser lo mismo. Yo todas las... puñeteras horas de mi vida me levanto, porque es que a menos 10 me dice te faltan 100 pasos. Me cago en la... Sí, bueno. Rosario en la día de la noche un día me mandó un mensaje diciendo aquí me tienes dando sarto porque me faltan 5 minutos para terminar el anillo de ejercicio. El anillo, exactamente. Pues tú pasas con el reloj, con el... Este te pasa igual, ¿no? Este te pone horas de actividad y te pone el... Bueno, te pone... No, lo puedes poner tú, ¿no? Lo que pasa es que yo no se lo he modificado. 250 pasos todas las horas. Entonces, en el trabajo, tú muchas veces me sentaba en el trabajo y me levantaba cuando me iba. Pues ahora no. Ahora me ves andando por el pasillo. Hola, buenos días. ¿Qué pasa? ¿Cómo llevas la mañana? ¿Dónde vas? No, a por un café. Los cojones. Lo que voy es... A hacer tu tracito de anillo. Para los oyentes, si me preguntaseis cuáles son las aplicaciones más fundamentales que deberíamos de conocer para el reloj, os recomiendo dos. Una es la aplicación Salud del iPhone. La congeláis, la configuráis y le dais todos los permisos que podáis. Y otra es la aplicación Fitness también de iPhone. Con estas dos aplicaciones vais a coger Salud y Deporte. Creo que junto con la aplicación Watch son las tres aplicaciones que más vais a utilizar con el reloj. Después podéis utilizar Notas, podéis utilizar no nativas de Apple, pero Watch para configurar el reloj. Fitness para vuestro deporte y Salud por su propio nombre. ¿Y vuestra vida? ¿Vuestra vida? Sí. Si de verdad os lo tomáis un poquito en serio, va a mejorar completamente y no es un mensaje publicitario. Y da igual que sea Apple o que sea Pixel. Es decir, si compráis un relojito de estos y os lo tomáis en serio, vuestra salud va a mejorar. ¿En serio? Es que... Pero que es una tontería, pero que el Pixel tiene de objetivo 10 plantas. Yo subo 10 plantas todos los puñeteros días. O sea, si tengo que ir a la tercera para algo, voy a ascensor. No, que luego me están dando los coñazos el reloj que dice que no he hecho las plantas. Voy andando. Aunque sea por eso, tú vas todos los puñeteros días, las 10 plantas, todos los días los pasos que te has marcado, aunque sea porque el reloj no te esté dando la vara toda la mañana. Y eso al final, aunque parezca muy poquito, porque al fin de cuentas, vamos a ver, tampoco te matan, ¿no? Pero nada más que eso ya hace que te mejore un poquito la salud. Y si ya encima es el deporte, pues ya ni te digo. Parece ser que Apple Watch solo es compatible con dispositivos de Apple, ¿no? ¿Esto es así? Sí, eso es así. No existe ninguna forma... No. No es como los AirPods que sí que puedes utilizar un Android con ciertas funciones limitadas, ¿no? El Apple Watch, no. Alguien que no tenga un iPhone o un dispositivo con iOS que no se compre un Apple Watch. No. El Apple Watch solamente tiene lógica si tienes un iPhone. Ni siquiera un dispositivo con iOS, es decir, no un iPad. No un iPad. Si no tienes un iPhone, no. Porque para utilizarlo de forma autónoma, es decir, sin conexión a ningún dispositivo... ¿Tienes posibilidades pero tiene que estar sincronizado con tu iPhone? Es decir, ¿tiene libertad? Yo me lo puedo llevar al gimnasio y utilizarlo perfectamente, elegir los entrenamientos, la música, la ruta incluso del GPS. ¿Tiene esa libertad? Pero... La configuración inicial. La configuración inicial, la sincronía de datos, etcétera, etcétera. Aunque tengas un Apple Watch LTE, sigues necesitando tener sincronizado la cuenta con un iPhone. Y en tu caso es igual, con el Pixel Watch 3, ¿solo funciona en Android? Sí, solo en Android. Lo que pasa es que, en teoría, porque no lo he probado, ¿vale? Si lo dicen las especificaciones, digo yo que será verdad. Pero, en teoría, funciona con cualquier Android. Yo, como tengo el Pixel, pues lo he probado con el Pixel. ¿Con iPhone no se puede? Ajá. No. Pone Android y te da el Android mínimo. Con lo cual, no puede ser iPhone. Sobre iPhone, yo no sé muy bien cuál es el iPhone mínimo que necesitas para un Apple Watch. No lo he preguntado nunca, pero... Con S2020, el Apple Watch S2022 funciona. ¿Con cuál? Con el 2020, ¿no? Con el 2020, sí. Bueno, con un 8, yo lo tenía el Apple Watch también. Pues fíjate, sí, sí, no. Te puedes ir muy atrás. Y el Apple Watch también tiene esto que ha comentado antes Rosa, que cuando tocas la pantalla por accidente con la manga de la camisa o cosas así, que no te hable o... Lo puedes configurar para que solamente le hable. O cuando levantas, o cuando tocas la mano, o cuando tocas la pantalla, o cuando tocas la palla y levantas la mano, o cuando solamente toques la corona. Es decir, es muy configurable. Pero sí es verdad que a veces te da falsos toques si tú no lo tienes configurado para... Falsos positivos, ¿no? Exacto. Sí, eso me gusta a mí decirlo. Falsos positivos desde que hemos pasado la pandemia. Todos conocemos falsos positivos. ¿Y tiene algún inconveniente? ¿Algo que mejorarías? Vamos a ver. ¿Qué mejoraría en el Apple Watch? Yo, a día de hoy, lo que habéis hablado, la independencia. Si algún día el Apple Watch pudiese ser un iPhone en miniatura con un iOS en condiciones, yo me plantearía no tener un iPhone. Porque, como dice Rosa, a veces puedo pasarme mucho tiempo sin utilizar el iPhone, sin sacármelo del bolsillo, si tengo unos buenos auriculares con el reloj. Porque en algunos sitios, por muy buen... Y lo habéis dicho vosotros. Pero... Muy buena altavoz. Pero... Me llama la atención, aunque no me sorprende, porque es la tendencia de la tecnología wearable, ponible o llevable. Es decir, la gente quiere prescindir de su terminal móvil en cuanto pueda y llevar todo el sistema o en las gafas o en la muñeca o en... quién sabe dónde. Si en un pin o donde sea. Y tiene su lógica también. No está mal. Pero bueno, yo creo que, aunque da tiempo, para que esa tecnología llegue a ser tan autónoma y tan autosuficiente. De momento... Si las gafas... Si las gafas que vosotros estuvisteis hablando el otro día, las metas en este caso, cualquiera, tuviesen una capacidad de ser autónomas sin tener un móvil encima, si mi reloj fuera autónomo y que mejorase con el móvil, pero que tuviese una autonomía importante, como ya lo hace, que gracias al cielo utiliza muchas cositas, pero esa dependencia de un... móvil. Pues es lo que te... puede llegar a decir el momento en el que el móvil ya no se puede actualizar, ya tienes que cambiar el... Porque trasladar el terminal móvil, el móvil es incómodo, ¿no? Realmente es un... un dispositivo que hay que llevar y siempre molesta, ¿no? Lo lleves donde lo lleves, siempre molesta, ¿no? Mira, para hacer deporte es un iPhone mío en concreto, es el 16 Pro Max. Es un ladrillo. Es... 7 pulgadas de bicho. Es... una tableta de turrón. Eso depende también para que... para que... Porque nosotros la pantalla nos da igual, ¿no? Pero la gente cada vez... que cada vez quiere pantallas más grandes además, teléfonos más grandes, en un reloj se le queda pequeño, ¿no? En un reloj no puede leer una página web, leer un libro, leer... Pero... Pero fíjate que curioso que es lo que yo dije hace un rato, que yo también... O sea, yo tengo ahora mismo por cuestiones de trabajo me caen muchos móviles a la mano, distintos modelos. Y yo tengo ahora mismo un modelo de Samsung que yo cuando lo saqué de la caja dije se han equivocado, esta es una tablet. Claro. No, no. Es un móvil. Pero... Vamos, es un móvil porque cuando lo encendí me dijo el nombre del móvil con lo cual dije pues no se han equivocado. Pero esto es una barbaridad. Y ahora resulta que me encuentro que en el reloj de las aplicaciones que más hay son de mapa y tú dices pues se dejará la vista aquí. Lo entiendo. A lo mejor pueden tener sentido quizás, a lo mejor lo que decíamos si vibra y te pueden indicar si es para la derecha o para la izquierda por vibración. Por ejemplo, para los conductores de motos por ejemplo, pues a lo mejor puede tener sentido, ¿no? O verbaliza algo que te dé indicaciones. Eso también tiene sentido. Sí, sí verbaliza pero vamos. El volumen de esto ya habéis visto que tampoco es que sea... Tengo un amigo que hace el Camino de Santiago que hace maratones y me lo dice me voy a comprar un reloj con LTE Android porque lo tengo claro la maratón son 42 kilómetros esos 200 gramos de peso del móvil no son los que más me gustan pero si estás haciendo deporte o estás haciendo bici pues mejor que llevar una tablet encima pues es mejor un reloj pero el que va a todo el metro al trabajo pues prefiero una tablet muy grandota para poder ir si no tienes ningún problema visual no, Arturo si no tienes ningún problema visual quieres pantalla quieres ir en el metro viendo tu serie favorita entonces quieres pantalla grande pero cuando estás haciendo deporte estás centrado en otras historias no estás es tú te llevas atrás de ti las gafas para hacer perdona que cambie de un poco de tercio te llevas el móvil me has dicho y el reloj las gafas te las has llevado alguna vez para hacerte deporte no no las Ray-Ban Meta que son las que yo tengo como gafas inteligentes no no las uso para hacer deporte y muchas veces me planteo hacerlo lo que pasa es que yo sudo muchísimo tengo cuando me pongo a hacer deporte doy todo lo que puedo y más y sudo pero bueno que me he cargado auriculares IP IP 55 y me he cargado y tengo ya que ir a los IPX7 que son los que se pueden meter en un cubo durante media hora pero vamos más de un metro de agua o sea más de un metro de profundidad y eso es en lo que me están tirando bien y las gafas es que no tengo nada claro nada nada claro ni aunque me lo digan que esas sean aguanten una sudoración constante tengo amigos y tú tienes un amigo en común conmigo que sí quiere hacer deporte con ellos todos los días Marcos pero yo no me atrevo tío y serían genial porque estoy seguro que muchas veces cuando llevo un rato podría decirle que me dijese qué es lo que ve en la pantalla de la elíptica o a cuánto estoy poniendo de fuerza la bicicleta para no tener que estar preguntándole al chaval oye ¿me puedes cambiar el programa? mira ahora me da pie una pregunta que tenía ¿pensáis que en este tipo de relojes algún día incorporarán la cámara? porque es lo único que le faltaría ¿no? pero tendría que ser una cámara muy chica ¿no? bueno las hay más chicas que las que tengo que las de las Ray-Ban Meta hombre a ver a ver las aislas como las meigas pero si los videntes a ver para nosotros maravilloso ya porque ya no me digas que no molaría espérate que voy a ver que pone en la carta del bar un momento giro la muñeca claro ahí quería llegar pero claro el mundo está pensado para la gente que ve para la gente que ve hacer una foto con eso con una videoconferencia o algo así pero para hacer fotos o vídeos al mundo pues es incómodo ¿no? tiene que hacer una foto tienes que girar la muñeca para hacer una foto con vuelvo a vuelvo a esto lo hablé una vez con un amigo si por ejemplo pones la cámara no es que claro es complicado pero en un borde en lugar de en el que está también era incómodo la cámara de los iPad y hay gente haciendo fotos con un iPad pero bueno hay gente para todo también luego hay gente para todo pero si es verdad no es tan complicado ¿qué capacidad tenía de almacenamiento vuestro 64 gigas el mío 64 gigas el mío y 32 el tuyo ¿no? vale , vale el almacenamiento interno no se puede elegir ¿no? en el Apple el Apple Watch es de 64 y ya está no si según el el Series que tienes por ejemplo antes tenía el Series 3 que era de 16 y tuve problemas a la hora de actualizarlo tenías que formatearlo completamente para poder actualizarlo luego pasó a 32 y 64 pero que no hay varias opciones es como es y ya está no no hay ni tampoco hay ampliaciones con micro SD y nada ¿y en el Pixel? también es como es pues no lo he mirado si se puede los modelos que yo haya visto todos llevan 32 y que yo sepa no le puedo poner un SD porque no hay donde meterse es igual es como es y ya está como tienen que aprovechar todo el espacio pero vamos le meten la aplicación de Google Drive y tiene ahí ya tiene espacio le preguntaba antes a Rosa ¿qué servicio se le iba a preguntar ¿qué servicio de streaming puedes poner ahí? porque streaming de música en el Apple Watch Spotify va también en Apple Watch ¿no? sí y Apple Music y en el Android solamente en el Pixel solamente Spotify ¿verdad? ¿no tienes alguno de Google propietarios? bueno claro YouTube Music que ahora lo engloba todo eso está muy bien ¿verdad? los que tengan YouTube familiar también lo pueden disfrutar entonces que bien claro claro bueno pues entonces ya sabéis dos Spotify lo tiene todo los dos y el mío tiene Apple Music y el suyo YouTube Music bueno entonces a ver no deja de ser lo mismo pero cada uno con su ecosistema me falta una última cosita si nos importa las todo el negocio que tiene Apple realmente no es ni venderte el reloj ni venderte la música son las correas o sea Apple ha hecho un ecosistema de correas tanto compatibles como originales que son súper sencillas de cambiar con dos botoncitos en la base del móvil del reloj por debajo y tienes correas de todo tipo desde deportivas de flúor estómeno que es de goma a deportivas de velcro de distintos colores y después ya tienes cuero acero titanio magnéticas desde 10 euros por ejemplo en la casa la carcasa o en Amazon hasta cientos de euros en Hermes Hermes no se dice Hermes nunca sé dónde se le pone el acento Hermes creo que es Hermes no estamos hablando de la tienda esta de moda de la marca de moda es una marca muy exclusiva de firma de trabaja de cuero titanio y acero lo habitual una correa de acero o titanio entre 50 a 100 euros puedes elegir color estilo diseño y el tamaño te lo te dan normalmente un kit para hacerlo tú en casa o te vas a una joyería o relojería y te la ajustan porque excepto los enganches al reloj que son con esos pasadores de que os he dicho de los dos botoncitos en la misma en la misma caja del reloj el resto de correa son el resto de la correa son totalmente idénticos a los que puedes tener en un reloj habitual cierre de mariposa cierre de velcro eso lo hace bien Apple Rosa aparte de esparto macramé lona y pana ¿alguna correa más para el Pixel? pues yo me imagino ahí un Pixel con correa de pan estaría chulísimo la semana santa que hace juego con el tema pues el Pixel lleva dos correas distintas en la caja de distintos colores yo me puse la que primero pillé porque ¿para qué? más me daba mi color y resulta que acerté me pega muy bien por lo visto y bueno pues también también venden correa de Pixel y fuera de Pixel vamos fuera de pero no le he enviado el precio la verdad ¿qué sistema de anclaje tiene en Rosa? al reloj o o puesto en la muñeca al reloj al reloj tiene como dos pivotitos que están por debajo del reloj digamos y se encaja y ahí se queda encajado no son las las normales de un reloj normal ¿no? no sé si lo has visto como un muellecito que tienen como dos pinchitos chiquititos a los lados tú colocas el los dos pinchitos a los lados y saltan como dos muellecitos y se ajustan y no hay quien lo mueva de aquí vamos que esto no esto no se suelta solo ¿eh? sí el sistema seguro Rosa los usuarios de Android que se lo están pensando ¿qué les dirías? que no se lo piensen que sí o que no que no se lo cumplen ¿para qué sí o para qué no? que sí que sí que sí que sí que sí que sí que sí que sí que se lo cumplen como me dijo cierto amigo mío en su momento que está aquí ¿verdad Emi? te quiero yo también te quiero cariño se puede se puede vivir sin reloj pero el día que te lo pones y lo configuras y llevas un día con el puesto y vivías sin él de verdad ¿cuántas lucas cuesta? ¿lo podemos repetir? este el que llevo yo puesto ahora mismo ahora mismo el día que se está grabando esto anda por los 300 el mío al día que estamos grabando unos 559 y bueno bueno si tenéis relojes antiguos por casa Apple suele hacer un trading de te cambio el reloj antiguo si entra dentro de cierta valoración Apple Watch no cualquier reloj pero sí, sí, sí Apple Watch Apple Watch no, no, no un Apple Watch antiguo y no todos el de los chinos del bazar no el que se ha perdido que para eso Apple es lo suyo vamos a ver sí por lo demás pues yo sí que he recomendado a mí me gustaría ampliamente a aquel que quiera tener un reloj y que esté dispuesto a pagar el precio este reloj está mucho más Scandinavian este reloj está mucho más completo que uno que simplemente te da la hora como el de pantallita que habéis dicho antes que se levantaba que mi padre lo tenía yo tenía uno bueno, tenía y tengo que también funcione el día que se me rompa puedo llorar muchísimo lo tengo mucho el de mi padre lo tiene mi hermano y lo sigue utilizando y mi hermano no ve perfectamente pero gracias a eso como era también de abuja pues lo utiliza y el reloj el de botoncito el talking watch son las 15 horas 35 minutos y si dejabas presionar el botoncito salteaba el gallo eso lo he sufrido yo y nunca he podido disfrutar de un reloj en condiciones hasta que no te dio un Apple Watch yo tenía uno de plastiquero que le dabas a la hora y eran son las 8 de la tarde yo decía pero que se ha tomado y mi madre me obligaba a llevarlo y como yo no lo quería llevar el pobre reloj tuvo un accidente irreparable y yo me decía vaya por Dios y yo me decía del cual ahora que mi madre no me oye evidentemente no fue sin querer y se acabaron los relojes parlantes para mí mi madre me llamó cafre y todo lo que os podáis imaginar pero es que aquello no es soportable efectivamente estos relojes son más caros pero dan muchas más funciones que los relojes que tenemos hasta no hace mucho tiempo sí, lo que ocurre es que para la gente que el Apple Watch que es el reloj que tiene Emilia no tiene un precio importante igual que el Ultra que ha dicho que varía 900 euros pero por ejemplo yo conseguí una oferta por la compañía de teléfonos de un S2022 por 200 euros es decir y básicamente tiene lo mismo lógicamente es más pequeño y no se oirá tan fuerte ni nada pero el sistema operativo es el mismo bueno, eso que dice Ricardo eso que dice Ricardo es verdad Apple cada X tiempo tanto en iPhone como en Apple Watch saca una versión SE Special Edition le suelen llamar que tiene el procesador del año a lo mejor la carcasa o la garlinga o como le queréis decir la estructura del año anterior y demás y con las funciones básicas es como el modelo de entrada pero es que realmente lo que os he enseñado de oxígeno en sangre electrocardiograma y monitoreo del ritmo cardíaco primero el ritmo cardíaco creo que lo tiene también el de Ricardo pero esto no lo he utilizado casi nunca una vez lo utilizas cuando lo sacas bien no, este no te hace electrocardiograma lo tiene el tuyo este no lo tiene lo quita y también lo de oxígeno creo que también el oxígeno también te lo quita, ¿no? o sí que lo tienes no, tampoco lo mide tampoco este tiene frecuencia cardíaca frecuencia respiratoria exacto pasos te contabiliza también tiene bastante cuestiones de salud pero estas dos especificas de oxígeno y electrocardiograma no, y creo que ninguno tiene aún porque no lo han aprobado la cuestión de la tensión eso no no hay ninguno que tenga oh, y el día que hay dos hay dos habéis dicho antes que mejoraría sí el monitoreo de la tensión y del azúcar el día que alguien consiga ¡guau, por favor! el día que eso lo hagan en un reloj ya me, vamos me ganan para siempre yo le pondría algo que no me hagan yo creo que es más sencillo que es el termómetro pero el termómetro sin tener que ser el basal sino el termómetro cuando yo quiera eso porque ahora también tengo termómetro para mi ciclo menstrual por lo cual pues ¡ay, qué bien! ya vas con la luna ya vas con el cambio de luna esos días que me siento un poco hinchado esos días que me siento un poco hinchado y enfadado pues ahora que lo estás diciendo, Emi el reloj mío también lo tiene lo que pasa que como te hubieran hecho un mes con él no no puedo es que es es identico es identico es identico se supone que está mal pensado sí, pero sin idea es lo mismo este también tiene este también tiene doble GPS la diferencia entre el Ultra 2 y el mío ese y el mío es que el Ultra 2 tiene mejores especificaciones para el buceo este sí que puede bucearse en aguas profundas hasta 100 metros el Ultra 2 la caja es de titanio mucho más grande un doble altavoz un doble micrófono y un botón para activar una especie como de bocina ¡wow! muy bestia y el cristal de zafira es muy bonito el guarde y el diseño Apple que es una maravilla también da gusto y yo ahora hablando medio en serio hay una cosa que me deja muy tranquila de los relojitos estos que son estas funciones que ojalá nunca nadie tenga que usar pero que te puede salvar la vida que es que te llama en urgencia si él ve que te pega que te pasa lo que sea te dice oye que te has puesto a 200 por minuto ¿estás bien? pues a lo mejor te has puesto a 200 por minuto por algo tocas el reloj y ya está y estás bien pero si no es que llama urgencia y es que llama ¿eh? correcto por ejemplo bueno de hecho yo estaba es que eso te pasa yo estaba en casa el otro día pisé un hueso de cuarip pegué un guarrazo al suelo y automáticamente mientras me estaba levantando me estaba diciendo el reloj he dicho te has caído ¿estás bien? si no respondes en menos de X tiempo llama a urgencia pero es que pero que llama ¿eh? que no juguéis que llama en una situación personal hablando con una persona que quiero muchísimo y que es familiar mío me dijo que si mi padre en paz descansa si hubiese tenido que irme si hubiese tenido un reloj de esto no es que le hubiera salvado la vida ni mucho menos pero mi padre murió de un ataque al corazón y él no sabía que le estaba dando un ataque al corazón porque no le dio el dolor del brazo él simplemente se sentía más cansado el reloj detecta que en X tiempo tienes el corazón muy alterado y no te estás moviendo entonces te saca una alerta y dice oye he notado que en los últimos 10 minutos no te has movido y tienes el corazón muy acelerado ¿estás bien? o quieres que haga un aviso a urgencia y incluso el mismo reloj tiene el botoncito alargado con lo que ha dicho Rosa que si lo aprietas durante 3 segundos te llama a urgencias y sale urgencia directamente por el reloj yo tuve un accidente me atropelló un vehículo hace unos años y al lado estaba un policía pero yo no sabía que estaba el policía al lado yo lo que estaba haciendo era dándole al botoncito urgencias porque yo solamente sabía dónde tenía el reloj en la muñeca él no sabía ni en qué calle me había pasado eso en ese momento cuando una persona tiene un accidente de ese tipo pierde un coche y ya el reloj estaba llamando dice exactamente en el punto en que está para que te localice calle número e incluso ellos ya lo reciben la llamada con esa información sabes lo que te quiero decir es muy útil este lo que hace es que te llama urgencias con la ubicación pero además le manda un mensaje a los contactos que tú hayas configurado exacto igual oye que Rosa está en tal sitio y que estoy llamando urgencias y tú ya pues tus contactos ya a lo mismo aplauden bien o lo mismo van a por ti unos amigos que tenía yo me pasó eso no me di cuenta que le había dado al botón de urgencias ¿vale? llamó urgencias y dije ay disculpe disculpe cuelgo y a los cinco minutos me empiezan a llamar mi hermano mi amigo Javi mi amigo Mario ¿qué te ha pasado? que vemos que estás en dos hermanas y que has llamado urgencias y es que cada cinco minutos nos está llegando el mensajito de que estás porque hayan llamado urgencias y por favor contactos de emergencia se le llama en la pinta interesante es lo que dice Arturo accidente en coche también te lo detecta caídas por la calle esa esa lo que no nos damos cuenta que está haciendo es cuando tiene la magia estos relojes ese monedero constante de que estás haciendo ejercicio y te dice como nota que hay más defectancia entre un latido y otro con lo cual eso se llama recuperación cardíaca te lo da en milisegundos y es una es un dato perfecto para saber si has mejorado en el estrés en el esfuerzo la calentanza la respiración a vivir un poco pendiente de los números y antes has hablado que tenías lo que tenemos toxi entonces si te obsesionas con eso yo tengo tox puede ser un poco para tu salud mental peligroso ¿no? es como todo si tu vida es un tox y tienes algo que te puede ir dando datos pues cuanto mejores datos tengas mejor es tu vida este también tiene una cosa que tenía el Apple Watch que es lo de respirar haz respirar una sesión al día de relajación y yo dije para mí mira me tiene aburrida o hago la sesión de relajación o te iré por la ventana y será la oye pues ya hago mi sesión de relajación de dos minutos que no es gran cosa pero la hago los entrenamientos si tienes compañeros que tienen relojes de este tipo le llegan los entrenamientos puedes competir se va diciendo quién va ganando la competición los puntos que se pueden conseguir hay un máximo de puntos al día hasta mandarte cincarios ¿no? cincarios para paralizar cerrado el anillo sí sí sí de hecho yo vas a permitir que te gane me cago en la leche ¿no? horrible horrible horrible o sea es buenísimo porque es otra forma de entretenerte con tus amigos y bueno yo te voy a agregar a ti Ricardo y a partir de ahí ya vas a tener ya te voy a tener aburrido de deporte por cuestión de actividad que se llama eso porque me tenía machacado y le dije o tú o yo o tú o yo y entonces como tenía otra alternativa yo soy más de ver el sueño por la mañana y quejarme también cuando veo que el sueño profundo no llega a madre mía sí sí sí ah que sí pero es curiosísimo digo yo el día que me dijo una hora veinte digo bravo bravo yo bravo ¿por qué? si a mí el otro día me dijo que había dormido nueve horas era un fin de semana obvio porque si no olvídate pero además es que es una tontería yo reconozco que esto son tonterías pero que te pueden cambiar la vida es lo que ha dicho Emi yo el otro día me iba a levantar era sábado quería hacer cosillas en casa tecnológica eran las siete de la mañana me despertaba y levanto y cuando me estoy empezando a levantar digo no que el reloj te va a decir que has dormido poco y dice es una tontería bueno sí pero era tontería eso que dormía dos horas más tenemos que ir terminando si queréis alguna última conclusión muchas gracias por haber estado con nosotros que ojalá no volváis a llamar que lo hayamos hecho suficientemente bien y que repitamos pronto os lo agradecemos mucho yo me lo he pasado muy bien espero que os lo paséis también escuchándonos nuestro lema ya sabes que es aprender y divertirnos y hoy sí hemos aprendido mucho y nos lo hemos pasado muy bien esperamos que la audiencia también eso es pues para ir terminando Ricardo cuéntanos los medios de contacto pues bueno voy yo con la dirección de correo electrónico gasbotas arroba segatos punto es y Arturo el teléfono de contacto por whatsapp tenemos el teléfono para mensajes de texto incluso de audio de a través de whatsapp si son de audio pues podremos ponerlos también aquí en el podcast a través del teléfono con el prefijo más 34 de España y el número muy bien ahí además de escucharnos por esta plataforma vamos a ver donde estáis ahora también tenemos más plataformas donde nos podéis escuchar que son pues estamos yo creo que en todas o en casi todas estamos en Apple Podcast en Evox en Youtube Spotify y no sé si me dejo alguna por ahí estamos en todas las posibles pues muy bien pues muchas gracias por llegar con nosotros hasta aquí os esperamos en el próximo episodio hasta luego hasta luego Godamy AG me APPLAUSE y sus aparatos ú y sus aparatos uón ? Podcast, podcast, podcast. Podcast, podcast, podcast. Podcast, podcast, podcast. Podcast, podcast, podcast.
Gafotas, cegatos y sus aparatos #16
Fecha: jueves, 3 de abril de 2025, a las 00:00:00
Hablamos de GPS, Galileo, GLONASS, Michibiki y otras constelaciones.
Descubrimos cómo un móvil puede saber dónde estamos con precisión... y cuándo
falla.
Recordamos dispositivos míticos como el CAPTEN, las antenas Bluetooth y los
mapas de Tele Atlas.
Analizamos aplicaciones como Lazarillo, VoiceVista o Blind Explorer, y sus
enfoques distintos: desde rutas con miguitas de pan hasta cotilleo auditivo
urbano.
Reflexionamos sobre errores, apagones satelitales, y cómo no fiarse ciegamente
(nunca mejor dicho) del GPS.
Un episodio lleno de historias, humor, anécdotas y mucha tecnología para que no te pierdas… o, si te pierdes, al menos sea con estilo y bien informado.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
GPS (Global Positioning System - Sistema estadounidense de posicionamiento global por satélite).
Galileo (Sistema europeo de navegación por satélite).
GLONASS (Sistema ruso de navegación por satélite).
Michibiki ()QZSS - Sistema japonés de posicionamiento por satélite (Quasi-Zenith Satellite System).
BeiDou Navigation Satellite System - sistema de navegación chino BDS.
IRNSS / NavIC - Sistema de navegación regional de la India.
Magellan Marca de dispositivos de navegación GPS, especialmente conocida en senderismo y automoción.
VOICEVISTA, UNA APP de iOS PARA EXPLORAR el entorno CON EL SONIDO – TifloEduca.
Lazarillo App - Navegación Inclusiva y Mapas Digitales (iOS y Android)
Vídeo promo Sistema de asistencia a la movilidad EasyWalk – Symbian – Italia.
Sendero Group (sitio web consultivo sin actividad).
Créditos:
Duración: 01:40:10
Descripción detallada del logo de Episodio 16. Sistemas satelitales de navegación para orientarse de oído.
En la imagen, hay dos personajes principales: un hombre y una robot humanoide. El hombre, que es el personaje de nuestro logo, está a la izquierda. Lleva un traje marrón que incluye una chaqueta, un chaleco y pantalones a juego. Su camisa es blanca y está complementada con una pajarita de color rojo oscuro. Su cabello está peinado hacia atrás, con un estilo clásico y bien cuidado. Tiene un bigote grueso y bien definido, que le da un aire retro. Lleva gafas de sol redondas con montura negra, lo que añade un toque de misterio y sofisticación. A la derecha, la robot humanoide tiene un diseño elegante y futurista. Su cuerpo es completamente dorado, con un acabado metálico que refleja la luz. Las articulaciones están bien definidas, mostrando un diseño detallado y articulado. La robot también lleva gafas de sol redondas, similares a las del hombre, lo que crea una conexión visual entre ambos personajes. Sus manos son metálicas y sostienen un teléfono móvil, al igual que el hombre. Ambos personajes están mirando sus teléfonos móviles, lo que sugiere una conexión o comunicación entre ellos, posiblemente a través de la tecnología. El simbolismo de la imagen parece centrarse en la interacción entre humanos y tecnología, representada por el hombre y el robot. En el cielo, hay una serie de satélites flotando, cada uno con paneles solares visibles. Están conectados entre sí por líneas de luz azul, formando una red que simboliza la interconexión global y la comunicación a través de satélites. El cielo tiene un degradado de colores que va del azul profundo en la parte superior al naranja cálido cerca del horizonte, sugiriendo un atardecer o amanecer. El conjunto de la imagen transmite un mensaje sobre la coexistencia y la interacción entre humanos y tecnología avanzada, destacando cómo ambos pueden estar conectados a través de redes de comunicación modernas.
Mostrar transcripción de Episodio 16. Sistemas satelitales de navegación para orientarse de oído.
Transcripción de Episodio 16. Sistemas satelitales de navegación para orientarse de oído.
y sus aparatos podcast Bienvenidos al decimosexto episodio de tu podcast favorito. ¿Qué tal estás Ricardo? Pues muy bien, con 16 episodios, muy contento y encantado de estar aquí ante los oyentes. Estupendamente, y otros cuantos que tenemos ahí ya en cola, preparados o cocinando allá a medias. Estupendamente, esto va sobre las ruedas. ¿Estamos súper ubicados o no estamos ubicados? ¿Cómo vamos ahí de ubicación? Bueno, no sé, yo estoy geoposicionado relativamente, no exactamente, pero creo que puedo mejorar mi posición si utilizo tecnología. Pues a ver si con nuestro invitado nos cuenta estas tecnologías y aprendemos todos un poco más de todo ello. Pasamos a presentarlo. Pues sí, no es un nuevo invitado. Es un invitado colaborador que repite y estamos encantados. De que esté aquí con nosotros. Y nosotros que Enrique Varela. Enrique, bienvenido. Hola, buenas. Yo encantado también de estar con vosotros y de no ser nuevo. Porque yo mayormente soy viejo últimamente. Es lo que me pasa. Pero bueno, no sé en cuál otro episodio estuve, pero me alegro de repetir. Y ya sabéis que yo contar lo que sé es mi afición vital. El mismo episodio que el mamá. El mambo. En Number 8. En Number 8. Pues 8 y 8, 16. O sea, muy bien. Pues nada, así contando lo que uno sabe, pues todo el mundo sabe lo que uno. Parece una tontería, pero está muy bien. Muchas gracias, Enrique, por acompañarnos otra vez y esperemos que sean muchos más. Y hoy el episodio va de GPS. Cuéntanos, ¿qué es esto de GPS? Global Positioning System. Bueno, más que de GPS, vamos de sistemas de geoposicionamiento. Que todo el mundo conoce. Todo el mundo conoce de GPS. Hace tiempo yo no había alguno cuando los típicos negacionistas de la tecnología o que cuando no lo entienden decían que era el gilipollas que se pierde siempre. Que es justo lo contrario. Pero vamos de eso, de todos los sistemas de geoposicionamiento. De saber por medio de tecnología dónde demonios está uno en la Tierra, pero con errores de lo más mínimo posible. Y si lo aplicamos a las personas ciegas y con definitiva. Con baja visión, yo creo que a todo el mundo le sirve bien, pero a nosotros mucho más. Cuanto más situados estemos, o sea, cuanto menor sea el error, estamos aquí y es aquí, pues más mejor. Y entonces eso ha ido avanzando y efectivamente antes era menos preciso. Cuando en la época de lo que digo yo de los taxistas, pues era eso. Era que los taxistas, por lo menos, no sé, supongo en todas las ciudades, pero en Madrid la gente recordará que iban con... Sus guías aquellas kilométricas, eran libros enormes, gordísimos, para buscar las calles. Y bueno, depende de dónde cayera y tal. Y no les gustaba nada el GPS porque parte del taxímetro se iba mientras buscaban y todo eso. Y entonces les caía muy mal el GPS. Y uno me dijo, eso es una mierda, esos gilipollas que se pierden siempre, eso no sirve. Yo no lo pondré nunca. Y así, pero bueno, cosas, anécdotas. Este es el más llamado GPS porque GPS son dos partes, ¿no? Por uno está el posicionamiento. El punto en sí que te dice única y exclusivamente dónde estás, el punto en el espacio en el que te encuentras. Y luego está la cartografía, cómo llevarte de un punto a otro y todo eso, que eso ya es otra cosa, ¿no? Lo que pasa es que a todo le llevamos GPS. Pero bueno, para empezar por el principio, cuéntanos técnicamente en qué se basa el GPS, cómo llegan en nuestros dispositivos que tenemos en la mano, en el bolsillo, cómo pueden llegar a saber en qué posición estamos. Porque, bueno, he explicado un poco para civiles, para el Común de los Mortales, porque esto puede complicarse un poco porque es una de las aplicaciones prácticas, ¿no?, de la teoría de la relatividad de Einstein. Decimos mucho GPS porque es el más popular. Es como cuando decimos un tupper, ¿vale? Porque es una marca de, ¿cómo se llama?, de recipientes herméticos. Pero GPS es el sistema de posicionamiento, es verdad que fue el primero, norteamericano o estadounidense, o como dicen ellos, americano. Yo prefiero decir norteamericano porque hay mucha más América, pero bueno. Y entonces le llaman GPS a ese, pero está bien llamado, además, yo creo que de los nombres de todos. Pues está el japonés y sí, sí, bueno, hay más, incluso el de la India. Después si eso lo repasamos, pero GPS sí que está muy bien llamado porque, aparte de que pudiera ser un nombre comercial, pero sí que es Global Positioning System, que es sistema de posicionamiento global. Es decir, en cualquier parte del globo que es el mundo, te puede posicionar. ¿Y cómo funciona? Pues bueno, se lanzan satélites. Sabéis que hay satélites por ahí dando vueltas cada vez más alrededor de la Tierra, bueno, alrededor o no alrededor, eso sería bueno que lo conocierais, como dices tú, los civiles, que hay satélites que siempre están en el mismo punto, encima de nosotros, con un azimut concreto, es decir, a unos grados concretos, es decir, si miramos por la ventana y lo vemos, puede estar a 30 grados, en nuestra cabeza haría un zoom, de un ángulo de 30 grados, o de 60 si está más alto, como si estuviera el Sol un poquito más alto, o de 90, o de levantar la cabeza del todo y está en el Zenith, arriba, justo como cuando el Sol en el Ecuador a las 12 de la mañana, pues arriba, arribota del todo como una lám Roberta en el techo. Eso es un poco el azimut, también, bueno, no es exactamente eso azimut, pero sí que es los grados a los que está el satélite. Y puede estar geoestacionario o no, es decir, dar la vuelta a la vez que la Tierra, es decir, siempre, siempre, siempre, siempre, siempre, siempre, siempre, siempre, por lo menos Celaí. Siempre, siempre ahí, o puede tener una órbita, puede ser elíptica, o puede ser, bueno, puede tener una órbita que pase, pase por encima de nosotros, a la inclinación que pase, pues con una frecuencia concreta. Bueno, como había satélites que se lanzan con muchos propósitos, sobre todo militares, que llevan cámaras, que llevan cosas, que llevan un montón de historias, unas cosas de las que llevan, las que nos vamos a fijar para este tema, son relojes atómicos, que son relojes, que, bueno, otro día podríamos hablar de ellos, muy complicados, pero son muy exactos, de mil millonésimas de segundo, son los que miden el tiempo de la forma más precisa posible, y por otro lado saben dónde están, con respecto por su órbita y tal. Entonces, hay satélites que, generalmente, bueno, algunos están dedicados y otros, ahora mismo ya, están para otras cosas, pero también hacen eso, nos están diciendo constantemente, soy el satélite tal, estoy aquí, y te mando esta señal a las tal, no a las 4 y 10, no sé qué, es una medida atómica, pues es un tiempo, una cifra única, que representa un momento en el tiempo, una cifra atómica, no, una ciframas concreta, un número, que significa el tiempo atómico, que no son las 4 y 10, ni las 5 y 20, sino a lo mejor es 7000, no sé qué, etcétera. Eso es, sólo esa vez se va a producir en la vida, y es ese momento. Bueno, y eso es todo. Bueno, nos vemos en el próximo vídeo. Hasta luego. Entonces, van diciendo eso constantemente. Y entonces, hay receptores abajo, ahora mismo nuestros propios teléfonos móviles, etcétera, que tienen receptores de esa señal, es una señal de radio, muy precisa, y que reciben esa señal, y dicen, coño, este satélite no sé qué, me ha mandado, que está ahí, en tales coordenadas, y que ha mandado una señal en tal momento. Mi reloj, que es de cuarto, y que es mucho menos exacto, tiene más error, aunque es mucho más exacto que los demás, y que es mucho menos exacto, y que es mucho menos exacto, y que es mucho menos exacto, y que es mucho menos exacto, y que es mucho menos exacto, y que es mucho más exacto, y que es mucho más exacto, y que es mucho más exacto, y que es mucho más exacto, que los relojes de antes, pero bueno, tiene su rollo. Pues dice que han pasado no sé cuánto, no hablemos de, bueno, si queréis lo pasamos a minutos, ha pasado tres segundos. Ostras, pues esto es que el satélite está a no sé qué distancia. Bueno, pues ya sabe a qué distancia está un satélite. Si esto lo recibe de uno, no se puede hacer nada con ello, porque sabes que estás, bueno, a tal distancia de un satélite y ya está. Si lo recibes de dos, ya se puede trazar un círculo, porque los dos, como no se puede, porque están en el mismo sitio, no te van a mandar la misma posición. Te van a mandar un tiempo distinto y una posición diferente. Y dices, ah, caramba, pues estoy en un círculo que tiene este radio, pues tengo que estar entre Málaga y Santander. Yo creo, joder, son muy grandes, bueno, vale. Si recibo tres, ya puedo calcular más y puedo ya saber que estoy en un punto más o menos con bastante error. Pero ostras, dices, no, no, joder, estaba en Málaga. Málaga, no, no, no. Bueno, bueno, bueno, bueno, bueno, bueno, bueno, bueno. Y más o menos, y muy aproximado. Porque lo que se calcula es la velocidad de la luz, claro. Y la velocidad de la señal. Y dices, bueno, pues ya, pum, estoy aquí. Y si ya recibes cuatro, que es lo mínimo que se puede recibir, hace lo que llaman la trilateralización, que es, con el cuarto ya se puede ajustar el error de tu reloj, del reloj del receptor. Es un poco difícil de explicar, pero con la cuarta y con una ecuación ya de cuatro incógnitas el tipo ya calcula, o sea, el tipo que es, en este caso, es tu teléfono. Ya calcula y dice, si tengo estos tres que me han dicho que están donde están, con esta distancia, y además mi reloj tenía una deriva no sé qué, pero el tiempo atómico exacto es tal, ostras, no hay más narices de que estoy en, no en Málaga, sino en Málaga, en la calle no sé qué número tal. Ah, caramba. Y ahí ya lo ajusto. Eso es un poco incomplicado. Las máquinas son muy complicadas hablando, ¿no? Pero es un poco incomplicado. O sea, pero simplificando un poco lo complicado que es, si lo pensás que son las máquinas, cómo te sitúan, cómo tu propio teléfono puede saber dónde está recogiendo señales de al menos cuatro satélites. Esto ocurre igual en todos los sistemas. Tres es menos exacto, dos es muy inexacto, uno no sirve para nada. De hecho, un teléfono que viera uno solo ni siquiera te daría posición, te diría que no tiene cobertura. Hoy por hoy, antes, cuando empezaron a salir estos sistemas, habrá gente en la audiencia que recuerde, pues no sé, el Capten o los primeros TomTom, que eran, que eran GPS, bueno, vamos a llamarle como se le llaman vulgar GPS para guiarnos o para saber dónde estábamos, pues te hablaron de cobertura. Ah, pues veo tres satélites. Ah, pues no puedo porque, puh, pues es que ahora, pues no hay, ¿no? Entonces, hoy ya esas cosas se obvian y o la hay o no la hay. Y si la hay, es que hay algo. Y al menos cuatro satélites que se están viendo y que te dan una precisión, pues mira, yo ahora navego mucho con el Voice Vista por la calle, con mi perro por medio del bosque, y se dan precisiones de dos, tres, cuatro metros que, bueno, todavía para una persona ciega, chocarse con un poste no llega ni llegará nunca porque el sistema de aproximación final no tiene que ser GPS, sino algo que te diga, ¡eh, cuidado!, pero vamos, para saber dónde estás perfectamente o marcar puntos te da perfectamente. Y claro, si vas en movimiento, como los satélites constantemente, no sé a qué frecuencia, pero están mandando esa historia, ¡oye, soy el satélite y dale, estoy aquí, lo he mandado en este tiempo! Y te lo mandan cuatro y estás viendo al menos siempre cuatro, pues tu aparato sabe calcular dónde estás. Lo demás viene después por añadidura, dónde estás, bueno, después habría que hablar dónde estás, acaba siendo una coordenada, grados, minutos, segundos, longitud y latitud. Sabéis los que eso, latitud. Los que eso, la Tierra dividida en cuerdecitas, es decir, tenemos meridianos y paralelos. Los paralelos van paralelos al ecuador, el ecuador es la raya del medio, y los paralelos hacia el polo norte, hacia el polo sur. Y los meridianos, pues en el otro sentido, en el sentido de arriba a abajo. Hay uno que pasa por, dicen que por Cádiz, pero no sé, bueno, pasa por Valencia, por la provincia de Valencia, por Castellón, creo. Ahí sería probablemente el cero. Y Greenwich, por supuesto, lo llaman meridiano Greenwich porque sí que pasa totalmente en esa ciudad. Y esa marca, aparte de la parte horaria, el cero, pues es el cero. O sea, si uno se mueve hacia la coruña, hacia el oeste, pues van siendo números negativos. Y si se mueve hacia el este son números positivos hasta que llegas al 180. Y en vertical, pues igual, el ecuador es cero y si vas hacia los polos, pues más o menos. Hacia el polo sur menos y hacia el polo norte más. Y al final acaba siendo en grados, minutos, segundos. Pues cuanto más líneas traces, claro, los normales es el ecuador, los dos paralelos, el trópico de cáncer, el de Capricornio, que son los trópicos que van paralelos al ecuador. Y en meridiano no sé si pasa algo parecido. Está el de Greenwich y yo no conozco calles así limitadas. Pero bueno, son líneas imaginarias y puedes trazar todas las que quieras, cuanto más preciso seas, más sabes dónde está. Entonces una coordenada es eso. Yo estoy en la tal de Greenwich. Yo estoy en la tal y tal en longitud y en la tal y tal en latitud. Y eso es lo que te acaba dando es que tienes que estar aquí. Cuando yo era hippie pequeño y paseaba por Menorca sin nada, porque no había nada, lo hacíamos con mapas militares, una brújula y el sentido común. Y encontrabas un pozo, que era lo que se buscaba cuando andabas por ahí de rule, pues con un error de 100 metros o por ahí. Y tenías que buscarlo. Y ahora, pues la verdad es que se encontraría con nada, porque la precisión es mucho más grande. No sé si lo he explicado bien, pero un poco el meollo de la parte técnica está ahí. A partir de ahí es donde ya se pueden hacer guías, o sea, cómo guiarte o en la montaña saber en qué accidentes geográficos estás, o en el campo, en el mar, pescar. En fin, a partir de ahí, sabiendo dónde estás y a dónde quieres ir, también se puede hacer una ruta, etcétera, etcétera. Eso viene después. La base es un poco eso que entiendo que es un poquillo complicada. Pero no sé, yo creo que he tratado de explicar lo mejor que me ha salido. Está bien explicado, Enrique. Vamos, por lo menos yo lo he entendido, con lo cual supongo que lo habrá entendido casi todo el mundo. Porque es una circunstancia que no se conoce, pero explicada como tú lo has explicado, pues tiene todo su sentido. Yo solo me quedó una duda. Vamos, sé que el sistema o la constelación de satélites GPS se están emitiendo. Soy tal satélite, estoy en tal punto, es tal hora y es una información. Son captadas por receptores. Supongo que irán drones, irán vehículos en todo tipo de, bueno, de dispositivos. Pero me voy a centrar en los terminales móviles. ¿Tú cómo distingues y cómo recibes la señal del satélite o de los distintos satélites? Porque ahora estamos hablando de GPS. Pero parece ser que existen otros sistemas. Existen otro tipo de satélites de otras naciones, de otros continentes y demás. Y son compatibles, es decir, en muchos casos pueden convivir. ¿Cómo el receptor distingue eso? Primero, son distintas frecuencias. Son frecuencias de radio y en principio un receptor, una antena que va dentro de tu teléfono. Ahora ya no se ven, ¿no? Como en los móviles de antes que tirábamos de la antena. Ahora ya sabéis que a la física se la engañan. La antena está dentro. Pero es una cosita de... ...pequeñísima que ni la ves. Bueno, pues si la antena de nuestro receptor está preparada para las frecuencias de GPS, recibirá solo la constelación de GPS. Y la constelación de GPS no recuerdo ahora cuántos satélites tiene, porque esta es otra historia que, bueno, que habría... ...que yo ni me he documentado porque creo que no es exactamente... O sea, lo que es interesante de esto es... ...no que yo me sepa de memoria cuántos satélites tiene la constelación GPS. Y cuántos la Galileo. Y cuántos la China. Y cuántos la rusa. Las GLONASS. Y, pues, pero... ...cuantos más se tengan, lógicamente... ...la precisión va a ser... ...no la precisión, sino la posibilidad de que en cualquier parte del mundo tengas señal... ...tengas señal de al menos cuatro... ...va a ser más grande, ¿no? Entonces, bueno, pues... ...GPS me parece que tenía treinta y tantos. Unos son geoestacionarios y otros tienen órbitas. Porque también están dedicando satélites que sirven a otros propósitos... ...a también emitir señales GPS. Y entonces se juntan. Y después, si lo ponemos a complicarlo... ...también está que las aproximaciones ahora también se hacen... ...los teléfonos. La hacen con las antenas de los repetidores de la señal 4 o 5G. Porque una antenita de 4G o 5G con la que tú te comunicas por teléfono... ...también te está diciendo... ...le está diciendo a tu teléfono... ...constantemente, oye, antena tal y estoy aquí. Y entonces, si eso lo juntas también con lo que está recibiendo el satélite... ...más precisión tienes. O... ...y perdón un paréntesis, ahora vuelvo... ...no voy a dejar de contestar creo bien a la pregunta... ...o te pasa lo que en mi barrio que han puesto un repetidor de GPS... ...de mierda, perdón que lo diga así... ...y todos los coches y todo el mundo se pierde en un círculo en mi barrio... ...o no hay cobertura GPS en determinada parte de mi barrio... ...porque no se sabe a quién se lo va a dar. Y bueno, si no hay que pedir que lo arreglen... ...los taxis no pueden llegar a tu dirección y no sé qué por qué... ...porque a veces los teléfonos y los programas de teléfono... ...prevalecen. La antena con el satélite puede haber errores... ...también la antena de aquí de Santa Eugenia... ...y les lleva a otra calle. Y pasa hace tres años, antes de la pandemia... ...pasa y no la arregla nadie. Pero bueno, antes había una antena en un cerro... ...cuando había 4G y 3G... ...y esa la quitaron porque dijeron que la de 5G era mejor... ...y la han puesto encima de una casa o no sé qué... ...y bueno, todo el mundo en aquel círculo... ...vamos, hasta el punto que tú quieres salir de mi casa... ...y poner el GPS... ...y el Google Maps no te coge... ...o sea, no sabe llevarte hasta... ...le tienes que ir tres manzanas más para allá... ...y pedir la dirección y eso ya funciona. O sea que... ...y bueno, volviendo a lo que preguntaba... ...que cómo lo recibo... ...bueno, recién por radio... ...¿qué ha pasado? ...que cada vez... ...por unas señales de radio... ...cada vez los sistemas están cooperando más... ...y haciéndose compatibles... ...y cada vez los teléfonos ya tienen... ...por ejemplo, a partir de... ...ya ni se dice, pero a partir de no sé qué modelo de iPhone... ...la antena que llevan también recibe la constelación Galileo... ...que ese es el nombre de la constelación europea... ...Europa tuvo su propio proyecto también... ...tiene su propio proyecto de... ...cuando ya existió el GPS después... ...cada... ...ha habido gente que ha dicho... ...¿y por qué vamos a depender sólo de los norteamericanos? ...¿quiénes? ...por cierto... ...hasta los años 2000 se introducían errores... ...a posta... ...porque era un sistema que se suponía militar... ...y entonces no querían... ...y en determinadas zonas y en determinados momentos... ...pues no querían... ...que la gente se pudiera meter en determinados sitios... ...o lo que fuese... ...la cosa que... ...que hasta que ya se pusieron de acuerdo... ...y ahora dan los datos exactos... ...los propios satélites mentían... ...claro, porque si un satélite dice soy tal... ...y estoy aquí... ...pero no estoy aquí... ...que estoy un poquito más al lado... ...pues ya los cálculos empiezan a fallar... ...bueno, ahora esto ya se está... ...vamos, está bastante arreglado... ...entonces se hacen más compatibles por un lado las constelaciones... ...por ejemplo el sistema japonés es muy compatible con el norteamericano... ...el japonés tiene una peculiaridad muy curiosa que... ...que bueno, puedo hacer un paréntesis y contaroslo... ...que es eso, que es que... ...uno de los problemas de los satélites... ...hablábamos antes de los grados a los que puede estar... ...un satélite, es decir, uno mira por la ventana... ...si está despejado porque no hay casas enfrente... ...y el satélite, imaginaos un sol... ...está ahí como a la altura de nuestra nariz... ...pues muy bien, pero si estás en Nueva York... ...son señales que van... ...son de onda muy corta y van... ...van muy... ...muy direccionales... ...y hay 40.000 edificios... ...ese satélite no le ves... ...y es muy fácil que en las estaciones... ...muy fácil que en las calles muy estrechas... ...o muy anchas pero con edificios muy altos... ...y pasadas siempre, hay rebotes de señal... ...que despistan y que influyen en los cálculos... ...y Japón una de las cosas que ha hecho es poner... ...satélites geoestacionarios... ...o sea que van, siempre están encima de Japón... ...o de un punto de Japón... ...giran a la vez que la Tierra, pero además en el Cénit... ...arribota del todo... ...con lo cual la señal baja y aunque estés... ...en Osaka, allí debajo de la calle... ...con edificios no sé cuántos, esa señal si te llega bien... ...y precisa... ...entonces, bueno esto ya son detallitos... ...pero... ...pero muy importante porque cuando hay sombra... ...por ejemplo en este caso la altura de los edificios... ...las calles estrechas sería otro... ...problema ¿no?... ...el tener un satélite... ...geoestacionario... ...trabajando para ti en conjunto... ...con el GPS... ...pues te da valor y te da sobre todo precisión... ...que en este caso es lo que ellos buscarían... ...porque andarían algo perdidos... ...Mitsubiki se llama el sistema... ...Mitsubiki sí... ...significa guía... ...y bueno pues... ...ya digo cuanto más... ...acuerdos hay entre todos... ...está por una parte la compatibilidad de las antenas... ...de tu receptor... ...en este caso si queréis nos ceñimos a los móviles... ...para ir yéndonos a lo que usamos todos los días... ...cuando ponemos que me quiero ir para allá... ...y o que dónde estoy... ...ojo que eso también a veces lo utilizamos poco... ...pero yo donde estoy se lo pregunto al reloj muchas veces... ...donde estoy... ...donde estoy... ...donde estoy... ...donde estoy... ...donde estoy... ...y... ...si a veces que estás perdido por ahí paseando... ...y dices ostras... ...y entonces dependen las antenas del receptor... ...y también de la compatibilidad... ...los acuerdos que van haciendo... ...entre todos los sistemas, todas las constelaciones... ...para estar de acuerdo entre ellas que cada vez... ...en principio son más... ...pues bueno, pues puede venir la política... ...y se pueden pelear... ...y a lo mejor ahora me desconecto yo de GLONASS... ...pero vamos de momento no ha pasado... ...porque ahora está mejor esa parte... ...y la de los... la del hardware... ...nuestro que tenemos en la mano pues también... ...claro, o sea cada vez se... ...se pueden leer digamos más señales de más satélites... ...con lo cual ya no nos importa... ...tanto si recibimos de GLONASS... ...o de GPS o de... ...sabes o de... ...sino que sabemos dónde estamos... ...pero si nuestros receptores son mejores ¿no?... ...nuestros móviles y demás son... ...más inteligentes y... ...tienen mejores relojes internos y demás... ...y somos capaces de... ...captar más satélites... ...con más precisión... ...y más sistemas... ...porque la... ...precisión no mejora porque solemos andar por unos 5 metros... ...en el mejor de los casos suele decir... ...no debería bajar esto hasta unos... ...centímetros, sería mucho más útil... ...bueno, de hecho... ...de hecho en aplicaciones militares... ...sí que se baja eso... ...o sea ahí sí que hay diferencia entre... ...entre civil y militar como suelen decir los... ...los informáticos... ...no, esto es para civiles, esto es para militares... ...no, sí se puede... ...de hecho se puede, pero... ...pero no se quiere... ...en la campaña de promoción de Galileo... ...eh, uno de los slogans que decían era... ...que podía ser 5 veces más preciso... ...que GPS... ...no, y lo es, de hecho, y lo es... ...¿5 veces más preciso?... ...sí, sí, en ese, sí, sí... ...con menos esfuerzo, con menos... ...con sólo 4 satélites... ...es 5 veces más preciso que... ...según sus estudios, que GPS con... ...satélites, ahora, después lo que... ...te dan... ...de precisión, eso ya es otro externo... ...pero no se nota para nosotros en la práctica... ...no, no, no se nota, no... ...hombre, no se nota, que a lo mejor... ...si estás conectando Galileo... ...recibes antes... ...hombre, los GPS esto... ...no se suelen perder, porque después, bueno... ...ya si vamos bajando a lo cotidiano... ...montado todo este sistema... ...¿qué podemos hacer con esto?... ...y diría yo, ¿qué se puede hacer con esto?... ...pues eso, saber... ...primero, hacer cartografía digital... ...eso, para la gente que no os lo hayáis... ...planteado, pues es... ...mapas, que en vez de estar en un papelico... ...están metidos en ficheros... ...y se sabe cada punto... ...de cada calle, de cada montaña... ...de cada accidente geográfico, de cada meandro... ...de cada río... ...se sabe en qué coordenada está... ...con precisión, entonces... ...leyendo lo que te dice... ...tu teléfono... ...que ha visto 4 satélites... ...y te dice que estás aquí, y comparándolo con... ...el mapa, dice... ...ostras, esto es Betanzos, o sea, no puede ser otra cosa... ...tiene que estar en el Ayuntamiento de Betanzos... ...no hay otra, eso sí que es lo que hacía... ...yo en Menorca, vamos... ...coges una vez que tienes las coordenadas y la brújula... ...y no sé qué... ...pues esto, recorres el mapa y dices, esto tiene que ser esto... ...nosotros nos equivocábamos más... ...porque el cálculo era más vasto... ...lógicamente, pero... ...pero es eso... ...te sitúa ahí, y entonces... ...sabe dónde estás, eso ya sería... ...la cartografía digital... ...hay una cosa muy bonita de cartografía... ...digital, que bueno, había antes... ...aplicaciones mucho más divertidas, porque ahora... ...lo que llamamos popularmente... ...GPS, se dedica mucho a la conducción... ...afortunadamente, últimamente... ...se está orientando más ya a lo pedestre... ...pero era muy a la conducción... ...y se perdieron mucho... ...yo cuando empecé a trabajar en esto, a final de los 90... ...eh... ...cosas para... ...para personas... no, había mucho Magellan... ...y muchos, muchos receptores... ...que tendían más... tú ibas por ejemplo... ...en el tren de Coluña a Madrid... ...o de Madrid a Coluña, y te contaban más que dónde... ...estabas, que también... ...que está el cerro no sé cuántos... ...que habías cruzado el río no sé qué... ...que te contaban más los accidentes... ...geográficos, que a la gente... ...de montaña y eso le sigue interesando mucho... ...y a la gente que es de senderismo... ...y ha desaparecido mucho... ...porque se dedicó más como a las guías... ...de conducir, que te tienes por la calle... ...y tal y cual, pero ir por encima de la tierra... ...y saber dónde estás... ...o qué cosas hay, o que está la cuevecilla... ...del fantasma... ...pues es interesante... ...y eso sí se puede saber... ...y entonces una cosa muy bonita que... ...yo hice alguna vez, no me acuerdo con qué aplicación es... ...proyectar un mapa de... ...del siglo... ...no me acuerdo qué siglo era... ...siglo XVIII así de Madrid, del centro de Madrid... ...sobre una... ...aplicación GPS, entonces tú ibas... ...en un taxi y sabías lo que había en el momento... ...en el siglo XVIII donde tú estabas andando... ...muy divertido... ...porque... bueno... ...es un juego que se puede hacer... ...los sitios están localizados, la Puerta del Sol... ...o el Palacio de Cibeles... ...o yo qué sé, o cualquier sitio... ...un punto, era claro y a partir de ahí... ...tú trazas el mapa que había... ...y efectivamente... ...puedes saber qué había ahí... ...cuando hace tres siglos... ...hombre, pues un viaje en el tiempo, ¿no?... ...sí, sí... ...el tiempo y el espacio en este caso, porque sabrías... ...exactamente dónde estás... ...eso depende ya de la cartografía y de los mapas que se utilizan... ...en cada momento para... ...se da esa señal GPS... ...esa geolocalización... ...la cartografía y los mapas que se pueden utilizar... ...para este tipo de cosas, ¿no?... ...y además esto ha ido evolucionando una barbaridad... ...yo me acuerdo con los más viejos del lugar... ...hace mucho tiempo... ...me acuerdo con mi Nokia N70... ...que no tenía GPS todavía... ...y que había una aplicación que te... ...geolocalizaba por... ...como he dicho antes, que iba triangulando por las antenas... ...de telefonía móvil, se llamaba GeoMinder... ...que era para ponerte recordatorios... ...y cuando llegabas a lo mejor... ...no tenías mucha precisión... ...y era muy curiosa... ...pero para decirte dónde estaba... ...una parada de autobús o cosas así... ...tenía su utilidad, cuando te acercabas... ...te saltaba un aviso... ...y me acuerdo que le escribí al autor de la aplicación... ...dije el uso que... ...le estaba dando y yo creo que se le dieron... ...los ojos como platos... ...porque nunca se lo imaginaba... ...además era muy accesible la aplicación en Symbian... ...y me dijo que le pasara a todos los... ...contactos de decir... ...que les regalaba la licencia gratuita... ...a todos ellos... ...y estuvo muy bien durante un tiempo... ...cuando estaba aquella aplicación estuvo muy bien... Yo jugué con aquello sí, porque no leía... ...satellites, leía sólo... ...las celdillas, bueno los repetidores... ...los repetidores de telefonía móvil... Repetidores y luego hubo... ...otros que integraron aquellos... ...puntos wifi que tenían... ...era como un sistema que había donde también... ...georreferenciaban el punto wifi... ...particulares... Realmente se podría hacer... ...el problema de esto también... ...que no lo hemos citado vamos donde pierdes... ...todo es en túneles... ...en cuevas y en el interior... ...dentro de los edificios... ...porque no hay señal GPS... ...o es... ...no es suficiente porque lo que te esté entrando por una... ...ventana como comprenderéis... ...no llega para cuatro satélites a lo mejor... ...el horizonte de una ventana ves uno... ...o uno y medio o dos... ...o dos o tres pero para ver cuatro... ...y además tendrías que estar pegado a la ventana... ...pero en medio del salón... ...el impacto es enorme no ves nada... ...si la señal de Bogotá y demás pues tampoco... ...es una señal incuble... ...y los que hayáis ido en coches... ...que sois todos... ...sabes que en los grandes túneles... ...pues ahí se acabó la historia... ...una oscuridad... ...la cuestión es ¿es transparente o... ...o no es transparente... ...el número de satélites en el que te conectas... ...si tú sabes en cada momento si estás... ...a tres, cuatro, cinco... ...es lo que te digo eso antes que era... ...más de moda... ...era más antiguo... ...es un poco como ahora con la... ...sin pasarnos eh... ...como ahora con la inteligencia artificial... ...que estamos todos jugando con siete... ...ocho, nueve cosas a la vez... ...que qué modelo es... ...estamos en el despegue de la... ...llegará un momento que nos dará... ...exactamente igual... ...que cogeremos el teléfono y... ...tú inteligencia chati dónde estás no sé qué... ...y te dará igual y con qué me he conectado... ...bueno pues esto era igual... ...sistemas como por ejemplo el Captain aquel famoso... ...esos ciegos recordarán que fue el primero... ...que por cierto traje yo a España... ...a raíz de... ...de anécdotas que os contaré ahora... ...de trabajar con estos temas de... ...interfaces para personas ciegas para cómo guiarlas... ...pues... ...si que te contaba cuántos satélites... ...veía... ...es que ahora es irrelevante porque si no hay... ...si no hay condiciones... ...para que te guíe te dice que no hay señal... ...para qué te vas a andar preocupando... ...esto es lo de siempre... ...ahora mi pareja pues... ...que tiene un Toyota Corolla pisa... ...y no tiene marchas y anda y no sé qué... ...conduce muy bien porque conduce desde hace muchísimos... ...años y sabía conducir... ...pero a ella le da igual y sobre todo no abre el capó... ...jamás si no sabe lo que hay dentro del motor... ...yo sí porque soy un friki pero ella no... ...y ya da igual y aquello funciona... ...si en los primeros GPS esto... ...se sabía se conocía más... ...los primeros eran incluso en estos Nokia... ...N70 en estos antiguos que no tenían... ...receptor de GPS había unas cajitas externas... ...que se conectaban por Bluetooth... ...por Bluetooth... con la PDA... ...y teléfonos yo también tenía varios... ...y... ...y ahí sí que te decían... ...con cuántos satélites estabas conectado y tal... ...yo los ponía en la guantera del coche... ...era todo más artesanal... ...y te decía cuántos satélites estaba viendo en cada momento... ...tardaba un rato además en conectarse... ...no era ni mucho menos el mi dato... ...me costaba un poco... ...un rato... ...claro es que esta labor... ...que tenías que hacer y esos... ...tiempos y esa información ese feedback... ...que te iba ofreciendo... ...pues en el fondo te hacía... ...coparticipar... ...en ese proceso... ...ahora que es todo maravilloso... ...que no es transparente pero funciona mejor... ...que antes... ...yo siempre tenía la sensación como si... ...mi móvil no tuviera un GPS... ...como aquel... ...porque para mí no existe... ...es que no lo tiene como aquel... ...ya te dice dónde estás y tú ya no te preocupas... ...ya ya... ...dentro pasa lo mismo o mejor... ...y él sí que... ...sabrá cuántos satélites ve para decirte si... ...tengo o no tengo cobertura pero tú ya... ...no te enteras... ...es como lo de Apple que dice... ...hoy el teléfono me ha gastado mucha batería... ...los entendidos en Apple te dicen que ha habido... ...una no sé qué y te están... ...haciendo unos procesos de actualización... ...no es transparente al usuario pero Apple te cuida... ...bueno pues el GPS también... ...el GPS también te cuida... ...incluso las aplicaciones de navegador... ...probablemente ni tengan acceso a esa información... ...es una API del sistema operativo que... ...te dice las coordenadas y ya está. Y se acabó, sí, sí, sí... ...por cierto... ...¿hay alguna forma de llevar el terminal... ...móvil para que... ...sea más efectivo a la hora de captar señales... ...porque habitualmente lo llevamos en un bolsillo... ...o dentro de una funda... ...o en una maletita... ...donde sea... ...ahí supongo que estaremos quitándole mucha fiabilidad... ...¿no? Yo creo que es bastante irrelevante... ...salvo que lo envuelvas en Albal... ...pero quiero decir si no... ...es bastante irrelevante porque... ...porque ahora ya digo, no es sólo el GPS... ...es que también está mirando las antenas... ...es que también... ...mira tu movimiento... ...porque los teléfonos están llenos de... ...acelerómetros... ...saben en qué posición están... ...tienen la brújula... ...y todo eso combinado... ...la verdad que te da una precisión... ...basándose en lo que le manda el GPS... ...pero después aproximando mucho más... ...porque está viendo cosas como eso... ...como las propias celdas... ...de transmisión de... ...de datos de los teléfonos... ...y también sabe cuál es tu movimiento... ...y no sé qué... ...hombre, sí, puede influir... ...pero yo creo que no es relevante... ...hombre... ...que lo lleves en una mochila en la espalda... ...o lo lleves en un bolsillo... ...en la camisa, en la teta izquierda... ...así como son muy direccionales... ...y efectivamente tienen ese problema en las ciudades... ...pero lo van a tener, lo lleves donde lo lleves... ...y si llegan... ...así se reciben... ...y si se reciben se interpretan... ...y si se interpretan... ...se calculan... ...quiero decir que no... ...puede tardar no sé qué medio segundo más en calcular... ...pero vamos, yo desde luego... ...creo que ahora no se nota... ...con sistemas como aquel CapTem... ...pero sí que era muy... Sí, en plan orden Enrique... ...porque nosotros lo conocemos y creo que lo hemos tenido los tres... ...tú supongo que por centenas... ...aunque no era el último... ...estaban todos tuyos... ...almacenaos sí... ...y bueno... ...explícanos un poco qué era aquello de... ...CapTem porque igual hay... ...personas que escuchan y no saben lo que es... ...bueno, yo lo que... ...quizá para llegar ahí... ...sin ir muy largo... ...yo hacia el año... ...99... ...empecé a interesarme en este tema... ...hablé con gente que también estaba... ...interesada, digo en este tema... ...como siempre, yo cuando sale una tecnología... ...digo, jo esto a mi gente... ...que mi gente pues es... ...la gente mayor o la gente que no ve y tal... ...en este caso la gente que no ve... ...como podemos utilizar esto para guiar bien a la gente... ...que no ve... ...y para darle más autonomía, entonces empiezas a pensar... ...qué tipo de interfaz, porque claro... ...había o los que... ...dije antes, los Magellan y todos estos... ...que sí que te dicen que estás por el cerrillo de no sé qué... ...pero bueno, eso está muy bien... ...saberlo, pero... ...y por cierto es una pena que ahora no lo digan algunos... ...que podrían tener una capa ahí... ...además de decirme, por dónde voy... ...dime cositas... ...pero no que hay una mercería y tal, si voy por el campo... ...dime el cerrillo... ...eso se ha perdido como dije, pero... ...había o eso o los de conducir... ...que eran más o menos buenos... ...y muy malos en pedestre... ...y entonces lo que queríamos era pensar algo para guiar... ...a personas que no ven... ...una de las cosas que tenía problemas... ...todavía hoy, pero ya hoy... ...más subsanado, que era... ...el satélite era mucho más preciso... ...perdón, el GPS... ...el objeto, porque... ...entre dos mediciones... ...habían pasado bastantes metros... ...y entonces le ayudaba... ...a calcular que tú te habías movido en esa dirección... ...a la velocidad a la que andamos la gente... ...era, y todavía lo es... ...pero ahora está más corregido... ...muy difícil determinar tu posición... ...de hecho, todavía hoy pasa... ...lo habréis notado todos, es una... ...cuando coges un coche... ...y antes de salir le pones el Google Maps y te... ...dirígete hacia el norte por la calle no sé qué... ...y dices, joder, ¿dónde estoy hasta el norte?... ...y lo que es, porque... ...el GPS, el sistema, no sabe para dónde tienes... ...el culo y para dónde tienes el morro... ...entonces hasta que no te mueves... ...no lo puedes ir determinando, porque no es sólo... ...no es sólo saber que estás ahí, sino que... ...estabas ahí y en el segundo siguiente... ...estás ahí, pero hay... ...más N hacia el norte... ...o hacia el sur, y a partir de ahí te sabes que... ...eso andando... ...a velocidad de paseo o más... ...era mucho más difícil, era ahí, lo ves... ...bueno, ahora está más... ...más pulido eso... ...por precisión de los... ...satélites y las señales y por... ...y por precisión de los cálculos... ...pues, pues era muy difícil... ...entonces... ...¿cómo se podía guiar a gente ciega, no?... ...y entonces empezamos a trabajar en... ...la entonces UTT todavía... ...yo cuando me vine, me fui a Madrid... ...en el año 2000, después de estar un tiempo en Coruña... ...y tal, y empecé a trabajar con Bernabé... ...con gente así, nos fuimos a... ...bueno, Bernabé, José Luis Fernández Colla... ...José Luis Lorente... ...fuimos además a la... ...a la gente esta de... ...de Boecillo, a GMV... ...de donde proviene... ...el famoso astronauta este español... ...que se me ha olvidado el nombre, Pedro Blanco... ...que trabajaba allí... ...y... ...Pedro Duque... ...Sí, Duque, joder, digo yo Blanco, Duque... ...trabajaba en GMV, sí... ...que es una empresa que... ...que ha tenido sobre su peso... ...bastante, bastante peso... ...tecnológico, pero muy alto de Galileo... ...y eso, es una gente muy especializada... ...y yo aprendí allí mucho de... ...pues todo esto que estoy contando así... ...en cristiano, en militar... ...lo aprendí allí, y bueno... ...y lo que queríamos era... ...cómo, te digo, cómo hacer... ...una interfaz para que a una... ...persona ciega le valiera y le guiase bien... ...y bueno, se hicieron... ...varias cosas, entonces... ...entonces había un PC hablado... ...y un sonobraje, que eran PCs... ...metidos en cajas... ...que había hecho la UTT en su día y llevaban... ...el sistema operativo MS2 y tal... ...y bueno, pues... ...empezamos a pensar... ...y por interfaz, yo tenía una teoría, por ejemplo... ...por decir algo... ...porque las discusiones que hubo y cómo... ...yo tenía una teoría de que una persona ciega... ...cuando tú le dices... ...si quiero ir del punto A al punto B, en una ciudad... ...de aquí a acá... ...no le es muy importante que una calle... ...sea perpendicular o que haga medio corte... ...o sea, hay que decir, para un ciego... ...todo es Barcelona... ...en el sentido que todo va paralelo, no sé qué... ...digo, si tú vas y a la tercera calle... ...giras a la izquierda... ...ya sé, a la vista yo, que esa calle... ...no es exactamente perpendicular, que está un poco... ...inclinada, bueno, qué más da... ...tú tiras por esa y después a la cuarta... ...era mi teoría, otra gente decía que no, que era bueno... ...porque cuando llegas a una rotonda y la gente... ...bueno, tuvimos discusiones muy interesantes... ...y hubo cosas muy bonitas... ...y al final acabamos haciendo... ...una interfaz que se llamó Orienta... ...que nunca... ...yo no creo que nadie de los oyentes la conozca... ...porque yo creo que no se llegó a comercializar... ...porque el Sonobrayen... ...pues fallaba mucho y... ...y bueno, había que llevar un antenón... ...yo recuerdo llevar por mi barrio... ...que sigue siendo mi barrio actual... ...el carro... ...el carricoche de mi hijo que tenía... ...un año o dos, con una antena... ...con el Sonobrayen... ...encima, en el toldito... ...y llevo un cable y llevaba... ...una antena, que era bastante larga... ...de central de GPS... ...con imán de sardecoche, pero claro, como yo no era un coche... ...qué hacía, me ponía una gorra... ...una tapa, una lata de sardinas... ...una lata grande para que se me pegara... ...y parecía la brujavería, iba por allí andando... ...iba por allí andando... ...y hacíamos, bueno, para ver la precisión y todo eso... ...yo mi barrio me lo conozco... ...de centímetro al milímetro... ...porque bueno... ¿Habrá futuro de eso para ponerlo en las notas del episodio? Pues no, creo que nadie me hizo fotos... ...pero debía ser... ...la gente abría la boca y decía... ...este ciego está loco... ...pero bueno, hacíamos cosas... ...y entonces intentábamos guiar... ...qué interfaz sería... ...incluso teníamos una parte que siempre yo creo que fue útil... ...de hecho algunas... ...aplicaciones ahora lo tienen, que es... ...la simulación... ...yo quiero ir de aquí a aquí, entonces era con cursores... ...y lo que hacíamos era decir... ...el paso de cuánto lo quieres... ...pues de 100 metros... ...más o menos, cuánta precisión, entonces tú cogías la calle... ...yo qué sé, la castellana de Madrid... ...pum, pum, pum, y cada cursor que das adelante... ...eran 100 metros, entonces cuando había un cruce... ...te avisaba, vas a cruzar... ...aunque estuviera menos, vas a cruzar la calle... ...y lo podías simular... ...o sea, hubo... ...allí estábamos trabajando en todo aquello... ...que después, ya digo, no salió... ...parte por la parte tecnológica... ...que era todavía muy atrasada... ...parte porque el propio Sonobrai aquel... ...pues no... ...falló un poco y no se vendieron mucho... ...y en aquellos interims yo trabajaba... ...también conocía... ...a un tal Rafael Gil Casares... ...apello ilustre de aquí de Galicia... ...que... ...que era el director de toda la parte... ...de Teleatlas, que ahora... ...ya viene, por eso conectamos... ...Teleatlas es una empresa belga... ...que todavía hoy le suministra los mapas... ...a Google, bueno, ahora Google ya hace cosas por su lado... ...pero que hacían... ...cartografía digital, de hecho yo recuerdo... ...gente de Teleatlas en La Moraleja... ...y por ahí intentando entrar a las casas... ...de la gente, intentando entrar... ...por el buen modo, decir, mire que estoy... ...cartografiando, y luego... ...por a mí mi casa no, entonces... ...y se empezaba ya con coches... ...a cartografiar, bueno, estos... ...cartografiaban todo... ...y este era el jefe de todo aquello para... ...para África, Europa... ...y África... ...y era gallego, yo también, entonces hablando... ...gallego, coño, pues tal, joder, pues tío... ...nos hicimos amigos, y lo somos... ...y un día me dijo, oye... ...hay un tal Filipe de Oliveira ahí que te quiero... ...presentar porque está en... ...tío que está loco, que se perdió... ...un día en Hong Kong y quería hacer un aparato... ...para que le guiase... ...porque ya estaba bien, porque no entendía las letras... ...la gente tampoco la entendía, nadie... ...había hablado inglés y se perdía... ...y dice, me cago en la leche, tengo que hacer algo... ...que guíe a la gente y tal y cual... ...y de ahí salió el capten, o sea... ...yo lo conocí muy al principio por este hombre... ...y por aquellos trabajos... ...y empezamos, y hablé con el CEO... ...de que todavía está, el CEO de Capsys... ...pero él... ...el primer capten, o sea el capten que hizo... ...no pensó en un puñetero... ...os digo, para nada, quería... ...él se encontró un día perdido efectivamente en Hong Kong... ...o no sé dónde, en algún sitio asiático... ...y no sabía qué hacer... ...y con su cuerpo, y no sabía leer... ...porque eran todo pictogramas de estos... ...hasta kanji de estos... ...de esas cosas que escriben estos, y no entendía... ...y dice, bueno, pues... ...¿y cómo me entero yo aquí? y entonces bueno, dijo... ...voy a hacer algo además sin pantalla, que no moleste a la gente... ...que se pueda escuchar música y tal... ...metió un montón de tecnologías de aquel tiempo... ...porque tenía reconocimiento de voz... ...tenía una voz humana bastante buena... ...en lo que es una cajita cerilla metió... ...metió... ...antenas receptoras de GPS... ...mapas... ...y bueno, pues aquello iba... ...y fue el primer GPS que... ...que estamos haciendo todo esto... ...toquía muy bien, y además era para pedestre... ...para pensar en pedestre... ...e hicimos el captain... ...y bueno... ...el captain... ...tardaba... ...mucho en buscar señal y todo esto, pero fue... ...fue una cosa interesante... ...y lo que es curioso es la historia de la persona... ...y de la empresa, porque él como os digo... ...no pensaba para nada en personas ciegas... ...pero tuvo muy... ...mala aceptación entre los videntes esa cosa... ...una caja que te guía, que no ves un mapa... ...que no sé qué, ya estaba tontón... ...que... ...que era una cosa que tenía cartografía de... ...teleatlas, de la que os he hablado... ...y tenía... ...y ya se veían mapitas y calles... ...y todo eso... ...no gustó... ...y a los ciegos nos gustaba mucho... ...y entonces el señor pensó y dijo... ...no, pues hay que hacer cosas para ciegos... ...el problema a mi juicio de este señor... ...es que las empresas tienen cosas buenas y cosas malas... ...es que abandona los productos... ...entonces después empezó a hacer teléfonos... ...teléfonos con teclas en competencia... ...con los teléfonos sin teclas como tenemos ahora... ...toda la gente, los iPhone y todo esto... ...le ha dado resultados, ha seguido vendiendo... ...y ahora anuncia una cosa nueva para... ...para guiar... ...el CapX... ...no para guiar a la gente sino para... ...decir obstáculos y tal... ...no tiene nada que ver con GPS sino con lo que estamos hablando ahora... ...pero como que abandona las líneas de los productos... ...pero al tío le cambió la vida... ...porque acabó trabajando... ...solo para personas ciegas... ...cuando su historia vino de Hong Kong... ...y de ahí viene el... ...el CapX... ...y todos los trabajos que estábamos... ...haciendo en aquel tiempo... ...para intentar guiar... ...a personas ciegas basándonos en... ...bueno, GPS por un lado... ...y la cartografía digital por otro. ...y en aquel momento... ...¿cuáles eran las dificultades que... ...estos dispositivos os presentaban? ...porque supongo que sería un momento... ...complicado, concretamente hablando del Capten... ...el otro día... ...al presentar el producto este nuevo de Capsys... ...que es esta la misma empresa que hizo Capten... ...que se llama CapX... ...que lo has nombrado tú... ...alguien comentó en un grupo que... ...bueno, que mal funcionaba... ...Captain... ...que mal se cogían las señales... ...y curiosamente salió un grupo de usuarios... ...diciendo... ...que para lo que había en aquel momento... ...era una maravilla... ...porque estaban criticando con el pensamiento de hoy... ...lo que es una cuestión que... ...pues puede tener más de 17 años... ...o... ...¿cuánto puede ser lo del Capten, Enrique? ...eh... ...si no 20... ...si no 20... ...si no 20... ...porque yo me fui a Madrid... ...en el 2000... ...me vine de Galicia... ...a Madrid en el 2000... ...la última vez que estuve en Madrid... ...ojo, que sigo allí... ...bueno, hablando de un lado para otro... ...y fui a trabajar a UTT... ...y era el 2000... ...y ya estábamos trabajando en eso... ...yo no creo... ...probablemente sea del 4 o del 5... ...habría que mirar por ahí documentación... ...si, si, pero bueno, estamos hablando de hace 20 años... ...eh... ...que también, pues igual tiene un poquito... ...más de antigüedad y a mí me suena... ...a algo muy vintage, muy antiguo... ...pero que tuvo... ...bueno, una penetración y un impacto... ...muy potente... ...todo el mundo tenía TomTom... ...desactualizado el 95%... ...pero todos lo tenían... ...porque había que actualizarlo pagando... ...y eso como que la gente no lo llevaba muy bien... ...decía yo compré un TomTom... ...y es para toda la vida... ...y bueno... ...pues en aquel momento... ...si nos estamos trasladando a cuando estabais haciendo... ...todo este tipo de pruebas como pioneros... ...exactamente... ...¿qué dificultades encontrabais? ...hombre, a ver, yo... ...primero en cuanto al... ...tema del... ...que funcionaba bien o mal... ...yo ya en aquel momento recibí... ...alguna crítica... ...lo traje yo y lo empezamos a vender... ...la empresa a Tenius... ...por lo cual probablemente, ahora que lo digo... ...vamos a vender con Tenius... ...si que sea del 2008, o sea tendrá 18 años... ...efectivamente... ...y la... ...la gente pues eso... ...ya sabes que hay gente para todo, pero yo estoy convencido... ...de que en aquel momento... ...trajimos para las personas ciegas algo que no... ...había habido nunca... ...era mucho más, era lo que era... ...efectivamente funcionaba así de mal... ...tenía esos problemas, tardaba en coger señal... ...y depende de donde pues fallaba, pero... ...fue lo mejor que había habido hasta entonces... ...y sobre todo lo primero... ...el primer sistema de guiado para personas ciegas... ...EVER, que hubo así que... ...que se podía usar, llevar en el bolsillo... ...y, pero en cuanto... ...a los problemas que teníamos nosotros, aparte del... ...Captain, yo los problemas técnicos de Captain pues... ...bueno, me los sé como usuario... ...que yo no he trabajado en Capsys nunca... ...entonces no lo sé, pero los que teníamos nosotros... ...cuando diseñábamos todo aquello... ...yo creo que los he ido más o menos relatando... ...un poco, primero que la... ...bueno, primero en aquellos años... ...todavía el GPS... ...todavía era solo con GPS... ...no había Galileo... ...ni otros sistemas a los que mirar... ...a mirar en el mejor... ...de los sentidos, mirar los satélites... ...y ver sus datos, segundo... ...ellos, me parece que ha sido... ...hasta el 2007, 2008, no me acuerdo... ...por ahí en la documentación está... ...no dejaron de meter esos errores... ...que metían, con lo cual... ...pues también daba errores... ...tercero, la precisión... ...de andar despacio... ...o sea, guiar a un peatón era... ...dificilísimo en aquel momento, lo dije antes... ...por la velocidad, por el cálculo de dónde... ...estabas en un momento A y en un momento B... ...y en un punto A y en un punto B... ...y yo creo... ...y después el hardware, es decir... ...las antenas para ser mejor... ...en coche todavía se guiaba... ...bien, porque había, de hecho los tontones... ...aquellos tenían una toma, los de coche... ...tenían una toma de antena para conectarlo a la antena... ...de FM para que... ...recibiera mejor todavía los satélites... ...porque no era una antenita... ...y la gente, como dijo... ...antes Arturo, teníamos conectados a los... ...teléfonos, yo digo, tengo varias... ...antenas que eran separadas de los teléfonos... ...era una caja como una... ...hombre, más que una caja de estrellas, no era... ...pequeña, una caja que... ...era como un polvorón... ...correcto, pues eso, y era una... ...antena, entonces todo eso... ...la tecnología estaba a esa altura... ...en aquel momento, entonces... ...y las cartografías en aquel momento... ...¿cuáles utilizabais? ...pues se utilizaba teleatlas mayormente... ...porque era la que dominaba el mundo, creo, de hecho... ...que hay mucho copyright que ves en mapas... ...de Google todavía hoy... ...que son de teleatlas, ellos ya recorrían... ...con coches, y hacían... ...fotos con coches, y iban fotografiando... ...esto que hace ahora Google, teleatlas... ...lo hacía antes, o sea, lo que es ir... ...con una furgoneta y... ...un montón de cámaras... ...fotografiando todo el tema... ...pues eso se hacía hace mucho tiempo... ...ahora es alucinante, yo he estado... ...ayer, estuve paseando por aquí... ...por Oleiros, donde estoy ahora... ...y con el... ...Google Maps, en modo peatón... ...que ahora es la leche... ...lo bien que lo hace, tienes una modalidad... ...en que tú levantas el teléfono... ...si en vez de llevarlo como hacia abajo... ...y tú lo consultas para mirar el mapita... ...por dónde vas, lo levantas, lo pones a... ...paralelo al suelo... ...o sea, perpendicular al suelo... ...se te pone el Street View... ...real... ...de lo que ellos han sacado, y estás viendo... ...más o menos lo mismo... ...las mismas casas, los mismos árboles... ...en la pantallita del teléfono que tú ves... ...delante de ti, con lo cual para una referencia... ...eso es la leche... ...ya lo ves, o sea, ves el Street View... ...y eso es porque han ido durante años y años... ...y años fotografiándolo todo, todo y todo... ...y de hecho, una cosa muy curiosa... ...que se sigue haciendo es la línea de tiempo... ...tú ahora coges Google Earth... ...que es una aplicación, para los que no lo sepan, que es... ...todas las fotografías que se han hecho... ...también por pequeños cuadrículas... ...hablábamos antes de los... ...meridianos, los paralelos, pues las cuadrículas... ...entre esas líneas, a nivel muy pequeño... ...los satélites las han ido fotografiando... ...fotografiando... ...absolutamente toda la Tierra... ...pues ver la muralla china o lo que sea, eso habréis oído alguna vez... ...reportajes, ah pues se ve y tal... ...todo cenital, desde arriba... ...como a vista de, si tú te cuelgan y están... ...mirando para abajo... ...y en eso hay una cosa muy divertida... ...que es la, por ejemplo aquí en este barrio que cambia... ...porque hay casas que hacen eso... ...es una zona medio rural, vas hacia atrás... ...en el friso del tiempo y ves hasta las obras... ...que yo he hecho en mi casa, en la terraza... ...vas viendo el tiempo hacia atrás... ...porque hay fotografías de hace mucho tiempo... ...pero en aquellos tiempos, volviendo a la pregunta... ...es que había mucho menos datos... ...pero sí, ya cartografía digital había... ...y cada vez... ...más precisa, ya te digo que... ...este hombre a veces... ...Gil Casares contaba anécdotas de eso... ...que iban por los barrios, sobre todo... ...los barrios ricos... ...es que tengo que cartografiar este, que número es... ...y pregunta, es que soy de Teletras... ...y eso cae, y esto para acá... ...y bueno, ahora ya se hace de otra manera... ...se hace más mecánico... ...pero sí, sí... ...se cartografía un poco pedestremente... ...pero sí, supongo que iban a pie también... ...en los barrios... ...pues podemos también contar alguna cosa... ...un poco de la historia... ...de cómo ha ido evolucionando todo esto... ...y alguna anécdota... ...de problemas, porque esto tampoco... ...parece que todo es muy bonito, pero también ha habido... ...problemas y esto no siempre ha funcionado bien... ...pues sí, fue un proyecto militar... ...de los Estados Unidos, así comenzó el GPS... ...y creo que... ...se basaba, bueno, ellos vieron que el Sputnik... ...de los rusos... ...era capaz de... ...ser localizado y seguido desde tierra... ...y fue cuando... ...pues lógicamente los ingenieros... ...americanos dijeron, bueno, y si... ...utilizamos en sentido inverso... ...algo que nos mande una señal de allí... ...y nosotros la recibimos en tierra... ...y así comenzaron a hacerlo... ...creo que pusieron en marcha... ...un proyecto que se llamaba Transit... ...que era para el seguimiento de submarinos... ...y luego a partir de ahí ya pues todo lo que es el... ...GPS, que poco a poco... ...fueron implantándolo hasta lanzar un... ...número de satélites, yo creo que en la actualidad... ...hay unos 35 o por ahí... ...de todas formas esto es muy relativo porque... ...van cambiando, van implementando... ...y lógicamente también van... ...jugando con otras... ...flotas de constelaciones de satélites... ...de otros países... ...y demás, pero bueno, básicamente... ...todo comenzó así... ...y fue bueno, fue un... ...proyecto militar, hasta que un día... ...¿sabéis lo que pasó? ...fue un avión que se estrelló precisamente por... ...por falta de geolocalización... ...el vuelo 007... ...del American Airlines o algo así, ¿no? ...Korean Airlines... ...y se estrelló... ...y lo atribuyeron a falta, vamos... ...o alguien pensó, si hubieran tenido... ...GPS, que el GPS no fuese... ...se estrelló con la colaboración de la Unión... ...Sovietica, que lo derribó... ...porque invadió... ...y entonces... ...creo que el asaltador... ...el presidente de la URGAN... ...y dijo... ...muy buenamente, vamos a desmilitarizar... ...esto y a dárselo a la gente... ...un poco como la Internet, ¿no? que era una cosa de universidad... ...y después se nos fue pasando... ...a los civiles, pero vamos, eso cuenta la historia... ...y debe, hombre, debe haber algo de verdad... ...en eso... ...murieron casi 300 coreanos, ¿eh? ...no, no, el accidente sí, joder, quiero decir... ...que fuera el accidente el que motivase... ...que Ronald Reagan dijera... ...no sé... ...como historia altruista de un presidente... ...tan humanitario, pues no queda mal... ...pero bueno, será la verdad... ...en los tiempos que corren, dice... ...ojalá volviese, pero sí... ...efectivamente... ...sí que dicen que pasó... ...eso y que fue la... ...vamos, el hecho de que... ...se pudiera ya compartir... ...eso, y por eso lo tuvieron mucho tiempo... ...dice, sí, pero le metemos... ...errores, ¿no? hasta aquí... ...que fue la deriva esa de medición... ...que era más o menos 30 metros... ...¿no? de... ...y casi... ...le metemos errores para que... ...claro, lo que pasa es que aún contó con eso... ...con ese margen de error, pero cuando utilizas... ...luego la cartografía y luego... ...pues se supone que vas en coche y tienes que... ...posicionar el punto en una carretera, pues... ...más o menos es más fácil ese margen de error... ...puedes deducir dónde... ...dónde estás, más o menos... ...en una carretera, sí... ...después los demás... bueno, países o... ...continentes... ...o lo que fuera, bueno, en el caso de Europa... ...porque vamos, lo dije antes... ...porque vamos a depender de los norteamericanos... ...solamente, pues vamos a crear el nuestro... ...y crear un Galileo y los... ...y los rusos crearon el suyo y... ...y los japoneses... ...el suyo y... y bueno... ...recuerdas el de la India, ¿no Ricardo? ...que está solo hecho para India o algo así... ...sí, el de la India es curioso... ...porque, bueno... ...es una herramienta también... ...o arma que se utiliza... ...en geopolítica, ¿no? ...cuando un país entra en confrontación... ...con otro y tú tienes... ...la luz del GPS... ...apagas al que no te cae bien... ...pues lo has dejado fuera de juego o con menos... ...herramientas, ¿no? que al que están... ...atacando y esto le pasó a India cuando... ...tuvo un conflicto con Pakistán... ...no sé ya si era Gartik... ...o Bark... Garvik, esto no lo recuerdo bien... ...pero bueno, en aquel momento... ...Estados Unidos apagó el GPS... ...y bueno... ...los indios se dieron cuenta de esto... ...y dijeron que no podían depender de una... ...potencia exterior... ...y que deberían tener su propio GPS... ...y así lo hicieron... ...de forma regional, territorial... ...y esto sabrás tú... ...más que nosotros, Enrique, porque ahí sí que... ...utilizaron, ¿no? satélites geoestacionarios... ...creo que son... ...sí, creo que sí, ahí son estacionarios... ...sí, a determinados grados... ...y que sólo cubre el territorio de la India... ...y poco alrededor... ...yo estaba pensando en sugerirle aquí al alcalde de Betanzos... ...de hacer uno sólo para nuestro pueblo... ...pero... ...fue algo parecido, sí, ¿no? que querían... ...y cubrir por lo menos... ...su territorio, estar seguro... ...y los apagones que decías antes, también ha habido grandes apagones... ...sí, Galileo se apagó, me parece que... ...dos semanas una vez... ...pero en 2019 no hace tanto... ...que sí... ...es decir, primero fue... ...un fallo que puso en alerta al sistema... ...hasta un apagado... ...de una semana, estamos hablando... ...que menos mal que existía GPS... ...y había compatibilidad... ...porque si no hubiera dejado a Europa... ...bueno, y a todos los que dependieran de esta... ...concelación de satélites, que se llama Galileo... ...los hubiera dejado fuera de juego... ...y fue un fallo en tierra, ¿eh? ...en la actualización de la información... ...y aún así debieron pasar cosas, porque hay muchas... ...máquinas que... ...yo ahora mismo no sé qué ejemplos decir, que no sean... ...coches o personas andando... ...o aviones o... ...drones especializados... ...pero sí que hay mucha máquina que sí que... ...requiere de posicionamiento... ...hombre... ...hay una anécdota... ...que se cuenta, que es que en unas... ...maniobras americanas... ...utilizaron un inhibidor de señal... ...GPS cerca de... ...San Diego, creo que era... ...y dejaron pues... ...en eclipse... ...de GPS a todo lo que fuera... ...ciudad, y llegaron a tener problemas... ...los hospitales, los cajeros... ...automáticos, muchos medios... ...de transporte, es decir, que... ...en aquel momento, y creo que estamos hablando... ...de principios... ...de este milenio, cuando ocurrió... ...ya había mucha dependencia del sistema... ...a... ...para que funcionaran cosas... ...y esto sí que ha hecho que la gente... ...bueno, pues... ...un poco distribuya los huevos... ...en distintas testas... ...para que cuando haya un apagón de GPS... ...no dejen de funcionar las cosas... ...que lo consigan será otra cuestión. Lo que sí que parece básicamente... ...hacia el futuro, que yo no... ...bueno, he leído, pero no he visto... ...a nadie que se atreva a decir mucho hacia el fondo... ...parece que esto... ...no es que haya llegado al tope, sino que va a ser así... ...o sea, que eso tendrán que ser señales... ...puede haber más o menos constelaciones... ...puede haber los privados, a lo mejor... ...a alguien más se le ocurre hacer un GPS propio... ...yo qué sé, pero vamos... ...la historia es esa... ...es satélites mandando señales... ...relojes atómicos cada vez más... ...precisos, receptores cada vez... ...más precisos, para... ...posicionarte, cada vez de forma más precisa... ...pero ya, como decíamos... ...antes, la precisión militar es bastante... ...más grande que la nuestra, que anda... ...con los 3, 2 metros, 3... ...la agricultura ha demostrado... ...con sus máquinas de trabajo... ...que dar un soporte... ...al satélite, con una infraestructura... ...de georreferenciación... ...y emisión... ...de señales en tierra... ...hace que las máquinas vayan con una precisión... ...de centímetros, y lógicamente... ...si están labrando un surco... ...vayan por ese surco... ...entonces, yo siempre he pensado que... ...el futuro estará con... ...lo que nos dé de sí... ...lo que es la constelación de satélites... ...desde el cielo... ...y el esfuerzo en lo que es en tierra... ...con otras señales fijas... ...que hagan una cosa que se llama... ...train mapping, que es el ajuste del mapa... ...dependiendo de la señal... ...que tú estás enviando, que esa señal... ...también está diciendo... ...yo estoy aquí y soy la señal... ...georreferenciada... ...XXX, lo que sea... ...eso lo que hace es que el mapa... ...se mueva a esa posición... ...porque sí que es un anclaje real, es un anclaje en tierra... ...y entonces pues... ...el navegador... ...que es el GPS, sea más preciso a la hora de... ...interpretar la cartografía. Yo trabajé un tiempo con un agente... ...de una empresa que se llama, de hecho... ...se llama Digita Animal... ...y... ...que lo que hacen es... ...si tú no eres en el campo y en el GPS... ...no sólo seguir a los animales... ...que eso por supuesto, les ponen... ...a las vacas y a todo esto un collar... ...con una cosa muy grande... ...no como nuestro, por ejemplo, actual... ...todos los relojes, ¿no?... ...por ejemplo el Apple Watch... ...que pues sabe un montón de cosas de nuestro... ...estado de ánimo, las pulsaciones... ...eso también se sabe de las vacas... ...y de... ...y por constantes vitales se puede saber... ...si una está embarazada... ...que a lo mejor está pariendo y tienen que ir a atenderla... ...y ahí interviene el GPS... ...aparte de todas las cosas que pueda dar el equipo... ...sí que da su... ...posicionamiento exacto... ...por ella, o si se escapa de un sitio... ...bueno, ahora están vendiendo incluso... ...para perritos, que lo dicen para la gente... ...yo creo que es un poco tipo porque... ...los perros corren que te mueres y como se pierde... ...a veces tú al GPS a buscarle... ...no puede estar, pero yo creo que a tardar menos... ...legándole tres silbidos, pero bueno... ...es una pena, ¿no?... ...que no sean todo lo accesibles que deberían... ...porque parece ser que el que ve... ...y ve la pantalla y ve el punto... ...si que tiene una idea bastante clara... ...de dónde está su animalico... ...que ha echado a correr... ...pero... ...que a las personas ciegas es difícil que se les escapen los perros guías... ...pero sí se puede dar, claro... ...y eso es lo que yo digo, para que tengan un poco de libertad... ...que pueden ir... ...y es muy curioso que pasamos a depender... ...de estos sistemas... ...muchas veces con demasiada... ...dependencia y que también pueden... ...fallar o también pueden... ...tergiversar, pueden... ...manipular de alguna forma o... ...también pueden modificar esa señal... ...porque parece que... ...es una señal que viene del cielo y parece como que... ...nada podría interferir... ...esa señal, pero sí se puede... ...pero bueno, esto daría para otro episodio... ...sí, sí... ...yo cuando han salido las noticias de gente que han salido... ...algunos típicos... ...una calle no sé dónde de escaleras que se han metido... ...más de un coche... ...porque además la gente como se lo crea prejuntivo... ...que hay que meterse, pues me meto y bajo... ...pom, pom, pom... ...asi rompo el coche, me da igual... ...yo me acuerdo hace... ...eso sí serían los 2000 y algo... ...trabajaba yo más en el W3C... ...y había las reuniones en... ...Sofía Antípoli, en Cannes, en Mandelí... ...en Mandelí es un pueblo... ...con un montón de calles así... ...de dalitos, de calles muy estrechas... ...y en el W3C se hacían unos bollos... ...que no sabía por dónde estaban... ...te perdía más que te encontraba en aquellos tiempos... ...porque ahora irá bien... ...así que sí, sí, hay mucha gente que ha cogido... ...rutas extrañísimas... ...hay una historia, en teoría el de unas escaleras... ...que las visitaban los coches... ...como si no hubiera un mañana... ...y... ...sí, sí, la gente tiraba por las escaleras... ...y era una escalera de bajada y les daba igual... ...todos los coches acababan abajo... ...porque se reportaban los vecinos, ¿no? Pues esto es un problema más bien de la cartografía... ...que a lo mejor la cartografía, el mapa no estaría... ...correctamente, y a veces también pasa que... ...con señales de... ...calles de sentido único, que las cambian y cosas de esas... ...y la gente se mete... ...fiándose ciegamente... ...que mejor dicho del GPS... Creo que le dijeron a uno que no era el único... ...que ya iban diez o no sé qué... ...a lo mejor uno se mete... ...que no es el único... ...que se mete... Pues hablando de esto, a mi hija... ...le ha pasado una cosa similar, porque no hemos hablado... ...de la configuración del GPS... ...ni las preferencias conforme lo... ...predetermines, pero tú puedes decirle... ...que vaya por la ruta más larga... ...la más corta, la más tal, la más cual... ...la que menos consumo... La más ecológica... ...todo eso lo puedes hacer, entonces te pueden pisar... ...menos carbono, ahora tienen ya de todo... ...sí, sí... este fin de semana estaba en una boda en una población de aquí de Málaga ahora es costumbre coger lo que son así como cortijillos y montar ahí toda la boda el fin de semana y bueno, están en el campo que es un sitio maravilloso para hacer una boda bueno, pues ya el viernes llovió aquí en Málaga hubo alerta naranja y todo, llovió bastante y luego sábado y domingo nada, pero lógicamente después de haber habido un poquito de torrencial y haber pasado la lluvia el domingo cuando cayó el coche y encendió el GPS porque quería salir de aquella zona el GPS lo llevó por un camino no por una carretera secundaria, sino para salir por un camino, que ocurre que el camino lo cruzaba un arroyo que lógicamente ya no era arroyo pero sí que había dejado como zona de asiento de lodazal de barro y bueno, y es que encayó se le hundió el coche en el barro, tuvo que sacarlo un paisano de allí con un tractor y realmente la carretera era otra pero el GPS la sacó por un camino que era más corto estaba, como tampoco especificaría que discriminara este tipo de caminos, pues el GPS hizo su cálculo y dijo, pues por aquí vas a salir antes, ¿sabes? Eso pasa a veces también con las aplicaciones de personas tías que bueno nos hemos quedado el captain o sea, en el 2008, pero sí que afortunadamente han pasado muchas cosas, si queréis que retomemos volviendo al mundo ciegueril que nos ocupa cuéntanos, cuéntanos ¿descambió y estas cosas? Hubo y hay cosas, vamos después de nosotros que no triunfamos y del captain que medio triunfó, pues sí que hubo proyectos que intentaron guiar bien a la gente, de hecho yo con las experiencias de eso os mandé hoy un vídeo en el 2008 también hicimos unos italianos, yo no sé por qué me conocieron a mí, pero están haciendo un proyecto de guiado de personas ciegas por GPS y todavía en Symbian el iPhone acababa de salir pero vamos, no, no está todavía Nokia en poderío y quieren hacer un sistema GPS basado, o sea en GPS guiado, pero también en la comunicación que el teléfono podía tener con una central para ayudar a personas o sea, de momento que te encontrabas en una obra con cualquier cosa, dar asistencia se llamaba Easy Walk, que era como caminar fácil y lo llegamos a llevar al mobile, yo ahí sí que me vamos me exprimieron, yo me dejé, vamos, me pagaron o sea que sí, me exprimí y con toda la experiencia que tenía, porque ellos tenían mucha idea, no sé qué, pero no de interfaces para decir, yo más que tener mucha, tenía mucha experiencia en errores con lo cual, lo que me iba saliendo, me iba saliendo mejor, la verdad que no era malo, no guiaba mal pero como muchas empresas de estas, no sé si italianas o de otros lados, pero de repente un día el tío se cansó y desapareció y no se llegó a hacer el producto y estaba muy bien, porque Vodafone lo quería comercializar se llevó al mobile, vamos en el señor alcalde de Barcelona, al rey o sea, cuando, en el 2008 cuando pasaron por el pabellón de España y fue, lo flipaban, pero bueno de esos proyectos que se van bueno, ese no, yo fue ¿Has compartido con nosotros el reportaje donde se presentaba este proyecto? Sí, era como una promo Sí, era una promo, si os parece, vamos a escuchar como era además de que vamos a dejarla también colgada aquí, en audio pero vamos a poner el vídeo para el que quiera verlo, porque sale Enrique también, en lo que son las notas del episodio, y para que veáis lo hablábamos antes, off the record que no han cambiado mucho las cosas es decir, el vídeo parece muy actual así que, adentro vídeo y y y y y y y y y y y y y y y y us los y y un ta las a poreler son perfectamente interpretadas por el usuario, en forma de voz o braille. Estas son algunas características del servicio. Descripción detallada de las acciones a tomar, giros, distancia entre puntos, etc. La función Donde estoy da información sobre los nombres de las calles, sus números, los cruces y los puntos de interés en los alrededores. Gracias a esta función, los usuarios pueden darse cuenta de dónde están y de los puntos de interés, incluso cuando viajan en un autobús, tren o en cualquier otro medio de transporte en superficie donde exista señal GPS. Información de puntos de interés. Información del rumbo. Velocidad, altitud, latitud, longitud y estado de la señal del GPS. Por medio del uso de la función de análisis de la ruta, el usuario introduce un punto de salida y otro de destino y la aplicación EasyWalk. EasyWalk genera de forma automática las instrucciones relativas a cómo realizar la ruta. Luego de elegir estos puntos, los usuarios pueden bien navegar por la ruta en modo local, sin moverse de su sitio, bien dejarse guiar por la aplicación o bien preguntar sobre el estado de la ruta. El centro de atención al usuario es la interfaz humana del sistema. Si se genera una alarma desde él, un operador contestará inmediatamente a la llamada. ¿Y si Walk le atiende Pati, en qué puedo ayudarle, Pedro? Sí, por favor. Mira, es que oí ayer en las noticias que había obras por aquí cerca, ¿es cierto? Pues sí, tienes razón. Un usuario de la comunidad lo indicó ayer como un punto peligroso. Está a unos 200 metros. Mire, cruce al otro lado de la calle, en la próxima manzana, y luego vuelva a cambiar en la siguiente. Los servicios web ofrecen muchas posibilidades a los usuarios que tengan acceso a Internet. En principio, todos ellos están basados en las demandas de la comunidad, por lo que no solamente están creciendo en cuanto a la cantidad de datos almacenados en las bases, sino también en las funciones y prestaciones que demandan los usuarios. Easy Walk es verdaderamente un nuevo concepto en servicios para personas ciegas y deficientes visuales, que aunque no sustituye al perro guía ni al bastón, es una herramienta de gran utilidad para ayudar a la movilidad y al transporte de la comunidad. Es un sistema de transporte en ciudades y en medios de transporte variados. Pues eso era, ¿no? Más o menos. Porque pretendía dar asistencia, como ahora se pretende. Efectivamente, como has dicho antes del vídeo, Ricardo, pues eso no hay... Parece que no hay nada nuevo bajo el sol, hay nuevo hardware, hay mejores cálculos, etc. Pero bueno, que las ideas siguen siendo las mismas. Guiar a alguien con asistencia, pues un poco una cosa entre MIMA y ICE, y profesionalizado en el sentido de que te guíen y tal. Hoy por hoy se podría hacer con cámara, que el sistema no sabía dónde estabas y podían hablar contigo por el mismo teléfono, pero nada más. Y ahora se podría hacer mucho mejor. Sí, sí. Se atendían las necesidades con atención. Sí, sí. Y no sabía la tecnología del momento, pero básicamente se sabía que hacía falta gente también para que te pudiera orientar en humana. Nadie hizo back office. Sí, sí. Está claro. Pues ese fue uno de los proyectos que no salió. Después estuvo la gente de Sendero Group, que yo les conocí... Bueno, estos desde el año 95, por ahí, los conozco yo. Que hacían... un tío tal Mike May. Michael May de Sendero Group, pues sí que lleva trabajando un montón. Muchísimos años, desde los principios de GPS, en hacer sistemas de guiado. Y llegó a hacer un buen acuerdo con la empresa de HumanWare, nombre que me encanta. Me encanta. Bueno, de hecho yo... La Tenius, que ahora es empresa de mi ex y sigue funcionando, se llama SocialWare y es una pura copia. O sea, igual que hay software y hardware, pues se coja el HumanWare. Bueno, HumanWare en sus Victor, Stream, no sé cuál de modelos, metía en el Sendero este, que era un... Era un guiador, bueno, y no es. Bastante majete. O sea, sí ha habido. Y esta misma gente están haciendo una en interiores. Después hay otros proyectos muy curiosos. Seguramente de estos habrá más, de los primeros, ¿no? De los que guían. Así que yo no conozco muchos más, o no recuerdo en este momento. Pero recuerdo con cariño y están ahí. Y sigue funcionando. La gente de Lazarillo, que son de Chile, fue un proyecto fin de carrera, pero hecho. Como siempre decimos. Hecho con personas. Hecho con personas ciegas también desde el principio. Por tanto, sabían lo que querían. Hicieron en Lazarillo que no es algo que te guíe. Aunque después todo el mundo acaba metiéndole guía. No sé por qué. No sé por qué. Porque lo que hace bien Lazarillo es decirte, como los puntos están marcados y sabe por dónde vas, pues aquí hay una mercería, a la derecha tienes el banco no sé qué. Habrá muchos oyentes que conocen e incluso estén usando Lazarillo, ¿no? Y... Y Lazarillo, pues no... No está mal. Proyectos parecidos a esos. Microsoft hizo su Sound Escape, que es como un paisaje sonoro. Que a mí me encantaba el proyecto porque además se basaba precisamente en hacer lo que es Lazarillo. Pero de una forma un poco más... Es decir, decirte por dónde vas, qué cruces hay y cosas de estas. Si hay una mercería, si hay un banco, si hay tal. Pero además haciéndola 3D con el estéreo, situándote un poco más en el centro de la ciudad. Y así, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues, pues. Pero además haciéndola 3D con el estéreo, situándote un poco. Si no querías que te diga la izquierda o la derecha, tú puedes hacerte el paisaje sonoro sabiendo a dónde te queda una cosa por el sonido. Que lleves unos auriculares. Hoy por hoy. con los auriculares que hay, que no te tapan la oreja y tal, eso es divino. Y bueno, eso, no sé por qué Microsoft se cansó del proyecto, no lo quiso seguir, pero lo dejaron en abierto. Y hubo varia gente que lo cogió, pero lo fueron dejando. Y al final se ha quedado con ello una persona china que vive en Los Ángeles, que tenemos un grupo de gente que hizo Voice Vista, que muchos de los oyentes seguro que usáis y conocéis, y que yo traduzco afanosamente para que tenga una traducción, la parte de español, para que tenga una traducción coherente y no diga en un sitio intersección, en otro cruce y en otro no sé qué, sino que al usuario le sea familiar el lenguaje, aunque no sea a lo mejor el que más le guste, pero que diga lo mismo en todas partes, refiriéndose a lo mismo. Y ese está muy bien porque Microsoft Soundscape ha avanzado más, coge datos de OpenStreetMaps, que es una especie de Waze, vamos, bueno. Bueno, esto también estaría curioso contarlo en los programas de guiado, como Google Maps y tal, se hace su propia cartografía, pero el software libre también es de las suyas y de las buenas, por supuesto. Hicieron Waze, dirá mucha gente, que es una aplicación donde, aparte de estar los mapas y de guiarte, la comunidad pone cosas. Aquí hay un policía, cuidado que adelante hay una obra, que no sé qué, no sé cuánto, y puede meter información. Entonces eso es útil, tiene su sesgo, porque se puede hacer mal, pero bueno, está ahí y al final, de hecho, aunque Google no lo reconozca mucho, la compró y ahora Google Maps, cuando te dice radares y eso, muchas veces, sobre todo si son cosas temporales, muy temporales, pues vienen de Waze, que la está viendo también. Bueno, pues OpenStreetMaps tiene esto, marcan cosas, a veces están bien marcadas, a veces mal, tú también puedes hacer marcadores y voy a decirles que es un buen trabajo, que es un buen trabajo, que es un buen trabajo, y cuando lo tienes vista, obtiene datos de ahí, con lo cual ya no solo te dice mercería, no sé qué, sino pasos de cebra, papeleras, bancos para sentarte, parolas, fuentes, estatuas, culturas, un montón de cosas. La gente se sigue empeñando y eso yo creo que es un problema de hacer grupos de usuarios de ciegos, queremos que esté todo, todo en una aplicación y entonces quieren que le metan guía. Yo les quiero convencerles, vamos a ver, si Google Maps guía ahora muy bien y son competentes, entonces, ¿qué pasa? Entonces, si Google Maps guía ahora muy bien y son competentes, las dos porque no podemos caminar del punto a al ve guiados por google maps mientras voy vista nos cuenta el cotilleo lo que hay la gente tiene como tendencia no critico simplemente es lo que pasa a mí no me gusta evidentemente pero no pero no lo critico pues debe ser una cosa muy humana o que nos pasa todo lo que tenemos toda una aplicación y yo creo que es mejor una buena aplicación que guíe y desarrollar todo ese esfuerzo de desarrollar que te guíe o me cagará no es tanto esfuerzo porque google más tendrá su app y que se podrá meter en no sé dónde y bueno pero pero o sea la misma aplicación pero yo prefiero llevar la aplicación de guía que yo prefiera por ejemplo google maps o apple maps y voy vista que ese tiempo el chino se dedica a desarrollar mejor si lo permite no activar apple maps o google más si lo permite para referencia cartográfica y ahora como los usuarios lo han pedido también te hace rutas y te dice las cosas pero es peor pero es peor haciendo eso es peor que cualquiera de las dos que va mucho mejor llevar google maps o apple maps y tú llevar por también puesta también abierta voy vista y que hemos visto te vaya diciendo que a la derecha hay una papelera o lo que sea aunque y cuando tú en los grupos especializados que estáis trabajando con esta app con voice vista planteas esto esto mismo que acaba de comentar ahora que te contestan la gente está por la labor o no no no es una conversa de su grupo de usuarios que le sugieren cosas al chino o y donde estamos los traductores el chino es una pasada porque es un dedica un montón de tiempo de forma altruista a esta aplicación y Porque él se dedica a otras cosas. Él es un especialista en economía y en aplicaciones. Sí, sí, pero le debe gustar esto. Y la aplicación, de hecho, te puedes pagar. Hay gente que paga suscripciones, pero no hay diferencia. Si no pagas, tiene la misma. Es totalmente voluntario. A mí me gusta mucho y yo creo que es lo último que yo conozco que se está haciendo. Pero vamos, insisto, no era en inicio una aplicación de guiado, pero sí de cotilleo. Vamos, cotilleo. De cualquiera que va por la calle vidente, de una farmacia. Alguien que me lo diga, pues voy vista. Y lo que pasa es que la gente acabamos pidiendo y que me dicen no, es que yo tampoco trato de influir. Yo digo mi opinión, pero yo estoy más que nada como traductor. Y además, la gente cuando no quieren decir nada, o sea, lo siguen pidiendo y no te hacen caso. No discute. No, no, pero que me guíe. Pero no es que sea mejor. Oye, ponle una guía. O sea, como que no te hacen caso y siguen pidiendo lo suyo. También hubo otras partidas hasta así, en plan de cotilleo, de ver lo que tenemos alrededor, como el Blind Square o estas. Ah, sí. Bueno, es verdad que está basado en Foursquare. No sé si os acordaréis, Foursquare era una aplicación de la que sacaron muchísimos... Estas son estrategias comerciales buenísimas. Aunque aparentemente era libre, eso estaba Google por detrás y mucha gente, porque lo que se hacía era el juego de las cuatro esquinas, decir, tú vas ahí y donde estoy... ¡Ah! ¡Joder, estoy en un barbo, sé que cojonudo! Y ficho ahí, ¡pum! Y ponías una... Con lo cual, la gente iba haciendo acopio de datos. Que decías, ¡qué mal, no! Es lo que están haciendo ahora con nosotros cuando entrenamos los modelos de LM y todo eso. Muy bien, pues claro. Yo me di cuenta un día después de 20 meses usándola, porque sí que fui acérrimo del Foursquare. Y ponía ahí un montón de cosas y digo, ¡me cago en la leche! Llevo 20... Estaba haciendo el trabajo gratis a Google. No, no, no, eso no me importa. Eso era consciente. Pero me di cuenta de una cosa peor. Llevo 30 años de mi vida cagándome en todo... Cabreado por fichar en el trabajo y voy y cada vez que llego al sitio, ficho. Se ve tonto. Y de ahí sacaron un Blind Square de los datos de esos. Pero es una aplicación que no me gustó nunca. Y a la gente le gusta mucho. Parece que sentó cátedra porque mucha gente en el grupo de Voice Vista quieren que tenga lo mismo. Para mí tenía una interfaz que la quisieron hacer tan simple para ciegos que era complicada. Es que lo que... Como has nombrado antes, esto viene de un proyecto de Microsoft que se llama Soundscape. Y la traducción realmente es paisaje sonoro. Es un nombre perfecto. Pues verdaderamente, como tú has dicho, no es de guiado. Es decir, tú vas caminando, tú llevas tu perro, llevas tu bastón, sabes por dónde te mueves. Y lógicamente es como si tú estuvieras echando una ojeada alrededor tuyo y viendo exactamente dónde está cada cosa. Ese es un concepto. Y en lo suyo, yo creo que Soundscape funcionó muy bien. Tenía luego la posibilidad de poner balizas virtuales, sonoras y demás, bueno, donde tú querías ponerlas para marcar, hacer un marcado sobre la cartografía. Y fin. Ya no hacía nada más. Es la aplicación típica, perdona, en la que yo pediría, volviendo al pasado de nuestra conversación de hoy, donde yo pediría que el chino, Juan Zengu, metiese de mapas cartográficos de montañeros y eso, que sí que metiera, el cerrillo, no sé qué. Y todo eso, si lo querías, como una capa más, que yo siempre lo digo, mi deformación informática, mete lo que quieras, pero siempre configurable. ¿Lo quiere el usuario o no? ¿Quieres accidente geográfico? Y entonces, aparte, que vas y te diga que hay un poste, te diga, pues estás pasando cerca de la cueva de la Virgen del no sé qué. Claro, ¿por qué no? Sería ideal que no dijese el voicemail. A mí, no lo voy a pedir porque igual me crucifican. Porque era lo que había, o sea, cuando teníamos los Magellan, ellos y todo eso, bueno, yo creo que hay gente que los sigue utilizando. Es que yo el GPS ya de senderismo y eso no tengo ni ideas, pero tiene que seguir habiendo, ¿eh? Y la marca sigue existiendo, Magellan, esta de Magallanes. Hubo una aplicación, ¿no?, que era también a través de sonidos para ciegos, que creo que... El proyecto europeo, es verdad. Sí, que era Blind... No sé si la llamaban una gente asturiana. Tú, Arturo... Sí, sí, conozco al tío. Sí, sí, conozco al tío. Fue un proyecto europeo que mi fundación estuvo a punto de meterse y después no nos metieron. Ariadne GPS. Bueno, Ariadne también, pero esa no era Ariadne. Esa era italiana, ¿no? Esa era italiana y esa, yo la usé mucho porque era una buena chivata. Yo la usaba en el tren y marcaba puntos y te decía por qué pueblo andabas, a qué velocidad, que por cierto son datos GPS, ¿verdad? Cuando hablábamos de lo que sabemos del GPS, esta sí te contaba. Bueno, sigue, ¿eh? Hace mucho tiempo que no la actualiza, pero funciona. Sí, sí. Hace pocos días. Yo la puse así por vintageismo y estaba. Y sí te dice la altitud, longitud, la altitud, la velocidad y por dónde andas. La localización, la ubicación. Y eso cuando vas en tren y eso es muy divertido. Y puedes tocar el entorno en los mapas estos que tiene así curiosos. De eso no se ha hecho nada mejor. No se ha hecho nada mejor desde entonces. Si vas tocando... Apple lo ha hecho, lo de ir tocando una calle con el dedo y grabar moviendo, pero esto será lo mejor. Pues el proyecto europeo este, que no me acuerdo cómo se llama, Blind Algo. Blind Explorer. Sí, Blind Explorer. Y ocho pruebas con ella. Eso venía de un proyecto europeo. Eso tenía una cosa muy curiosa. Y yo les he servido de cieguecillo de indias alguna vez. Y lo que tienes con auriculares, lo que haces son rutas y lo que haces es llevarte recto. O sea, tú tienes que mantener un sonido siempre en el centro. Es un sonido que nos molestó. Pero en el centro. Y no sé qué pasó con esa gente. Hombre, llegaron a hacer cosas con 11 y creo que yo las últimas que les vi habían hecho el Camino de Santiago entero. Que, por cierto, el Camino de Santiago, la fundación que yo presidía en el 2010 hicimos el Camino francés entero, que le llamamos en honor a todo esto. Pues se me había olvidado. Le llamamos el Camino de los Satélites porque, ¿sabes qué es eso? El Camino de las Estrellas. Pues ahora Satélites. El Camino de los Satélites con Serafín y con más gente. Algún famoso hubo por ahí Indurain, que hizo un par de etapas y tal. Pero bueno, la gente que lo hicimos entero el Camino francés con los GPS que había en aquella época. Y bastante bien. Sí, sí. Es Rafa Olmedo. ¡Olmedo! Y siguen en activo y la empresa sigue funcionando y están ahí buscando clientes y siguen teniendo clientes. Y bueno, no sé si algún día las tenemos también por aquí. Yo tengo la aplicación. Hay rutas que puedes hacer y eso. Y esa se basa en eso, en irte guiando. Y sobre todo tiene una cosa muy interesante que otras no tienen, que es otra aplicación que no se hace mucho en GPS, ahora que lo estamos tocando, las miguitas. Es decir, yo voy de aquí a aquí porque me lo sé o voy con una persona que ve y conoce el camino y yo esto me lo marco y me hago una ruta. Los waypoints o puntos de camino o que siguen siendo las miguitas. Que tiras, ¿no? Como pulgarcito. Y entonces ya esa ruta la puedes hacer tanto en un sentido como en otro y además puedes ponerle marcas después, pero que ya no te pierdes del camino y encima compartirla con la humanidad. O sea, que eso sí que lo hace Blind Explorer y no otras. Bueno, es que es muy buena aplicación. Voy vista sí. Voy vista puedes grabar rutas. Por cierto, también. Aparte del cotilleo, sí que puedes grabar caminos que tú hagas. Y de hecho hay gente, me parece que es César Puente o alguna gente así muy está loca, en el buen sentido, que sí que me dijo que la usaba por el campo, en senderismo y eso. Voy vista. Porque se grababa las rutas. Muy bien. Bueno, si os parece, hacemos un resumen y vamos terminando. Bueno, pues yo creo que hemos dado un muy buen repaso a muchas cosas. Algunas las dejaremos por ahí en el tintero, pero bueno, también tenemos que dejar algo para otro día, ¿no? Y podemos ir haciendo un resumen y podemos ir terminando por ahí. Que hemos hecho un resumen histórico de cómo empezó toda la historia del actual GPS y otros sistemas parecidos. Y hemos visto un poco cómo ha ido evolucionando desde los Nokia N70 y cómo nos conectábamos a través de las antenas de los teléfonos móviles y con receptores externos que se conectaban por Bluetooth hasta hoy en día que lo tenemos enterrado en nuestro smartphone de forma completamente transparente. Yo creo que Enrique también nos ha explicado para civiles y lo hemos entendido muy bien cómo funciona todo el sistema GPS que ha resultado muy interesante y hemos visto también peculiaridades del mismo en distintos dispositivos y funcionalidades y bueno, ha estado muy bien. Hemos aprendido incluso la tierra, los meridianos, los paralelos, el meridiano del language, el ecuador, cómo está la tierra dividida, cómo nos podemos situar y hemos hecho un histórico aunque casi se me olvidan algunos pero al final los hemos ido recordando de cosas, los intentos que hemos hecho todos con todo esto hacer algo útil para las personas ciegas tanto en guiado como en cosas como Sound Escape o Voice Vista o Lazarillo o cosas que nos cuenten lo que hay alrededor más que guiarnos que eso también las hay y también nos pueden servir las debilidades. Pero todo como ha ido evolucionando esto, el GPS y la cartografía digital aplicada al mundo de las personas ciegas y con baja visión. Sí, ese punto de intercesión es interesante, que aunque la tecnología es generalista en este caso, el GPS que en este caso parece que no se inventó precisamente pensando en personas ciegas, pero como pues le hemos podido sacar bastante provecho. Y luego hemos aprendido una gran lección que es que aunque la tecnología es muy útil y nos presenta un servicio maravilloso nunca hay que depender ni tener fe ciega en ella, pese a que estemos hablando de dispositivos para ciegos ni confianza plena porque nos puede situar y poner en circunstancias muy comprometidas y realmente pues dejarnos fuera de juego si ponemos toda nuestra intención en lo que es sólo tecnología. Hay que aplicar también el sentido común y tener nuestros recursos como los tenía Enrique cuando era hippie y andaba por Ibiza con su mapa con su brújula y su forma de calcular. Era Menorca, eh que yo siempre he sido pobre. Ahora Menorca ya no está como estaba, pero vamos. Era preciosa, era preciosa Menorca es preciosa Menorca, vamos. En los 80 era salvaje. Sí, sí. Pues damos los medios de contacto y nos despedimos. Bueno, pues nuestra dirección de correo electrónico la que esperemos que nos escuche es en el sitio web de Enrique y nos escribáis y nos contéis cosas nos preguntéis y nos critiquéis es gapotas arroba cgatos punto es y nuestro número de WhatsApp para mensajes de audio y de texto en el más 34 Pues nada, muchísimas gracias Enrique otra vez es un placer el estar contigo hablando de estas cosas que nos gustan tanto a los tres. Y esperemos que también a la audiencia y muchas gracias a todos por llegar hasta aquí y acompañarnos y os esperamos en el próximo episodio. Hasta luego. Adiós. y sus aparatos y sus aparatos y sus aparatos ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! ¡Suscríbete al canal! Y era... Bueno, siempre que digo eso, me acuerdo una vez un catedrático de universidad, cuando se hizo la conferencia, no voy a decir quién ni de qué universidad, pero sí se hizo la conferencia del W3C de 2009, que se hizo en España, en el Campo de las Naciones, ponía bastante dinero la Fundación 11, y el tío estaba hablando en un inglés bastante deficiente, pero es que además empezó a citar los patrocinadores y cuando llegó a la 11, le decía, bueno, Fundación 11, bueno, Eleven Foundation, dijo él. Así se quedó. Así que se quedó ancho. Pues Miguel Mayo, igual que Mike Oldfield, que al final se queda en Miguel Campoviejo. Estamos hasta hablando de Sendero Luminoso, no Sendero Club. Bueno, si os parece, hacemos un resumen y vamos terminando. Vale, pues dilo tú. Resumen lo tengo que hacer yo. ¿Por qué empezaba? Entre todos. Pero ahora tiene que decir algo Arturo para introducirnos, ¿no? Porque esto hasta que estamos grabando ahora no... No. Damos el pie y no te lo vamos a... Que me lo cogéis y vamos.
Gafotas, cegatos y sus aparatos #15
Fecha: lunes, 24 de marzo de 2025, a las 00:00:00
En este decimoquinto episodio titulado “Matemáticas sin ver y tecnologías para facilitarlas”, Arturo y Ricardo conversan con José Enrique Fernández del Campo, profesor y Doctor de matemáticas ciego, sobre los desafíos y estrategias para el aprendizaje de las matemáticas sin resto visual funcional. Se analizan metodologías inclusivas, herramientas tecnológicas y la importancia de una enseñanza adaptada.
Temas destacados
-Trayectoria de José Enrique: cómo superó las barreras para estudiar y enseñar matemáticas.
-Matemáticas y accesibilidad: ningún concepto es inaccesible para una persona ciega si se utilizan los métodos adecuados.
-Los 4 lenguajes en el aula: manipulativo, gráfico, oral y simbólico, esenciales para una enseñanza efectiva.
-Tecnologías de apoyo: ábaco, cálculo mental, notación Braille, láminas en relieve y software accesible.
-Geometría y perspectiva: retos para los ciegos de nacimiento y cómo desarrollar la comprensión espacial.
-Didáctica y motivación: la enseñanza de las matemáticas debe ser creativa, práctica y estimulante.
Un episodio muy interesante para conocer cómo debería ser la didáctica del aprendizaje de las matemáticas en el aula con alumnos ciegos. Acompáñanos en un viaje trepidante entre números, símbolos, algoritmos y representaciones en relieve. ¡No te lo pierdas!
Intervienen:
Jose Enrique Fernández del Campo.
Enlaces a Sitios referenciados en el episodio:
Sitio Web de DISVIMAT – Matemática y estudiantes con discapacidad visual.
Canal de Youtube de José Enrique Fernández del Campo.
EDICO (Editor Científico ONCE).
LAMBDA, editor matemático para personas ciegas - Compartolid.
Juego de matemáticas “Accessible Math Match” de Jonathan Chacón en App Store.
Grupo ACCEDO - ONCE Educación inclusiva.
Blog - Pensamiento computacional con Scratch.
Scratch Jr Tactile: el proyecto que enseña pensamiento computacional al alumnado con discapacidad.
Código Nemeth Braille – Wikipedia.
Créditos:
Duración: 01:45:13
Descripción detallada del logo de Episodio 15. Matemáticas sin ver y tecnologías para facilitarlas.
La imagen representa una escena de un aula con un ambiente retrofuturista, en la que un profesor y varios alumnos participan en una clase de matemáticas con un enfoque visual y manipulativo. La iluminación es cálida y proviene de la luz natural que entra por la gran ventana de la izquierda, complementada por lámparas colgantes que aportan un brillo tenue pero acogedor al aula. El profesor Ubicado en el centro de la imagen, el profesor es un personaje carismático y peculiar. Lleva un traje marrón oscuro con una camisa blanca y corbata negra. Tiene un peinado voluminoso y peinado hacia atrás, lo que le da un aire elegante pero algo excéntrico. Lo más llamativo de su apariencia son sus grandes gafas de sol redondas con cristales oscuros y unos auriculares de gran tamaño con un diseño retro, lo que refuerza la estética futurista y enigmática. Está sosteniendo un objeto geométrico tridimensional dorado, que parece un modelo de estructura matemática o un poliedro, mostrando entusiasmo mientras lo presenta a los alumnos. Los alumnos Los estudiantes, sentados en sus pupitres, están absortos en la clase y muestran interés en los materiales que tienen frente a ellos. Cada niño es diferente y presenta una estética única: 1. Niña en primer plano, de espaldas: Lleva un jersey verde oscuro y está concentrada en su ábaco de madera con cuentas de colores, mientras observa atentamente al profesor. 2. Niño de su derecha: Viste un suéter anaranjado y también tiene un ábaco sobre su pupitre. Su cabello es corto y oscuro, y parece estar atento a la explicación. 3. Niño pelirrojo con camisa blanca: Más al fondo, parece escribir algo o hacer cálculos en su cuaderno. 4. Niño rubio con gafas y auriculares: Lleva un suéter verde y parece utilizar una tablet, lo que aporta un contraste tecnológico al ambiente clásico del aula. 5. Otros niños en el fondo: Algunos miran al profesor, otros interactúan con modelos geométricos en sus mesas o usan ábacos similares. El aula y su mobiliario El aula tiene un aire nostálgico con toques modernos. Las paredes están decoradas con gráficos matemáticos, ecuaciones y diagramas de colores. Destacan varios elementos: - Pizarras: Hay dos pizarras, una central y otra lateral, repletas de ecuaciones matemáticas, gráficos y operaciones. En la principal se lee un gran número "3455" en tiza, lo que sugiere un elemento clave de la lección. - Ábacos: Hay numerosos ábacos de distintos tamaños y diseños, algunos montados en la pared y otros en los pupitres de los alumnos. - Gráficos y diagramas: En la pared derecha hay un gráfico con una curva ascendente y otros carteles con representaciones matemáticas, incluyendo un círculo cromático. - Reloj de pared: Muestra la hora en un estilo clásico, reforzando la ambientación tradicional del aula. Ambiente y estilo La imagen tiene un estilo artístico detallado con una fusión entre lo clásico y lo futurista. La paleta de colores es cálida, dominada por tonos marrones, dorados y naranjas, lo que aporta un aire acogedor. La iluminación natural de la ventana crea un juego de luces y sombras que refuerzan la profundidad de la escena, mientras que las lámparas colgantes complementan con un brillo tenue. En conjunto, la imagen transmite la sensación de una educación innovadora pero con raíces en métodos tradicionales, uniendo la tecnología con la enseñanza manipulativa.
Mostrar transcripción de Episodio 15. Matemáticas sin ver y tecnologías para facilitarlas.
Transcripción de Episodio 15. Matemáticas sin ver y tecnologías para facilitarlas.
y sus aparatos podcast Bienvenidos al decimoquinto episodio de tu podcast favorito. ¿Qué tal estás Ricardo? Muy bien Arturo, pues muy contento como siempre que grabamos un nuevo episodio y hoy de nuevo la temática me resulta apasionante pero es que el colaborador también es una persona que debemos conocer porque nos va a hablar de un tema que probablemente no conozcamos profundamente como son las matemáticas. Y toquemos como es mi caso de oído. Siempre hemos pensado que las matemáticas son aritmética, cálculo y poco más aunque muchos también hayan tenido lo que es conocimiento de matemática conceptual y demás pero bueno es una materia que tenemos poco conocimiento de la misma y lógicamente bueno que en este siglo XXI probablemente sea una de las disciplinas más potentes junto a la física y la astrofísica. Y que más se requiere para los nuevos trabajos que están surgiendo. Así que nada, lo importante es conocer esto y no solo esto como tal sino como las personas ciegas también pueden aprender matemáticas. Sí, ¿qué tal se te daban las mates en el cole? Pues mira, yo en la cuestión calcular y mético y eso muy bien. Yo tenía un gran profesor de matemáticas pero bueno, un gran conocedor de las matemáticas. Una persona que tenía muchos conocimientos pero como profesor era excesivamente elitista para mi gusto. Entonces a mí que me... explicándome un poco mejor lo comprendía. Te lo digo porque repetí y me di cuenta que el segundo profesor sí que lo entendía. Pero bueno, en principio no las aborrecí y de hecho creo que de adulto, bueno cuando dejé ya de estudiar la bachiller o en todos los estudios, que hice pues es cuando he tomado más interés. He leído algún tipo, algunos libros y bueno, realmente sí me resultan apasionantes. De hecho, todo lo que rodea las matemáticas me resulta muy interesante y muy enigmático porque yo no sé si tú sabrás que las matemáticas tienen mucho de creatividad. Sí, sí. Y son más abstractas de lo que en un principio puedan parecer. Pero creo que aquí es lo más importante como muy bien has dicho. Es el profesor, ¿no? Cuando alguien te lo sabe explicar, te lo cuenta bien, cambia la percepción completamente. Las matemáticas tienen muy mala prensa pero yo creo que porque no nos las han sabido enseñar adecuadamente. No sé si será un mito o no pero dicen que todo es matemáticas, todo se puede explicar e interpretar por las matemáticas y realmente es como un lenguaje universal. Pero bueno, esto más que divagar aquí. Lo importante es que se lo preguntemos a nuestro experto. Sí, vamos a preguntárselo directamente, José Enrique. Muy buenas, ¿cómo estás? Muy buenas, queridos amigos, compañeros de este podcast tan interesante. O sea, lo de Cegatos no me gusta mucho. No es políticamente correcto, pero bien. O sea, estamos entre gente que nos conocemos y amigos y si no nos conocíamos bien, pues nos vamos a conocer mucho mejor después de esto. Nuestra idea era no ser políticamente correctos y sacudir mentes. Lo estáis consiguiendo. Pues bien, pues entonces prueba superada. Estamos orgullosos. Bueno, José Enrique, estamos encantados de que estés aquí con Gafota, Cegatos y sus aparatos. Es un lujo, un honor tenerte. Una persona tan conocedora de lo que son las matemáticas y sobre todo también su aplicación didáctica y metodológica de cara a lo que es la enseñanza. ¿Quién es José Enrique Fernández del Cegatos? Campo, cuéntanos que nadie mejor que tú tienes una auto percepción tuya y sobre todo actualizada y que quieras mostrar a los oyentes. Bueno, José Enrique Fernández del Campo es un profesor de matemáticas ciego, nacido y viviendo en Madrid. Estos son los carne y dentira, digamos. Perdí la vista a los 10 y 12 años, un glaucoma, y yo tenía un problema. Tenía una ilusión de pequeño, de pequeño con mis 8 años. Bueno, en aquel momento en Madrid mi padre era maestro y la ilusión de la clase media y la clase baja es que los hijos fueran universitarios. Y yo quería ser universitario. Y se me daban bastante bien las matemáticas a mis 8 años, el cálculo y cosas de estas. Y dije que quería ser ingeniero de caminos, canales y puertos. Como es largo, debe ser una cosa muy importante. Cuando fui perdiendo la vista, es más, cuando llegué, en el colegio de la ONCE como interno, que se hacía entonces, pues me preguntaban, ¿y tú qué vas a estudiar? Ya tenía yo, pues eso, mis 12 años. Yo voy a estudiar, voy a ser ingeniero de caminos, canales y puertos. Y como eso es muy difícil y no voy a poder porque no veo, voy a estudiar ciencias matemáticas. ¡Hala! ¿Un ciego no puede estudiar matemáticas? Bueno, pues claro, aquello fue un jarro de agua fría. Un ciego no puede estudiar matemáticas ni carreras de ciencia. Bueno, yo había conocido a un profesor de matemáticas, compañero de mi padre, aunque era licenciado en matemáticas, en ciencias exactas entonces, se decía. Pues no obstante, era profesor de primaria y luego en una academia daba clases de problemas de matemáticas. Y como me invitaba a tomar café en los recreos, cuando yo estaba con mis operaciones de los ojos, iba acompañado de mi padre y tal, pues yo quería ser profesor de matemáticas. Bueno, pues ahí quedó la cosa. Un ciego no puede estudiar matemáticas. Y cuando un compañero de clase abandonó el colegio al hacer cuarto, bachillerato después, para estudiar bachillerato, entonces era obligatorio en el colegio de la UCE hacer magisterio, ser maestro, pues le preguntaron si, por qué no se iba a ciencias. Se le daban bien las ciencias a Tomás. Y dijo, no, eso se queda para la gente joven como José Enrique. Así que dije, ah, pues puede ser. Y se me planteó la posibilidad, se me planteó en mi cabeza, y yo lo dije en mi familia, voy a intentar hacer ciencias. Y mi padre, con gran sentido común, dijo, ah, muy bien, eso te va a costar bastante por no ver el tablero y esas cosas, pero no te preocupes, eres joven y puedes perder uno, dos o tres años, lo que quieras. Y así empezó mi carrera en el campo de las matemáticas. Y en la enseñanza, desde los 18 años, pues tuve la oportunidad de unas oposiciones, unas pruebas, para ser profesor de primaria en la ONCE, y empecé a trabajar como profesor de primaria en el colegio de ciegos de Madrid. Y hasta hace, ¿cuánto?, ocho años que me jubilé, pues he ido pasando de profesor de primaria, luego de secundaria cuando terminé la carrera, luego me fui dedicando a cosas variadas, como fue la publicidad, en el caso de la ONCE puse un pie en política en el Ayuntamiento de Madrid como concejal de la oposición. Y cosas de estas, hasta que en un cierto momento, bueno, empecé también a estudiar, a aprender informática de forma autodidacta, ¿no? Bueno, y a programar un poquito, Pascal, estas cosas, porque empecé a dar clase en la escuela normal. Llamada entonces Facultad de Educación, que se dice hoy. Y el jefe de departamento, el profesor Leith Poon, estaba empeñado en que iniciáramos el campo de la informática. Se compró incluso un ordenador para el departamento, un abstract de aquellos antiguos que luego fueron, fue Apple, y bueno, pues empezamos con diagramas de flujo y programación. No grababa los programas, ¿eh? O sea, había que teclearlo todo completamente, probarlo, correrlo, ver que funcionaba, y se acabó, ¿eh? Se imprimía en papel, eso sí, el programa, pero se perdía. Bueno, pues esto hasta que en un cierto momento, en el departamento de educación de la ONCE, la directora en aquel momento, Luz Dainé, me propuso ir a trabajar allí, precisamente para la formación del profesorado en materia de didáctica de la matemática. Yo acababa de terminar el doctorado, estoy hablando de los años 90, hice el doctorado en el siglo pasado, 1999 fue el momento en que lo defendí. ¿Cuál fue tu tesis? Mi tesis, Iniciación al cálculo aritmético con estudiantes con deficiencia visual. Muy bien. Y deficiencia visual grave, para más datos. Bueno, y a partir de entonces dejé la enseñanza directa en secundaria, es decir, los adolescentes se libraron de mí, de alguna forma, y me dediqué sobre todo a la formación de profesores que tenían un estudiante con discapacidad visual en el aula. Y fui por esas ciudades de España y alguna del extranjero con el tema este, didáctica de la matemática. Y en aquella época que estabas en un centro neurálgico donde podías tener información de todos los estudiantes de España que estaban estudiando matemáticas, ¿sabes si alguno de ellos llegó a hacer también estudios superiores de matemática? Algunos de mis alumnos del colegio se licenciaron y están haciendo ahora mismo las matemáticas. Puedo recordar a Rubén Domínguez que trabaja en GMV desde nada más terminar la carrera, yo creo, pero en informática fundamentalmente, como informático. Y luego después, pues, algún otro, pero no se ha dedicado concretamente a las matemáticas, o sea que en matemáticas solamente se puede decir que tengo ahora mismo un activo este. Pero sobre todo me dediqué sobre la formación de los profesores de apoyo de los equipos de la ONCE o de las autonomías para atención a alumnos de la universidad. Y luego también me dediqué a estudiar en el régimen de educación integrada o educación inclusiva, que empezaba ya a llamarse. Bueno, pues comencemos hablando de matemáticas, pero de matemáticas sin apellidos. Todo lo que dicen sobre la matemática, ¿tú crees que es así, José Enrique? ¿La matemática es un lenguaje? ¿La matemática está en todo? Una precisión primero. Cada vez se habla menos de matemáticas y se habla más de las STEM, Science, Technology, Engineering and Mathematics. STEM es decir que la matemática como tal aislada de las demás, de las ciencias más próximas a las que prestan los servicios, la matemática, la reina y esclava de todas las ciencias, pues se tiende a dar en un conjunto de actividades que incluyen aspectos de trabajos en física o en química o en biología, que precisan tecnología, llegar a diseños que se necesitan para hacer un trabajo. Y modelos que funcionen, ingeniería, incluso algunos incluyen el arte. Antes que tú hacías, me parece Ricardo, referencia a este aspecto, lo que pueda tener de arte. Y esto era una expresión que tenía, quizás que ha sido el pionero en didáctica de las matemáticas en España, Pedro Puchadán, en los años 1940 y 50. Él mismo era músico. Él mismo era músico. Él mismo era músico. Era pintor y era profesor de matemáticas. Profesor en la escuela de ingenieros, profesor primero de instituto, se han ido en Madrid, luego en la escuela de ingenieros industriales. Pero lo que más le gustaba era dar clase a los niños pequeños, a los párvulos de 6 y 7 años, porque decía que ahí es donde se consiguen fijar los conceptos fundamentales de matemáticas. ¿Y por qué tienen tan mala prensa las matemáticas? ¿Por qué tienen tan mala prensa las matemáticas? Porque los profesores no saben transmitirlo correctamente. ¿Realmente son un tostón o hace falta proactivamente que el alumno ponga especial énfasis más que en otras materias? ¿Por qué tienen esa mala fama? Yo diría porque las matemáticas se han presentado siempre como algo abstracto. Es decir, alejado de la realidad cotidiana. No se ha visto la faceta de aplicación cotidiana. La aplicación cotidiana de las matemáticas en nuestra vida, en la vida diaria. Y la matemática está ahí. Y está en todas partes, ciertamente. Antes decíais que ser las matemáticas es un lenguaje. Vamos a ver. Para empezar voy a ser un poquito agresivo. Yo también quiero ser prácticamente incorrecto en algunas cosas. Y como estamos hablando de ciegos, la matemática son difíciles y aburridas para todo el mundo. Así que para los ciegos no es así. No digamos. Primera afirmación contundente. Soy consciente de lo que voy a decir. Lo lanzo como un reto. La matemática, cualquier aspecto de la matemática actualmente, es accesible para una persona ciega. No hay ningún concepto ni ninguna técnica matemática que no pueda ser alcanzada y manejada con destreza. Por una persona que no ve. Otra cosa son las actividades concretamente, que pueden ser más o menos complicadas y hacerlas más difíciles. Difíciles, trabajosas, pero no imposibles. No inaccesibles. Eso por una parte. Por otra parte, que las matemáticas se enseñan bien, se enseñan mal. Bueno, hay un aspecto. Para mí, yo no me gusta hablar de enseñanza. Durante unos años se hablaba de enseñanza-aprendizaje. La reforma educativa de los años 1970 y después 1980 se hizo más hincapié todavía. Es decir, lo importante no es lo que enseña o cómo enseña el profesor. Lo importante es cómo aprende y lo que aprende el estudiante. Es decir, un profesor puede ser un profesor excelente y sin embargo, pues los estudiantes en un aula, pues no lo hacen. No le siguen. No le siguen porque, en primer lugar, es que el aprendizaje es algo libre. Estamos hablando de personas, de animales racionales, no solo, sino sobre todo personas libres. Si no se quiere aprender, no se aprende. Se puede domesticar a base de palos, como los animales, ¿no? Sobre todo los animales que vienen de un mundo salvaje. Se les puede engañar con comida, con golosinas. Se les puede domesticar. Pero no aprenderán. Simplemente responderán a estímulos. Pero bien, en el caso de la enseñanza ocurre eso. Es decir, si el estudiante no quiere aprender, no aprende. Haga lo que haga el profesor. Ahora bien, los profesores efectivamente, o sea, pueden funcionar a base de palos, o a base de golosinas, o de presentar las cosas de forma, por lo menos, no desagradable. Cuanto más agradable, mejor. Hablaba antes de Puig Adam. Puig Adam tenía una frase dedicada a la formación de profesores que era el profesor tiene que disfrutar dando clase. Y los profesores tienen que pasarlo bien. Tienen que salir del aula, de la clase de matemáticas, habiéndolo pasado bien. Si no, no aprenderán. Verán las matemáticas como algo, decía antes, abstracto, gris, aburrido, y bueno, clase y que hay que aprobar. Pero luego después no me lo voy a encontrar en la vida. Cuando en realidad es todo lo contrario. En cuanto ponga el pie fuera del aula, se va a encontrar con matemáticas. Es cierto que el alumno está en el centro, pero un profesor ayuda, para bien o para mal, ayuda mucho. Yo tuve un profesor en el instituto con temas ya un poco integrales, ya complejas y cosas de estas, que en cada aula le daba un resultado distinto. Es que era difícil seguirle. Te desanimaba, ¿no? Yo ahí tengo también. Mi criterio, que no es nada científico, pero bueno, por observación o reflexión de lo que he vivido, yo creo que un aula es un sitio muy ecléptico, tanto de personalidades como de traumas. Tanto del que ofrece la información, como es el profesor, como los que la reciben y asimilan. Por lo tanto, clarísimo. Ahora, sí que veo la parte de mago del profesor. Está bien que el palo muchas veces viene bien y ponerte a ser y demás. Pero la parte de ilusionista, de atraer la atención, ¿vale? Y luego lo que ha dicho José Enrique, es decir, ser carismático, divertido, mover esas energías del aula, de la clase, hacen que toda la información entre sin darte cuenta también. Hablo, hombre, si ya estás concienciado y te gusta y vas a aprender, no te hace falta todo eso. Tú vas a, te digo, para un poco atraer lo que es la atención y la atención. Y la receptividad de la clase. Ya digo que esto no es científico ni nada, pero creo, estoy convencido de que debe ser así. Claro, hay que motivar. Intentar encontrar ese punto que al alumno le interesa para que pueda enganchar. No, estoy plenamente de acuerdo con vosotros. Pero lo que no ha habido es formación en didáctica de la matemática. Formación de profesorado. Apenas unas cuantas horas al terminar la facultad de algún seminario sobre didáctica de la matemática. Y, bueno, ya empieza a haber buenos divulgadores y buenos profesionales en didáctica de la matemática. Incluso hay cátedras en algunas universidades, pienso aquí en España, en Granada, que tienen cátedras, departamentos y cátedras de didáctica de la matemática. Didáctica en el sentido de aprender. O sea, mientras que la metodología se refiere más al cómo enseñar, al cómo presentar, al cómo ir creciendo, avanzando en el campo de los conocimientos, en los conocimientos matemáticos, la didáctica es sentarse a pensar cómo aprendemos la matemática y cómo aprender mejor las matemáticas. De forma, si se quiere, más sencilla. La palabra divertida no me gusta por lo que tiene de dispersión. Y no se trata de dispersarse. Lo que se trata es de ir buscando eso, los aspectos donde se encuentra, los aspectos que son agradables. Al monte hay que subir de todas formas. Hay que subir. Se le pueden poner un paseo con arbolitos, con fuentes, con pajaritos cantando en los árboles, algunos bancos para sentarse y tal. Muy bien, pero hay que subir. ¿Qué es la didáctica? ¿Qué es la didáctica? ¿Qué es la didáctica? ¿Qué es la didáctica? ¿Qué es la didáctica? Porque para aprender matemáticas hace falta codos o si las entiendes bien desde el principio porque te las explican bien y tú estás receptivo, no hace falta echar tanto codo. Las matemáticas son difíciles porque son más difíciles que las ciencias de naturaleza, cualquiera que sean, la física, la química, la biología, incluso las técnicas. Estamos en un segundo plano. No estamos en el plano de la realidad tangible, de lo perceptible, de lo que entra por los sentidos y que se quiere experimentar, sino que hay que hacer una abstracción. Hay que entrar en un mundo que está dentro de la realidad física pero que sin embargo hay que extraerlo. Es un pozo en el que hay que echar el cubo y luego subirlo. Pero sabiendo que hay un agua cristalina y muy agradable y además que tenemos sed porque lo necesitamos continuamente. Lo que me parece interesante es que ese refuerzo o esa insistencia inicial en la primaria de enseñar la base, la aritmática, el cálculo, donde se ponen tantos esfuerzos y realmente el alumno toma un primer contacto con lo que son matemáticas, le hace un flaco favor a lo que es luego la matemática más conceptual porque somos como los que miramos el dedo del sabio como necios, ¿no? Diciendo, joder, ¿y esto qué es? ¿Es dos más dos? ¿Qué es? Y nadie nos explica ese tránsito. Es decir, todos pensamos que las matemáticas es cálculo al principio, la aritmética, y luego pasamos a otra cosa que como bien has dicho es muy abstracta y ahí muchas veces no tenemos un hilo de arianda para llegar hasta el final de todos esos conocimientos. Decimos, bueno, vale, ya está. Hasta aquí llego, pero esto ya se me va de las manos. Para empezar, ya el dos más dos es abstracto. Estamos en el campo de la abstracción. Y hay dos cosas. Una cosa es el cálculo concretamente, que es la primera fase de las matemáticas. Incluso históricamente los primeros pasos en la escritura fueron las matemáticas. Empezamos con marcas, con marcas en madera y en hueso, como ya me ha parecido, muy anteriores a la aparición de la escritura jeroglífica, logográfica o de, bueno, no digamos ya hasta llegar a la alfabética, o becedárica. Pero una cosa es encontrar las matemáticas en una realidad y otra cosa es la presentación de las matemáticas después. Y ahí voy a seguir, voy a ser uno correcto en una cosa por incorrecto en otra. Los lenguajes. Los lenguajes de presentación, de acceso a las matemáticas y luego para poder trabajar. Los cuatro lenguajes. Yo soy partidario de los cuatro lenguajes. No sé si la expresión me pertenece o la encontré en algún sitio y me gustó. Hay un lenguaje manipulativo de expresiones físicas, de tomar tres piedrecitas y otras tres y otras tres y otras tres y otras tres y cómo, primero, ir sumando, y tres más tres, hay una realidad. Ahora ya estamos hablando. Tenemos el habla común. Aunque no lo escribamos. Pero estamos manipulando y estamos hablando. Es muy fácil convertir eso en el habla, la lengua común, que es la lengua franca del aula. Fundamentalmente en el aula se habla. Bueno, se manipula. Si no se manipula, malo. Si directamente pasamos a decir, niños, repetir conmigo, tres más tres, tres más tres son seis. ¿Lo cantamos? Lo cantamos. Se puede cantar. Pero falta ese lenguaje manipulativo de encontrar la matemática en la realidad. Y luego tenemos, aparte del habla común, que sea hablada o pueda ser escrita. Me hace mucha gracia cuando he pasado algún podcast o alguna charla, la he pasado de voz a texto. Claro, no utiliza cifras ni cantidades. Utiliza el lenguaje, el lenguaje, el habla común. O sea, tres, T-R-E-S, más M-A-S, con acento, tres es, hace seis. Bueno, pues estamos en el habla común. Pero, por sencillez, y repito, esto también históricamente fue el paso inmediato, antes incluso posiblemente que en otras formas de escritura, la escritura simbólica, el lenguaje simbólico. Y ahí sí que las matemáticas tienen un papel fundamental. Tienen un papel fundamental porque el lenguaje simbólico, simbólico matemático, es decir, desde las cifras, los números, y luego ya las expresiones algebraicas o de expresiones geométricas o de lógica, ese hoy día es un lenguaje universal. Es decir, los chinos, en el chino tradicional, en el pequenés, por ejemplo, pues sí, había una escritura de los números, o en el caso de la escritura maya, que es una cosa, es un monumento a la razón humana, de los productos de la razón humana, es la escritura numérica maya. Pues es simbólica. Pero hoy día hay un lenguaje universal, simbólico para las matemáticas. Una sobrina mía y su marido pues fueron a trabajar a Múnich. Y de sus hijos, pues uno de ellos, en Zaragoza, estaban en un... en un colegio bilingüe, es decir, algunas naturas en inglés y otras en español, castellano. Pues había en Múnich una escuela que era bilingüe, pero inglés-alemán. Y yo hablaba con este, que tenía entonces 13 años y estaba desesperado, porque de la mitad de las cosas, o de otra parte, no se enteraba. Y le pregunto, bueno, ¿y el mate es qué tal? Y dice, ah, muy bien, tío, estupendo, porque eso sí que es todo igual. Se escriben exactamente igual en alemán que en español. Se escribe en lenguaje matemático, en lenguaje simbólico matemático. Pero hay otro lenguaje muy poco utilizado en matemáticas, y en el caso de los ciegos yo diría que todavía menos, porque se piensa que es imposible, que es el lenguaje gráfico. El dibujo. Que no es sólo para geometría. Es para teoría de conjuntos. Es para representación de las operaciones aritméticas, incluso del álgebra. Pero, muy bien, esos cuatro lenguajes, manipulativo, el habla común, el gráfico, que para mí es el específico de la didáctica de la matemática, y el simbólico matemático, esos cuatro lenguajes, continuamente hay que utilizarlos en el aula. Se deben utilizar esos cuatro lenguajes. Y todos ellos son accesibles con muy pocas modificaciones, con muy pocas modificaciones, con muy poco instrumental son accesibles para un estudiante o un adulto que quiere, ciego, con discapacidad visual grave, que quiere aprender matemáticas. A mí me han comentado varias veces, me resulta curioso, personas ciegas de nacimiento, que el tema de la perspectiva tienen graves problemas para entenderlo, incluso que no llegan a comprenderlo. Perspectiva me refiero a dibujar en perspectiva isométrica, perspectiva caballera, diferentes formas... de dibujar en un plano, en dos dimensiones, dibujar algo de tres dimensiones. Hay diferentes formas, diferentes técnicas. Y una persona ciega de nacimiento puede que tiene problemas con ello. Si os parece, podríamos ir por áreas dentro de la matemática y entonces vemos también las soluciones que hay y sobre todo cómo la tecnología, qué aparatos pueden utilizar los ciegos para acceder mejor a estas cosas. Porque precisamente si has tocado un punto, es un punto que es un poco escabroso, de alguna forma, que es la perspectiva, que ni siquiera la vista la percibe, perdón, la vista en la realidad sí la percibe. En un dibujo no la percibe, la construye. Si queréis, ya os propongo, si os parece bien, empezamos por lo que ha parecido siempre muy difícil y ha llevado muchas horas de trabajo y muchos ensayos, que es el caso del cálculo. El cálculo aritmético, que es lo primero que se aprende y es lo que se maneja más en la vida, habitualmente. O sea, si llegamos a una tienda de chuches, un estudiante o llevamos nosotros adultos, llegamos a una cafetería y vamos un grupo de cuatro amigos y pedimos cuatro cafés y sabemos que bueno, que son dos euros veinte, dice, ¿cuánto es esto? Hoy invito yo. Dos veinte por cuatro, cuatro por dos ocho, veinte por cuatro, ochenta. Ocho ochenta. Vale, muy bien. ¿Qué estamos haciendo? Estamos haciendo cálculo mental. En la vida se hace, sobre todo, cálculo mental. En cantidades pequeñas. Y en cantidades grandes, ¿qué se hace hoy día? Se coge el teléfono y sé que hay que multiplicar diecisiete coma veinticinco por bueno, vamos a poner otras dimensiones de una sala que hay que cubrir el pavimento. Hay que cubrir el suelo para alfombrarlo, poner una moqueta o poner un pavimento cualquiera. Y la habitación tiene cuatro con veinticinco por dos con ochenta y cinco. ¿Qué hacemos? A la calculadora. A la calculadora. Hoy día se le ocurre a alguien coger un papel y empezar a escribir aquellas multiplicaciones con las que nos torturaron. O sea, yo también fui víctima de las multiplicaciones y divisiones horrorosas. Pero bueno, sí, te obligaban a hacer esfuerzo. Y me llevo una. Y me llevo una. Y ponías la cometa arriba, ¿no? Y me llevo una. Una suma grande. Bueno, ahí está el primer escollo en el aprendizaje de matemáticas. En los cálculos largos, tediosos, aburridos y sin sentido. Sin sentido porque luego en la vida no se usa. Del cálculo mental a la calculadora. Hay que aprender los algoritmos. La forma escrita de hacer las operaciones grandes. Yo diría conocerlos como una antigüaya, como una curiosidad. Que por cierto, los algoritmos que se utilizan en España, bueno, yo creo que prácticamente en todo el mundo ahora mismo, bueno, suma y resta ya son más antiguos, pero lo que son los de multiplicación y división fueron construidos por un ciego, por Leonhard Euler. Leonhard Euler veía muy mal, ya a partir de los 32 años, no podía leer, sólo podía escribir. Y escribía y luego tenía secretarios, primero unos secretarios y luego un yerno y luego el hijo de un zapatero. Que pasó a la historia con un nombre, porque se dedicó a las matemáticas. Pues, pero a partir de los 50 años ya no podían escribir, no se entendía lo que escribía, lo dictaba. Pues bien, ¿por qué inventó los algoritmos de las operaciones aritméticas? Incluso el algoritmo de la raíz cuadrada. Cosa curiosa. Ahora bien, hoy no, hoy día no se usan los algoritmos escritos. Son inútiles en la vida ordinaria. Bueno, hombre, no todo el mundo tiene un teléfono a mano. Yo pienso siempre en los veintitantos millones de estudiantes ciegos, que hay ciegos totales, que hay, por eso, el mundo es de Dios. Personas ciegas habrá del orden de doscientos y pico millones. Personas que se puede decir, bueno, adultos, pero estudiantes, del orden de veintitantos millones. Bueno, es que esto no tiene ni instrumental para escribir en braille. Mucho menos instrumental que permitiera hacer las operaciones aritméticas pues de forma accesible para una persona ciega. No digo yo una máquina Perkins, que fue un gran adelanto, un salto en la educación de los ciegos. Bueno, primero, por supuesto, fue el braille, pero eso nos llevaría al lenguaje simbólico. Pero luego, como instrumental, la máquina Perkins, que acabó además... ¿El abaco no? El abaco es que era un instrumento, no ya para personas ciegas, sino de cálculo general, de tiempos remotísimos. O sea, los, por ejemplo, los romanos, antes los fenicios utilizaban los abacos. El abaco de diez cuentas. Y luego, el abaco japonés, chino-japonés, donde una cuenta vale por cinco y luego cuatro cuentas más, pues he dicho diez cuentas, no, nueve cuentas. El de diez cuentas era el de Montessori, que se utilizó para la educación. Pero para cálculo se utilizaba el abaco de nueve cuentas. Los mercaderes. El común de los ciudadanos no utilizaban el abaco. No sabían calcular. Se les podía engañar fácilmente. Confiaban a los mercaderes o no confiaban. Pero bueno, se vio que era accesible. ¿Es fácil explicar cómo funciona un abaco? Cómo funciona, sí. Pero cómo se hacen las operaciones con el abaco no es tan fácil. Tiene un algoritmo propio, distinto de la escritura. En realidad son una colección de varillas unidas por un eje longitudinal. Bueno, está normalmente en una cajita, una caja. Y entonces ese eje longitudinal, esa línea, lo dividen las varillas en dos segmentos. Uno más pequeño con una sola bola, una sola cuenta, y el otro con cuatro cuentas. De manera que si se acercan a la que está sola, se acerca a la línea de separación central, que es la línea de unidades. Si quieres escribir tres, lo que tienes que es separar. Esa tiene que estar alejada de la línea de separación. Y acercar tres bolas, que son unidades. Si quieres escribir siete, pues acerca la línea de cinco y dos de uno. Esto se puede hacer muy rápidamente con los dedos. La vista ayuda, pero las personas ciegas lo pueden hacer con gran rapidez. Eso es para escribir una cantidad. Para la suma, bueno, puede ser cuestión de ir sobre una cantidad ya escrita, ir haciendo lo mismo, ir reduciendo. Es decir, cuando llegas a más de diez, entonces dejas las que pasan de diez en esa varilla, y añades una unidad de orden superior a la siguiente. Hay que sumar de dos en dos las cantidades. Bueno, en cálculo mental también se hace así, de dos en dos. Bueno, puede llegar a ser muy rápido. La suma y en el caso de la resta. La multiplicación es suma repetida. Es bastante más, si llega a ser, bastante más complicado. Y la división es complicadísima. Hay que aprender las técnicas de manejo del abaco. Pero es que hoy día no me hace falta. Es que hoy día no hago cálculo escrito y tampoco utilizo instrumental específico. Bien, ya sé que hay personas que discrepan de este asunto. Bueno, yo también tengo derecho a discrepar, ¿no? Del cálculo mental en la calculadora. Bueno, perdón, cálculo mental se puede hacer cosas imponentes. O sea, claro, si decimos, hombre, si quieres multiplicar 83 por 77, digo, muy sencillo, 6391. Muy bien. Ahora cogemos nosotros la calculadora y lo comprobamos. Si quieres, si quieres. Pero, ¿por qué? Porque 83 es 80 más 3 y 77 es 80 menos 3. Suma por diferencia, diferencia de cuadrados. 80 al cuadrado menos 3 al cuadrado. 8 al cuadrado es 64. Y dos ceros, claro, 6400. Menos 3 al cuadrado que es 9. 6400 menos 9, Esto está al alcance de todas las fortunas. O sea, no hay que ser un Euler para hacer este tipo de cálculos. Se puede aprender hombre, pasito a pasito, eh. Pero el cálculo mental se pueden hacer maravillas. Pero, ¿se han despreciado? No se ha cultivado apenas el cálculo mental en el aula. Que, por cierto, José Enrique tiene un podcast muy interesante donde cuenta todas estas cosas. Ya lo pondremos en las notas del episodio. Por supuesto. Sí, sobre las operaciones y luego los juegos. Es decir, la motivación. Si en el aula hay que trabajar con la matemática abstracta, bueno, matemática abstracta no tanto, al iniciarse lo manipulativo. Lo manipulativo y servirse de algunos elementos de juego. Por ejemplo, yo en los últimos años me he dedicado sobre todo a diseñar juegos sobre todo de estrategia, pero también de contenido. Relacionado con las piezas y el tablero de ajedrez. No son propiamente juegos de ajedrez. Es utilizar las piezas y el tablero para juegos de estrategia. Pero bien, también juegos de contenido. Por ejemplo, el otro día lo hacía más a distancia con unos profesores en Níger. Bueno, para cómo iniciarse la multiplicación. Tenían por ahí ya el tablero y las piezas preparadas. Y iba muy bien. Cómo se dice en francés tres por cinco. Tres multiplicado por cinco. Se dice tres veces cinco. Me parece muy lógico. Tres veces cinco. Pues muy bien. Tres veces. Coloco tres piezas de ajedrez juntas en línea. Tres. Y debajo otra vez tres. Y debajo otra vez tres. Y debajo otra vez. Así. Cinco líneas. En total, ¿cuántas hay? Tres más tres seis, más tres nueve, más tres doce, más tres quince. Luego, tres veces cinco. Tres por cinco. Son quince. De acuerdo. Giramos el tablero. Sin mover las piezas giramos el tablero. ¿Qué tenemos ahí? Ahora tenemos tres filas con cinco piezas en cada una. Cinco más cinco diez más cinco quince. Bueno, lógicamente son las mismas de antes. Simplemente hemos cambiado la posición. Pero hemos descubierto que tres por cinco es lo mismo que cinco por tres. La propiedad conmutativa que va a ser importantísimo para el cálculo mental. Es mucho más fácil cinco por tres en cálculo mental que tres por cinco. El mayor delante. Por ejemplo, estos son problemas de didáctica. Es forma de presentar las operaciones. Es forma de iniciarse en el cálculo mental. De lo manipulativo al habla. Y del habla hay que terminar el cálculo simbólico. Y también se puede hacer gráfico. ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? ¿Qué es el cálculo mental? Si hay un problema todavía que está por resolver. Que son las aplicaciones para aprendizaje del cálculo aplicaciones informáticas. Concretamente para móviles pero no sólo para móviles. También para ordenadores efectivamente o tablets. Una cosa es el ejercicio de cálculo mental como es la aplicación desarrollada para Jonathan Chacon. Y otra cosa son aquellas aplicaciones que son situaciones que inician el cálculo de forma semejante a las actividades manipulativas. Ya sea con pollitos o con peces o con pajaritos. Cosas agradables, llamativas y con mensajes sonoros también combinados para niños videntes de 5 años. No se han desarrollado no se han podido accesibilizar todavía ese tipo de aplicaciones. Hay algunos intentos el grupo Accedo de la ONCE que no sé si me refería antes de accesibilidad de contenidos educativos digitales y que se empezó a trabajar ya en el año 2005 me parece. 2004-2005. Pero sirviéndose de tabletas de tablets sobre todo para poder colocar láminas en relieve o manejar el punzón digital o bien mediante presión en algunos tipos de tabletas. Bueno, pues para ese tipo de actividades de carácter manipulativo con todo tipo de estímulos sonoros, llamadas o verbales. Y al mismo tiempo que fueran inclusivos, es decir, que pudieran utilizarlos indistintamente un estudiante ciego o un estudiante vidente. Esto hay que hacerlo extensible a todas las aplicaciones, no solamente del cálculo, de inyección al cálculo, sino de desarrollo de cálculo mental o de álgebra o de geometría o de esto. Es una asignatura pendiente y sí tengo que decir que en España en esto ha llevado la iniciativa y sigue llevando la iniciativa, porque han hecho algunas cosas en Países Bajos, me parece que también en Grecia se ha intentado en Estados Unidos, aunque no les preocupa menos. Tengo que decir una cosa que me molesta terriblemente terriblemente porque me parece una estafa. En muchos lugares del mundo hablo de prácticamente toda Latinoamérica también en algunos estados de Estados Unidos se dispensa al ciego de estudiar matemáticas porque son muy difíciles, porque no son accesibles para una persona que no ve. Bueno, no hablo ya de África y de Asia, donde es que la asistencia a las aulas es completamente pasiva. No es realmente inclusiva, no participa de la actividad grupal. Simplemente trabaja de oído o se utiliza braille también, tablet y tableta de punzón. No más allá. Raras veces un iPhone o un ordenador. Pues bien, me parece una estafa, una estafa. Es decir, y en algunos casos concretamente en Estados Unidos no recuerdo si fue en Michigan, no recuerdo el estado, pero una madre, profesora de matemáticas, con un niño de 9 años le dispensaron de la geometría. Entonces, reclamó y dijo, no vamos a ver, mi hijo tiene derecho a aprender geometría como los demás. Y la respuesta fue que es que en todo el estado no había personas especializadas en hacer dibujos en relieve. Ella dijo, bueno, pues si no lo hay en este estado, que lo busquen. O que la formen. Pero mi hijo tiene derecho a una formación completa en matemáticas como los demás niños. Y fue a juicio y lo ganó. Pero claro, habían pasado meses, si no decir más de un año, con lo cual el niño ya había pasado de curso y eso quedó así. Me he marchado de tema, hemos pasado del cálculo a la geometría, pero yo creo que el problema en este caso es semejante. Falta de formación del profesorado, falta de orientación a los padres, falta de orientación a los profesores. Pero ¿y otras técnicas para llegar a la pregunta esta de que por qué las personas ciegas de nacimiento pues tienen problemas para percibir una perspectiva? Bueno, las personas ciegas de nacimiento, como te digo también, los videntes. Los videntes que directamente se les presenta un dibujo plano en dos dimensiones, bidimensionales, no sabe que aquello es una perspectiva si previamente no ha percibido la realidad. Y sabe que aquello es una reducción, es una simplificación de lo que ven sus ojos. Aparte que tiene la ventaja de tener dos ojos. La visión es binocular y por tanto puede percibir el relieve. Y si percibe el relieve, percibe la profundidad. El tacto en ese sentido es mucho más exacto, adecuado que la vista. Pero hay que dárselo en relieve no de dos dimensiones, no un patrón realzado, sino quedárselo en 3D. Yo he puesto muchas veces el ejemplo al tomar un paquete de el epípedo, un prisma ortogonal. Puede ser una cajetilla de tabaco. Yo era fumador, no lo soy desde hace más de 10 años. Entonces, la vista, al percibir de lejos algo, no sabría distinguir, quien mirara con un solo ojo, no sabría distinguir si aquello es una lámina o es una cajetilla. Con el tacto, simplemente tocándolo, estás percibiendo el conjunto. Todas las caras puedes percibir con muy pequeña emoción. Puedes percibir la forma del epípedo, el prisma de Ortogonal. En alguna forma, es cubista. El tacto es cubista. Ve desarrolladas las distintas facetas del objeto. Pero esto para luego asimilarlo a lo que es la representación en el plano es complicado, porque el concepto sí pueden saberlo, pero lo que es la imagen, realmente estaríamos hablando de que para el sentido del tacto el plano no tiene ningún sentido. Valga la pena. El plano, o sea la representación en plano... Sí, de la perspectiva en plano. Perdón, de la perspectiva en plano. Yo recuerdo una experiencia que hice con los alumnos ya en bachillerato, que les gustaba además mucho el dibujo sobre lámina de caucho, pues de lo que era precisamente la axonométrica. O isogonal, como se quiera. Que era con un con un trihedral hecho en papel, o simplemente. Un corte plegado y una grapa, y me queda un trihedral, un rincón del aula, se puede decir. Y entonces allí colocar un objeto concretamente que eran paralelepípedos, en este caso en prismas de base rectangular en madera. Y entonces ver cómo coincidían con las paráides. Bueno, primero las tres líneas de los tres ejes dibujados de forma aproximadamente isogonal, porque no hace falta que sea exacto. El dibujo en matemáticas no es necesario que sea exacto. No hace falta regla y compás. Lo importante es que ayude a la imaginación, que sea representativo. Pero no tiene que ser preciso. Bueno, pues situado en ese rincón se veían las aristas como tocaban con los ejes y con las caras del trihedral, los tres planos. Con lo cual aparecían las paralelas y luego después las paralelas correspondientes a las aristas exteriores. Ahora bien, esto supone una formación, un ejercicio, un desarrollo de destrezas. O sea, esto no es inmediato. Pero insisto, para el vidente tampoco es inmediato. Pero el itinerario es mucho más rápido porque tiene la realidad al alcance de la mano, al alcance de los ojos, y puede percibir el relieve. Pero sería factible. Ahora bien, ¿esto para qué sirve? Porque solamente me va a servir para luego plantear otro tipo de problemas de cuáles serían las proyecciones. ¿Cómo serían? Pues entonces, mire usted, tengo un material manipulativo completamente accesible, prácticamente sin costo. Estoy hablando de simple papel, una grapa, un bolígrafo y para marcar concretamente los puntos de los vértices. Bueno, claro, esto es adaptado a la aplicación de material para que sea accesible. Pero no es un material que sea, vamos, muy sofisticado. O sea, que es un arte doméstico. Hay una cosa que no he tratado hasta el momento, que es el tema del dibujo. O sea, el dibujo en matemáticas. En matemáticas, en física, en química, para el caso de moléculas, en disposición de aminoácidos en proteínas, etcétera, etcétera. Bueno, pues el dibujo en matemáticas con la lámina de caucho, con la hoja de goma. Simplemente es un rectángulo de goma, caucho, que tenga capacidad de recuperación. Lo que ahora llaman resiliencia. O sea, colocando una hoja normal de la que se utiliza para impresoras y con un bolígrafo ordinario de bola, al dibujar, al hacer un poco de presión, además del trazo visual en tinta, se hace una deformación del papel. En principio hacia abajo, hacia la goma, pero la goma lo recupera hacia arriba. Si no, se da el trazo, los dos labios del trazo. Con lo cual, el dibujo queda en relieve. En relieve y en tinta. Lo puede hacer el estudiante para que lo vea un compañero, para que lo vea el profesor. Lo puede hacer el profesor o lo puede hacer un compañero para que lo vea el estudiante ciego. Bueno, dice estudiante, dice un adulto, ¿no? Bien. Ahí lo tenemos. ¿Cuánto cuesta ese dispositivo? Pues en España me parece que se consigue por 8 o 10 euros. En algún país de Latinoamérica están utilizando, no unas láminas en proceso para dibujo, pero son láminas de caucho de desecho de la impresión offset, por ejemplo. En otros sitios han hecho pruebas con algún tipo de cuero. De cuero ciertos animales y Skype, que tiene un, bueno, pues es un cierto mullido para poder, que se pueda producir la deformación del papel. Bueno, esto no cuesta nada y el ciego puede dibujar directamente. Yo en algunos cursos he llegado a utilizar este sistema con una tableta digitalizadora y dibujar para ser proyectado en pantalla. No recuerdo ahora mismo un programa de Microsoft, vamos, de grupo de Windows, ¿no? O sea, no recuerdo si es el Paint o cuál era, pero, bueno, previamente preparaba para que el color me apareciera en contraste adecuado, que sea un color morado y si hubiera algún momento utilizar verde, ¿no? Bueno, o sea que se pueden hacer muchas cosas. Falta disponibilidad de información, falta orientación y faltan horas de trabajo para desarrollar técnicas que faciliten el acceso a las matemáticas. Que faciliten el acceso, el lenguaje para representar las matemáticas. No es cuestión del acceso a las matemáticas como decía al principio, ¿no? Profesor, tengo que hacerle una pregunta. Tal vez sea de ignorante. Mi ceguera ha sobrevenido... Todos somos ignorantes, de lo que no sabemos. Pero no todos ignoramos las mismas cosas. Sí, sí. Pero yo esto sí lo ignoro y lo voy a preguntar. Así que mi ceguera ha sobrevenido a los 20 años. Yo pintaba acuarela anteriormente. Y lógicamente luego tuve que enfrentarme a este cambio, ¿no? De cómo representar las cosas. Entonces, vamos, enseguida me di cuenta que justamente la acuarela y la traslación de la acuarela a mi realidad como persona ciega era imposible. Pero sí que me interesaron mucho lo que es la representación de la forma y el dibujo. Y utilicé estas placas de caucho y demás, pero dices que el ciego puede dibujar en un papel con un cauchajo. Pues yo que he dibujado con vista y luego intento hacerlo sin vista, yo no tengo esa capacidad. Yo hago churros. Yo no sé realmente dibujar bien este tipo. Hombre, lo que sí que me ha venido bien muchas veces para entender, y lo he visto en ilustraciones, es con esta técnica también, que supongo que será muy similar en algún libro hablando de geometría o de algo. He visto una representación y recorrerla y tocarla sí que me ha dado datos. Pero hacerla yo, yo me siento un inútil, ¿eh? No soy capaz. Bueno, una cuña publicitaria. Yo tengo colgados en Youtube una colección de... parece que son 11 vídeos sobre el dibujo del alumno ciego en el aula de matemáticas. Hay que empezar por el principio, o sea, hay que empezar por saber sujetar el bolígrafo. O sea, tú habías visto y lo habías utilizado. No necesitarías eso. No. La mayoría de los estudiantes de corta edad que han perdido la vista en la temporada no saben cómo sujetar el bolígrafo, por ejemplo. Después tienen que entrenarse en la presión que tienen que hacer, las direcciones preferentes, lo que es la línea recta. Importa la decisión. Importa el control muscular anestésico. Es decir, hay que adquirir unas destrezas, unas técnicas de dibujo. Y bueno, si llega el momento de dibujar una circunferencia, siempre de la mano alzada, como dibuja el profesor en el tablero, no utiliza compás, ni siquiera reglas. Traza las líneas. Y ya he dicho que es que en matemáticas no me importa el dibujo exacto. Es más, el dibujo exacto no existe. Ni el mejor de los dibujantes con el mejor de los compases sería, no sería capaz de dibujar una circunferencia perfecta. No existe. No es posible. Si se mira con lupa, incluso no es un trazo continuo, son puntos separados. Y hay desviaciones. Bueno, lo que importa, me importa en matemáticas que para mí aquello sea una circunferencia, aunque parezca una patata. ¿A ti te servía lo que hacían tus alumnos? ¿Sí que realmente estaba el objetivo cumplido? ¿Dibujaban bien? A mí me importaba que sirviera a ellos. Yo podía... Tú lo corroborabas y decías, vale, perfecto. Claro, obviamente, esto es. O sea, si tus circunferencias eran tangentes, distinguir lo que son tangentes de lo que son secantes de lo que son concéntricas, por ejemplo. Es decir, pero claro, eso, ya digo, hace falta... Normalmente, a mí me ocurría con estudiantes que llegaban tercero, cuarto de eso, estoy hablando de 14, 15, 16 años. No habían dibujado en su vida. Se encontraban con la hoja esta de caucho y empezaban a dibujar. En 15 días eran capaces de hacer todo, mejor o peor. Ellos me decían, que bien te salen las circunferencias. Y decía, claro, claro que me salen bien. Y les contaba la anécdota del Bosco cuando alguien fue a contratarle. Y el Bosco estaba en su taller y le pidieron que le diera una muestra de su trabajo. Entonces cogió un pincel, con un pergamino, lo que fuera que trabajar, una tablilla, y simplemente dibujó una circunferencia. Toma, llévaselo a tu señorito. Y llegó a casa y entonces el señorito dijo, sí, no sé quién era el señorito, pero le contrató como pintor de... Sabiendo la dificultad que tenía hacer una circunferencia así. Exactamente, a mano alzada, directamente. Pero es que yo he dibujado, en mi vida, ya había dibujado en ese momento miles de circunferencias, de todos los tamaños. Con lo cual, claro, me salían bastante redondas. Pues ese tipo de cosas. Pero que se conozca que ese material existe, se puede utilizar, no es costoso. Y pues puede hacer. Otra cosa es el dibujo figurativo. En las formas. Es decir, se pueden hacer, no recuerdo cómo, un tipo de caricaturas, de dibujos de, bueno, que es un son cuatro líneas que son los brazos, las piernas, el tronco es una línea y luego para el caso de los pies y las manos, pues unos ovalitos y una circunferencia si quieres ponerle pelo para la cara. Bueno, distintas actitudes. O sea, lo que puede ser un jugador de tenis, o lo que es, bueno, pues alguna cosa. Pero cosas muy simples, muy sencillas. Siempre te queda el origami o la papiroflexia, ¿no? Que permite también representar muchas formas. Completamente de acuerdo contigo. O sea, precisamente en uno de los podcast que decía antes Arturo me refiero al plegado de papel de triángulos. Y esto me llevó a la satisfacción de que una profesora que había estado en uno de mis cursos de formación de profesores de un instituto, había utilizado una de las técnicas que les propuse para temas de geometría, el plegado de papel. No llega a ser papiroflexia, pero bueno. O sea, un triángulo cualquiera. Preferentemente acutángulo para que esto, bueno, es decir, plegar por uno de los lados, plegarlo por el punto medio, que simplemente plegarlo que coincidan los vértices, marcar el punto medio entonces, y la línea consiguiente. Estoy trazando la perpendicular, porque me forman dos ángulos iguales rectos, la perpendicular a ese lado. Lo que algunos llaman mediatriz. No tengo ni por qué ponerle nombre. Bueno, eso lo hago con un lado y luego con otro, y luego con otro. O, cielos, las tres coinciden en un punto. Y además, si con un bolígrafo o un punzón fijo ese punto sobre la mesa y extiendo lo más posible el triángulo y lo hago girar, me doy cuenta que al girarlo me va rozando la otra mano con los tres vértices a igual distancia de ese posible centro. Es decir, es el mismo que se puede hacer con las líneas principales distinguidas de un triángulo. Se puede hacer con las alturas, se puede hacer con las... bueno, ahora veis actriz, es muy sencillo. Las medianas también, el punto medio con el vértice opuesto. Y si a eso le ponemos un lenguaje un poco simpático, bueno, simpático para mí, no sé, a los alumnos creo que también les gustará. Es decir, que estoy haciendo arqueología y me encuentro unas excavaciones... Esto está de moda. El no retocar lo que está oculto, retocar lo menos posible. No aflorarlo, dejar que siga durmiendo para no romperlo. Bueno, resulta que son un país donde las ciudades son triangulares. Trianglia. Lo tienes en el podcast. Bueno, bien, y entonces pues tengo las puertas de acceso a la ciudad, que son los puntos medios de los lados, las vértices, que son torres, y las murallas, que son los lados. Y cada una de un color, además. O sea, el color de la torre y de la muralla y de la puerta, puede ser o bien azul, tiene azulejos azules, o bien puede tener piedras o mármoles blancos, o color carmesí. Estoy hablando de azul blanco b c carmesí. Estoy llamando a la imaginación. Y estoy facilitando la simbolización. Bueno, eso es didáctica. Y las medianas son las vías que unen la puerta con la torre opuesta del mismo color. Las medianas. O el caso de las... Bueno, las mediáticas no las necesito para el caso de la ciudad. Sí, necesitaré después el circuncentro. Pero bueno, en el caso de las alturas serían acueductos dentro de la ciudad. El aljibe o depósito de agua enfrente, justo enfrente, la perpendicular. El camino más corto entre la torre y la muralla opuesta, del mismo color. Y luego después, en el caso de las bisectrices, son las líneas de aprovisionamiento a los almacenes que están en la muralla opuesta y a igual distancia de las otras dos murallas. Bueno, es decir, ese tipo de cosas, y luego puede dar lugar a una serie no solamente de... en el caso de arqueología, de saber cómo era la ciudad, simplemente con tres puntos fundamentales geometría afín, estamos hablando de puntos, sino que me puedo encontrar unas tabletas, unas tablillas en cerámica, donde he dibujado con distintos colores unas líneas. Unas líneas con unos signos que justamente decoran esas vías. Bueno, estoy hablando de geometría vectorial. Es decir, simplemente conociendo las direcciones de tres de estas líneas, podría reconstruir la ciudad. Serían planos, y también no se correspondería. Sería el que yo quisiera darle. O, si quiero, informaciones de espías que me hacen mediciones de algunas de estas líneas, ya sea una altura, una muralla y una mediana, por ejemplo, del mismo color, o de colores distintos, o dos y uno. Bueno, estoy hablando de un archivo del centro de espionaje de Triantia. Es decir, estamos pasándolo por lo menos un poquito mejor que si solamente habláramos de triángulos, de líneas, de distancias, de medidas. Eso es motivación y eso es didáctica. Y es más digerible, por supuesto. Ha habido una cosa que... Esto es cuña, que también es triangular. ¿Qué has dicho antes, cuando has comentado el caso de la mujer esta que era profesora de matemáticas y habían dispensado a su hijo del aprendizaje? Yo sé que en tu época activa laboral, porque activo sigues, has tenido ponencias y has participado en congresos, supongo que todos relacionados con la didáctica de la matemática y cosas afines. En el mundo, esta es la pregunta, ahora. ¿Realmente no hay ningún tipo de organismo, no hay ningún tipo de convención, no hay ningún tipo de intercambio? Hablo del mundo, no de América y Latinoamérica, sino de todo el mundo, donde se intercambien las experiencias de cómo enseñar matemáticas a las personas ciegas. Me parece que no. Yo no tengo información. Y es... Y sí es lamentable, porque claro, no sólo con las matemáticas, o sea, hay que hablar de todas las ciencias, por supuesto, pero también con la física, el tema de las experiencias en física o en química, o la formulación, en el caso de la química, o la simple notación matemática, dificultades en alguna cosa de estas. Que yo sepa, no lo hay. Yo intenté, bueno, he intentado, ahí está una página web donde iba colgando algunas de estas cosas que iba haciendo, disbimat.net discapacidadvisualmatemáticas.net discapacidadvisualmatemáticas.net y luego después, pues, iba a decir un discípulo, sí, es un discípulo de internet, es un estudiante guineano que estudiaba en España y que ahora mismo se ha volteado a Guinea, ha terminado aquí en la formación informática de plataformas, y que está dando un curso de formación a profesores y a estudiantes en el Níger, no Nigeria, sino el Níger Niame, que es donde están cerradas las fronteras, porque están con una dictadura y todo el extranjero no puede entrar, pero este ha entrado, este extranjero no puede entrar, pero él ha entrado y bueno, he intentado hacer, me ha pedido permiso, y me ha dicho, no te importa que hacer una página web, hago una página web donde además de matemáticas puedo meter otras cosas de ciencia, digo, lo que quieras encantado, lo mío es todo público, o sea que no son GPL, son licencias totalmente abiertas, lamentablemente me parece que no, que hay muy poca información, hay muy poca información disponible. Hay muy poca coordinación mundial cuando es una circunstancia que, y antes lo estábamos comentando, porque no sé si estarás de acuerdo, las disciplinas como tú las llamaste antes, que están todas vinculadas a las matemáticas y demás, son prioritarias, entonces no entiendo por qué las personas ciegas debamos quedarnos fuera de muchas oportunidades por no tener esa base. Bueno, yo te he dicho antes que es que prácticamente toda Latinoamérica los ciegos estamos dispensados de estudiar matemáticas y ciencias, como también de educación físico-deportiva, o como quiera llamarse, actividades deportivas, es decir, el currículum está reducido a la mínima expresión. A mí me parece una estafa, ya lo he dicho y lo repito, es decir, no permitirle desarrollar sus capacidades muchas veces por ignorancia, otras cuantas, unas cuantas por comodidad y desde luego con frecuencia pues... Por falta de recursos. No, no, los recursos son mínimos, o sea, vamos a ver... Recursos humanos que se dediquen a hacerlo, vamos. Ah, recursos humanos, sí, sí, sí, recursos humanos por supuesto, efectivamente, pero que se podría simplificar y economizar muchos esfuerzos y muchas horas de trabajo de quienes sí quieren hacerlo pero no tienen dónde colgar o dónde encontrar esos recursos. Entonces, la diferencia entre la comprensión visual y la comprensión táctil no es impedimento pues para tener estas habilidades y estos conocimientos. ¿Habría algún punto concreto, quizás, que fuera más complicado o se podría con todo? No, los puntos complicados están en la comunicación. Está en la comunicación ciego-vidente, ya sea estudiante-estudiante o estudiante-profesor. Y ahí es donde intervienen los editores científicos-matemáticos. La comunicación directa todavía en cuanto al dibujo no está resuelto el problema de la digitalización, es decir, la comunicación a distancia. La comunicación a distancia mediante editores científico-matemáticos ahora mismo tenemos Edico en España, Lambda, que fue un proyecto de la Unión Europea capitaneado desde Italia. Paramúsica también existe, un editor este en musical, en braille y en visual. Siempre inclusivo, es decir, que lo pueda manejar indistintamente un ciego-vidente. Para la representación gráfica estaría Viblo. Lo bueno es que llevan muchos años desarrollando el software. Aquí no tiene penetración en lo que es España y eso, porque han utilizado otros, pero por ejemplo en Italia y algunos países de Centro Europa sí que lo utilizan. Simplemente es un apunte. Sí, me interesa porque yo creo que es una asignatura de los ciegos-videntes. Como ocurre, como decía, de las aplicaciones educativas digitales que no es un problema que esté completamente resuelto, porque efectivamente el combinar lo que son los distintos lenguajes que en el caso del visual, bueno, se convierte en una coordinación piezomanual de una forma casi manipulativa. Lo que se ve en pantalla que se mueve y que cambia es casi manipulativo. Casi, eh. Pero los especialistas en matemática recomiendan la manipulación directa con física, con objetos físicos. Porque el tacto es mucho más cierto, da más confianza, más seguridad que la vista. Desde el niño pequeño que en cuanto tiene unos meses y se le presenta algo para que lo tome, aunque no se le ofrezca para que lo tome, enseña algo, y directamente lanza la mano. Lo está viendo, y lanza la mano. ¿Por qué? Porque la seguridad de que aquello está allí, solamente lo da el tacto. El tacto educa la vista. Esto ya es una experiencia de mucho tiempo. Lo coge y a la boca, más tacto. Sí, efectivamente, porque la boca es su forma de percepción táctil más directa, desde que mamá la echa. Este tipo es una cosa... Hay todavía un campo de experimentación en pantallas táctiles muy grande. Se ha trabajado muy poco. Se sigue trabajando todavía con puntos. Habrá que trabajar con puntos, indudablemente, en las pantallas táctiles. Pero la tecnología que se está utilizando todavía está muy poca diferencia con la que había hace 50 años, en los años 1970. O sea, no se ha trabajado con las pantallas formables, concretamente de polímeros orgánicos, que yo creo que es por donde vendrá la solución de abaratamiento de las líneas Braille, por un lado, y de la posibilidad de display bidimensionales. Bueno, las 3D, ojo. Las máquinas de impresión, ¿no? 3D. Sí. La máquina de impresión 3D, que dicen que son carísimas. No. O sea, no son carísimas. Es carísimo. Es caro el diseño. El diseño del software para la impresión. Las impresoras 3D las tienes ahora mismo de 30 por 30 por 30 centímetros, en cubo. Es decir, figuras bastante... Bueno, no me falta ni la mitad, ¿no? Pero que las tienes por 300 euros, ¿eh? Y funcionan muy bien. Mirad, dejadme que comente algo. Que cuando hablo de los polímeros, José Enrique recordaba un desarrollo de un profesor de la Universidad de Tokyo, un ingeniero muy prestigioso, Takao Someya, que no sé si tú lo llegaste a conocer, o bueno, vosotros lo llegasteis a conocer, hizo un polímero que por un lado era una especie de receptor OCR, que podías ponerlo sobre una superficie, por ejemplo un papel escrito, y luego había como una emulsión que hacía que se levantara y deformara el polímero por el otro lado, y podía escribir braille o representar formas. Bueno, pues esto durante dos años estuvimos haciéndole el seguimiento porque a mí me parecía la bomba. Digo, madre mía, ¿esta es la solución? Lo has dicho tú también, José Enrique. Has dicho, esta es la solución. Bueno, pues había muerta. No existe ni rastro de este señor. Y yo hice un artículo y todo de él. Es decir, que existir existe. Y llegué a ver un vídeo con una alumna utilizando el prototipo este que te digo, poniendo sobre un documento escrito en texto tinta el polímero y cómo esa emulsión movía una especie de palanquitas que subían los puntos de deformación y ahí generaba la forma. En este caso la escritura en braille. Pues bueno, a ver qué pasa, porque al final parece que hay una hegemonía de la celdilla braille por encima de todo, y eso tiene muy mal apaño. Necesita mucha energía, mucho mantenimiento, y realmente es muy aparatosa y pesada hoy por hoy. Hasta las más low cost. Bajo mi parecer. Sí, bueno, parece que hay que ponerse acuerdo en cómo deben ser las líneas braille. Yo diría que hay algunos puntos en los que conviene ponerse acuerdo. El material debe tener, el instrumental debe ser de cada persona. O sea, no es compartible. Yo estudié, recuerdo, la filosofía del bachillerato. Era un único texto en braille que además compartíamos chicos y chicas. Bueno, también servía para correo del zar. Pero bueno, un único ejemplar que nos cambiamos y nos teníamos dos días en una aula y dos días en el otro. Bueno, no, hoy día ya que se ve que la opción es por la educación inclusiva y yo creo que no es malo tal como se encuentran las escuelas en general, tiene que ser un equipo del estudiante, de cada estudiante. Que se puede reducir, entiendo, hoy día con una línea braille de 20 caracteres, un smartphone que no tiene por qué estar conectado a línea telefónica. Me basta un iPhone 4 para funcionar y manejarme. Bueno, el 4 no lo sé, pero luego el 6 sí. Se puede escribir incluso en braille sobre la pantalla, si se quiere. Y luego lo que pudieran ser impresoras 3D, por ejemplo, lo que se pudiera tener en casa o a lo sumo en la escuela. Pero pensar en los centros de recursos que puedan tener bibliotecas y se puedan encargar. No, material sencillo, económicamente accesible. Individual y a la mano. Y a la mano, efectivamente, que sea portable. La tecnología actual, yo creo que una impresora 3D también ha sido un punto de inflexión, porque antes poder explicar a una persona ciega cómo es la catedral de Burgos, pues tiene que ser muy difícil. Era todo artesanal, con mucho tiempo, dedicación, y había una maqueta, y hay maquetas en el Museo Tiflo Tecnológico y así, pero era muy costoso y muy complicado y caro. Ahora con una impresora 3D, cualquiera, además hay muchos diseños en internet gratis, que te lo descargas y lo imprimes en un rato. Planos vectoriales compartidos, hay sitios donde recursos, eso está fenomenal. Y los materiales, además las resinas, cada vez se van abaratando más. Es decir, que un kilo de resina para estos, es recuperable. Recuerda, me refiero a los restos, se obtiene la... y luego el resto es reutilizable. Pues está, me parece, en el orden de 50 dólares el kilo. Es mucho, es mucho. Te da para mucha resina con 50 dólares. Un kilo es mucho. Me dirían que era mucho de 50 dólares. No, no, no, al contrario. Al contrario. Un apunte quisiera hacer sobre las líneas Braille. Ya tenemos líneas Braille, de 700-800 euros. En el caso de... Yo tenía en mis manos la que estaba fabricando... Las Orbit. No, bueno, las Orbit no las tenía en mi mano. Las tenía en mi mano, bueno, es que adquirí, me la trajo un discípulo ciego de internet, don Miguel Coello, pero me lo trajo de Calcuta. Entonces me costó, me parece, 700 euros. Hace seis años, ¿no? Los tiempos del COVID, completamente. Bueno, pues, de 20 caracteres, a prueba de adolescentes, es decir, que se podía caer al suelo porque tenía una carcasa de cuero, una esta de cuero, era con bordes resistentes que se podía llevar en una mochila y jugar al fútbol con la mochila y seguía funcionando. Bueno, era el sistema de motores, era no el sistema de piezo eléctrico de las tradicionales de Focus. Bueno, pues, decía que una línea Braille, y dice, bueno, son carísimos. 800 euros, claro, 800 euros en España no son 600 euros en Kenia. En Kenia, multiplica por cinco, según el coste de la vida. Entonces, nos plantamos ya en unas cantidades, porque claro, decir, no, no, para países occidentales, para España, para Estados Unidos, para Alemania, claro, no, no, pero es que el noventa y tantos por ciento de los ciegos están en países en vías de desarrollo. Que, bueno, no voy a decir que no tengan para comer, porque se conforman con un plato, pero, bueno, de todas maneras, no tienen acceso de tipo. Ahora bien, hay que recordar una cosa, o sea, que esto, una línea Braille es para prácticamente todo el currículum, salvo que, bueno, se le maltrate, ¿no? Pero, aunque sea para cinco años, permítanseme las matemáticas, si digo 800 euros, que es más de lo que cuesta una Orbit o un Black & Me, 800 euros en cinco años son 160 euros al año. Si sigo bajando a meses, 160 entre 12, me estoy encontrando que no llega a 15 euros al mes. Bueno, el problema es financiarlo, pero asegurar la disponibilidad de todos los textos del curso, para cada curso, de todo el currículum académico, por 15 euros al mes, hombre, es una cosa bastante asequible. Hay que buscar la forma de financiación, es decir, el préstamo inicial y que luego se pueda devolver, incluso con demoras, de 15 euros al mes, o de 20 euros al mes, 15 euros constantes, ¿no? Nosotros, los libro hablados y las Perkins las pagábamos, yo las pagué, porque ya era adulto, ¿no?, cuando las compré, pero bueno, me dieron un préstamo muy interesante y sin intereses. Creo que varían 30.000 pesetas, entonces, y no sé si eran 30 mensualidades, y bueno, sí que se pueden hacer muchas fórmulas. Pero hay que pensar en soluciones globales, generales. Cuando me hablan de la tecnología esta de la espuma y el relieve, bueno, vamos a ver, o sea, cuánto cuesta eso, y si hace falta un manipulador, un experto, y luego el proceso de aprendizaje del manejo, que también hay que contabilizarlo, es decir, cuánto cuesta, qué esfuerzo, cuántas horas de aprendizaje por parte de los monitores, encontrar monitores dispuestos a ello, y luego después el estudiante o el usuario cuántas horas va a necesitar para aprender el funcionamiento. La sencillez es también otro aspecto muy importante. Yo creo que habría que ponerse de acuerdo, vamos, yo estoy al final de la carrera, pero no solamente profesional, si también prácticamente hospital, son 76 años, pues hay que pensar en cómo ponerse de acuerdo, cómo discutir estos temas. Porque, por ejemplo, no hemos hablado del braille, del braille de la actuación matemática, o física, o química, o estadística, es decir, está resuelto el problema de representación braille. Para los países de habla castellano y portuguesa, estamos hablando de más de mil millones de personas, mil millones de personas prácticamente. Bueno, el habla de, ah, el Németh, el Németh es fantástico, bueno, hay desafío cualquiera a comparar la representación braille en el código matemático para Hispanoamérica, bueno, Iberoamérica, o bien el Németh, que es mucho más complicado y no cubre tantas las necesidades como cubre el código, el Németh. ¿Puedes decirnos lo que es el Németh? El Németh es un código, es un código de, que se trabaja en los años 1930 buscando cómo representar en braille la actuación matemática ya de nivel universitario. Había ciegos en Estados Unidos que estudiaban matemática o ingeniería a nivel universitario, no tenían cómo representar. Entonces, por ejemplo, bueno, el concepto lo dejamos aparte. Una proyectividad, una proyectividad, el signo es un signo igual con un triangulito encima, pequeño, muy bien, una proyectividad. En braille eso se resuelve con un signo igual y a continuación dos caracteres más para decir qué es una proyectividad. Pero el Németh lo hace de forma representativa visual, por decirlo de alguna manera. Es decir, describe cómo es el signo con signos braille, pero cómo es el signo visualmente. Con lo cual dice, atención, signo modificado. Signo braille. Un signo braille para decir que es un signo modificado. Otro signo para decir que es el signo igual. Otro signo para indicar que empieza la modificación. Otro signo u otros dos para decir que la modificación se encuentra en la parte superior. Otros dos caracteres braille o tres para decir que se trata de un triángulo equilátero. Otros dos o tres caracteres, bueno, total, 17 caracteres braille para lo que en el código de Iberoamericano, código matemático unificado, con tres celdas braille, está cubierto el problema. Porque no se trata de una descripción de cómo es visualmente, que no es malo conocerlo, pero eso se puede tener un catálogo a mano disponible, sino el que sea algo útil. Sea práctico. Que lo pueda escribir el estudiante en un examen de forma rápida. Y lo mismo digo para representación de matrices o determinantes. Las tablas de dos dimensiones, la correspondencia exacta en columnas, supone un esfuerzo grande para que haya una correspondencia en columna perfecta. Pero el estudiante en un examen no necesita eso. Le basta con saber los elementos que hay en cada fila, cambiar de línea y escribir la siguiente fila con separación entre los distintos elementos de la fila, etc. Y luego, cuando se ha terminado, indicar al principio y al final el número de filas y columnas. Hay que pensar en el usuario. Diseño para el usuario. No el diseño preciosista de diseños perfectos. Incluso las fracciones, las fracciones complicadas con múltiples numeradores, denominadores, más numeradores en el numerador y todos estos castillos de fracciones. Yo diría que hay Luis Braille, que fue el inventor del procedimiento, los llamados paréntesis auxiliares o paréntesis que no se dibujan. Pero se sabe que eso separa cosas. Luis Braille fue el inventor de la escritura lineal que luego se ha utilizado en toda la escritura digital. Para todas las áreas del saber, la escritura digital es lineal. Es en ASCII, por decirlo de alguna manera. Luis Braille dijo vamos a ver si una fracción tiene numeradores, puede ser x más uno denominador, x menos uno, pues tengo que decir lo que es el numerador y el denominador. Tararí, abro paréntesis auxiliar, es decir, que aquí va a venir una cosa compleja de varios términos, x más uno, tararí, se acabó. Signo de dividir, luego es una fracción, una cosa partido por otra. Tararí, abre paréntesis auxiliar, escribo el denominador, cierro y se acabó. Es un procedimiento de reducción a lo lineal de lo que es bidimensional. Eso fue una genialidad. Una genialidad que luego se ha aprovechado para otras muchas cosas. Sin saber que esto, Luis Braille, fue realmente el inventor. Bueno, esto mismo nos sirve para cosas muy complejas, pero quedan todavía cosas, muchísimas cosas por hacer en Braille, por ejemplo. Bueno, yo tengo una curiosidad. Los estudiantes ciegos de esta última jornada, hablo de estos 15, 20 últimos años, han optado muchos de ellos, sobre todo aquí en España, al estudio de lo que es informática, programación y demás. Es decir, yo entiendo que para estudiar informática y sacar su titulación, deberán tener por lo menos una base matemática importante, ¿no? Sí, bueno, matemática, comentaba al principio, me parece que hoy día no se distingue entre matemáticas, física, ciencias, informática, tecnología, incluso arte, ¿no? Porque todas tienen un lenguaje fundamental, una herramienta fundamental, que son las matemáticas, el razonamiento. Incluso se habla del pensamiento computacional, tampoco se habla de matemáticas, con pensamiento computacional. Es decir, los algoritmos, a fin de cuentas, ¿cómo calcular el máximo común divisor de dos números? Que es puro cálculo, ¿no? Son una serie de pasos muy sencillos que desmenuzan el problema y se llega al resultado. Eso es un algoritmo, a fin de cuentas. Algoritmo que tiene una serie de pasos en las que hay que responder a preguntas. Si no, el resto es cero, no es cero, vale. Y se toman decisiones. Es el if-then, el if-tenerse de informática, a fin de cuentas. Todo eso se puede representar de una forma gráfica. Un diagrama de flujo. Que lamentablemente en matemáticas se emplea poco y ya dije que era una de las preocupaciones del profesor Aitpun en la Escuela de Magisterio de Madrid. Pero luego eso se puede traducir a los distintos lenguajes de programación. Estamos hablando ya de informática claramente, ¿no? Distintos programas de programación, o seguro código en principio, pero los diagramas de flujo antes eran muy difíciles, bueno, muy difíciles. Eran laboriosos de dibujar y construir, etc. etc. y meter dentro de cada casillita, lo que fuera. Hoy día con los programas de informática el Scratch y otros, pues eso es arrastrar piezas es muy rápido. Por eso están volviendo a emplearse y mucho, ¿no? Y quedan muy grabados. Son muy claros, muy explícitos y quedan grabados el diagrama de flujo, el dibujo, la imagen. Pues bien, eso luego nos sirve para hacer cálculos máximo común divisor de dos números de 250 cifras, por ejemplo. Eso hecho manualmente, bueno, no digo por cálculo mental, sería imposible, pero manualmente pues llevarían horas sino días, ¿no? Y sin embargo metido el programa en un ordenador lo hace en centésimas de segundo. Estamos hablando de técnicas que están interconectadas, por lo tanto no tanto hablar de matemáticas. Antes, para entrar en la carrera de matemáticas con un aprobadillo raspado en la prueba de acceso era suficiente, porque nadie quería estudiar matemáticas. Bien, hoy día visto que no hay paro en ningún país del mundo para los matemáticos por los problemas actuariales y cálculo de probabilidades y no digamos ya las amortizaciones y este tipo de cosas, bueno los matemáticos, no hay paro, o sea, no hay paro, aunque sea solamente para dedicarse a dar clases particulares se puede ganar la vida. Bueno, es que se está pidiendo, y en Madrid se está pidiendo trece y pico para como puntuación, sobre catorce para puntuación de acceso a la carrera de matemáticas y tienden a estudiarse también a doble titulación matemáticas e informática. Cosa que me parece un poquito en fin, la informática está cambiando año a año y la mitad de las cosas que se aprenden en la carrera cuando terminan la carrera no sirven para nada porque no han cambiado, están cambiando en el informático a una velocidad alucinante. La matemática no cambia, las matemáticas son las mismas desde los griegos hasta hoy e incluso se están encontrando aplicaciones de resultados matemáticos que bueno que estaban ahí y no se les da mayor importancia. El teorema pequeño de Fermat, que no voy a hablar aquí de él pero es el que se utiliza para las claves de entrada a las cuentas bancarias para el secreto bancario, por ejemplo las claves de encriptación de documentos en las que son hechas todas estas masadas, principalmente los números primos. Bueno, pues ese tipo de cosas se han encontrado en resultados que no tenían ninguna aplicación en principio, era un divertimento matemático, pero hoy día tiene una aplicación tremenda y tal vez o muy posiblemente gracias a las herramientas informáticas. Se nos está acabando el tiempo ahora sólo con un monosílabo. ¿Qué tal lo llevas con la inteligencia artificial? No. Mal, muy mal. No la uso. No la usas, ¿no? Vale, vale. Entonces la pregunta que te iba a hacer posteriormente no procede. Pero bueno... Tengo criterios, vamos, tengo opinión por lo menos opinión y creo que bueno, por algunos fundamentos, sobre inteligencia artificial. Inteligencia artificial es ante todo manejo de grandes cantidades de datos de localización de datos y en algunos casos de estructuración de datos. Pero acudo a la frase de Einstein, ¿no? Se podrá inventar una máquina que resuelva todos los problemas. Nunca se podrá inventar una máquina que invente un solo problema. Son matemáticas. Al final también son matemáticas puras y duras. Muchas matrices y muchas matemáticas y calculo probabilidades. Y ha servido para hacer descripciones literarias de gráficos y demás que a mucha gente le ha servido para entender lo que tenía delante. Sí. Pero bueno. Se han columpiado porque alucinan aún mucho, pero cada vez yo que las sigo y a mí sí que me interesa investigar, ¿no? Y sí que veo que están dando pasos de gigante. Cada vez es más precisa y la descripción es más exacta. Sí. Entonces a nosotros nos viene muy bien tener un ingenio que nos describa el mundo. Ricardo, pero no se ha estudiado, por ejemplo, cuál debe ser la técnica para audiodescripción. No me refiero en describir qué es lo que hay, sino cómo están organizadas espacialmente las figuras y el tema de distancia y cosas parecidas. Es decir, hay que ponerse... Hay acuerdos que son cuestiones lingüísticas, porque son acuerdos sociales de cómo hay que expresar las cosas, cómo hay que representar las cosas. El lenguaje es un... Cualquier lenguaje es un convenio. Claro. Es que sería genial que con tus conocimientos y sobre todo en nomenclaturas, en todo lo que has estado trabajando, de cara a lo que es la explicación descriptiva de la matemática a través de una inteligencia artificial, es decir, hacer un entorno específico para matemáticas, entrenado para matemáticas de personas ciegas, con la nomenclatura exacta y con los prompts que hagan lo que tú quieres. Es decir, dentro de ese entorno cerrado, de ese entorno controlado, que no lo dejamos abierto a cada uno, que alucine. Yo creo que sí puede ser una herramienta de futuro para... Bueno, una más, no la definitiva, pero que puede ser muy interesante. Y para eso hace falta gente como tú, que sepa lo que quiere decirle a la máquina, cómo decírselo y cómo quiere recibir la información de vuelta. Y es... Bueno, yo creo que es un tema apasionante. A mí es que yo le veo mucho potencial y muchas posibilidades. Yo no sé... Y bueno... Sí, bueno, yo creo que tiene el potencial del manejo de grandes cantidades de datos, ordenación y estructuración, pero... No se puede añadir mucho más. Llamarlo inteligencia de otra manera, yo creo que es equívoco. Hombre, sí, sí, está claro. Son big data, sobre todo. Sí. Y la inteligencia de un niño de siete años es superior a lo que puede hacer cualquier máquina, ¿no? Sí. Es una opinión, por supuesto. Y lo podemos seguir discutiendo en el año que nos queda. Una eternidad para discutirlo en la otra vida. Así que... Bueno, bueno, un próximo episodio. Allí nos encontraremos y daremos esta tertulia. Estamos muy a gusto y seguiríamos otra hora, pero yo creo que tenemos que ir terminando por hoy. Si os parece, hacemos un rápido resumen de las diferentes cosas que hemos ido charlando en este rato. Y continuaremos en otra ocasión. Hemos hablado de las matemáticas en sentido general, de para qué sirven desde un punto de vista práctico, de metodologías, cómo se estudian, si bien, si mal, profesores... De la aritmética, de la geometría... Bueno, hacer una síntesis. Primero que la matemática, la falta de visión no es impedimento para tener acceso a toda la matemática. Hay dificultades y problemas de comunicación, pero que no impiden absolutamente que se pueda acceder a toda la matemática. No es problema de visión. Segundo, hablamos del cálculo, del cálculo mental a la calculadora. Tercero, hablamos del dibujo. El ciego puede dibujar y puede reconocer dibujos. Y se pueden hacer muchísimas cosas con algo tan simple como una lámina de caucho, un bolígrafo y una hoja de papel ordinario de impresora. En el álgebra no hemos hablado de estas cosas, pero es que la representa la notación matemática en braille, concretamente la que utilizan los países de habla en España y en portugués. Cubre todas las necesidades también a nivel universitario para todos los aspectos de la matemática, concretamente del álgebra partiendo. Y luego en cuanto a matemáticas e informática, ahí quedan unos campos enormes de investigación y de trabajo como son los objetos matemáticos, las aplicaciones para aprendizaje de forma individual y autónoma de las matemáticas para la formación del profesorado en cualquiera de los campos, ya sea del dibujo por el ciego o de la notación matemática braille o del cálculo mental, etcétera, etcétera. De los manuales también. Hemos conocido también el itinerario profesional a grosso modo de José Enrique Fernández del Campo y sobre todo también hemos conocido los cuatro lenguajes que se utilizan o que piensas que se deben utilizar en el aula para tener un acercamiento a las matemáticas mejor. Sí, el lenguaje manipulativo de objetos, el dibujo, el habla como lengua franca en el aula y el lenguaje simbólico matemático. Lamentablemente no has podido hablar de juegos apenas. Bueno, tenemos otras muchas cosas, pero podríamos estar horas. Sí, seguiremos en otro rato pondremos en las notas del episodio, haremos referencia al blog, también pondremos pues referencia a muchos libros que tienes publicados y bueno intentaremos poner unas notas que complementen este audio y bueno esperemos seguir en otro momento pues también hablando de estas cosas interesantes. Muchas gracias José Enrique por habernos acompañado en esta tertulia. Muchas gracias a vosotros por la paciencia y hombre por permitirme hablar de matemáticas, enseñanza, ciegos que son tres pilares en mi vida profesional y humana y que disfruto hablando de estas cosas. Y se nota, muchísimas gracias por contarlo también y tenerlos tan atentos y entretenidos durante estas casi dos horas que hemos estado de tertulia y que te agradezco un montón. Así que nada, esperamos verte pronto, vamos a dar los datos. Nuestros medios de contacto gafotas arroba cgatos punto es es nuestro email y nuestro WhatsApp para mensajes de audio o de texto en el más 34 640792. Como siempre a toda la audiencia agradecer que hayáis llegado hasta aquí y espero que os lo hayáis pasado tan bien como nosotros y os esperamos en el próximo episodio. Así que hasta luego. Adiós.
Gafotas, cegatos y sus aparatos #14
Fecha: viernes, 14 de marzo de 2025, a las 00:00:00
En este decimocuarto episodio de Gafotas, cegatos y sus aparatos, nos acompañará José Manuel Delicado, informático de pro y administrador de una instancia de Mastodon, para hablar de primera mano sobre cómo funcionan estas redes descentralizadas, sus ventajas, sus retos y todo lo que necesitas saber para unirte a ellas.
Temas destacados en este episodio:
-Qué es el Fediverso y de dónde surge la filosofía de la descentralización.
- Cómo funcionan las “instancias”, las reglas de moderación y la “federación” entre servidores.
- Conoce las opciones de privacidad, la importancia de las descripciones de imágenes para la accesibilidad y por qué Mastodon es diferente a las redes convencionales.
- Consejos para abrir tu cuenta, buscar gente interesante y migrar tus contactos si decides mudarte de servidor.
Un episodio imprescindible para quienes quieran entender mejor estas alternativas libres y orientadas a la comunidad, ¡sobre todo si buscas entornos más respetuosos, sin algoritmos invasivos y con mayor control sobre tus datos!
No te lo pierdas: Si te interesa conocer el funcionamiento de Mastodon y del Fediverso, este episodio es para ti.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Instancia de la Comunidad NVDA EN ESPAÑOL EN MASTODON.
Usuario de Mastodon de José Manuel: @jmdaweb@comunidad.nvda.es
Correo de contacto de NVDA en español.
Fediverso: qué es, cómo funciona y principales redes sociales alternativas – xataka.
Instancia fedefeed (Medios de comunicación).
Audiocinemateca (Contenido audiodescrito en español, gratis y en un único lugar).
Tusky para Mastodon - Aplicaciones en Google Play.
Mona for Mastodon en App Store.
Cliente de escritorio TWBlue para Windows (Mastodon.).
Donaciones a la Comunidad NVDA.
Créditos:
Duración: 01:18:31
Descripción detallada del logo de Episodio 14. Redes libres y descentralizadas: un paseo en mastodonte por el Fediverso
La imagen presenta a al personaje de nuestro logo, un hombre con un aspecto distinguido y elegante, vestido con un traje de estilo clásico que evoca la moda de finales del siglo XIX o principios del XX. Su vestimenta incluye un traje de tres piezas, con una chaqueta oscura, chaleco y corbata. Su atuendo le da una apariencia de intelectual o pensador de la época. El personaje tiene una barba espesa y bien cuidada, junto con un bigote estilizado y retorcido en las puntas, lo que refuerza su imagen de caballero de la época victoriana o de principios de la revolución industrial. Sus rasgos faciales están bien definidos, y lleva gafas redondas con montura metálica, un accesorio que sugiere erudición o conocimiento. En su mano derecha sostiene un bastón con un pomo llamativo, lo que refuerza la impresión de nobleza, sofisticación y autoridad intelectual. Su expresión es seria y contemplativa, con la mirada dirigida hacia lo alto, como si estuviera reflexionando sobre conceptos profundos o mirando hacia el futuro. El fondo de la imagen es un paisaje surrealista, con un cielo estrellado y montañas en la lejanía. La escena parece representar un entorno cósmico o digitalizado, ya que en el fondo hay líneas interconectadas que forman una especie de red, similar a un mapa de constelaciones o a un diagrama de conexiones. Símbolos e iconos presentes en la imagen Alrededor del personaje aparecen varios iconos luminosos dentro de círculos, flotando en la red de conexiones. Cada icono tiene un diseño distinto y parece representar distintos conceptos tecnológicos o sociales. Algunos de ellos incluyen: 1. Un hombre con sombrero y traje - Puede simbolizar la identidad, el anonimato o el concepto de individuo en una red más amplia. 2. Un icono con dos marcadores de ubicación - Relacionado con la geolocalización o la navegación en espacios digitales. 3. Un símbolo que parece una letra 'e' estilizada - Puede hacer referencia a plataformas digitales, comunicación o redes sociales descentralizadas. 4. Un icono que recuerda a una cámara o dispositivo de captura - Posiblemente alude a la tecnología de reconocimiento visual o sistemas de monitorización. 5. Un símbolo con nodos conectados - Representa interconectividad, descentralización o sistemas distribuidos. Las conexiones entre los iconos y la forma en que están dispuestos recuerdan a una estructura de red descentralizada, como una representación gráfica de un sistema federado de comunicación o tecnología de blockchain. Interpretación del significado Esta imagen parece fusionar el pasado con el futuro, representando a un personaje que evoca la figura de un visionario, un filósofo o un pensador del siglo XIX, pero en un contexto completamente tecnológico y futurista. La red de conexiones y los símbolos sugieren un mundo interconectado, con referencias a conceptos como la descentralización, la identidad digital y la evolución de la tecnología. El personaje podría simbolizar a los pioneros del pensamiento y la innovación, aquellos que reflexionan sobre el impacto de la tecnología en la sociedad y el conocimiento. La imagen en su conjunto transmite una sensación de conexión entre el pasado y el futuro, uniendo la sabiduría tradicional con la vanguardia tecnológica.,
Transcripción de Episodio 14. Redes libres y descentralizadas: un paseo en mastodonte por el Fediverso
Bienvenidos al decimocuarto episodio de tu podcast favorito. ¿Qué tal estás, Ricardo? Pues muy a gusto, Arturo. Con muchas ganas también de comenzar este nuevo episodio y tratar la temática que, de nuevo, me resulta muy interesante. Y está el doble porque soy un perfecto ignorante sobre la misma. ¿Qué va, qué va? ¿Tú no estás fediversado en este mundo? No estoy muy fediversado. Soy un fediignorante. Bueno, pues después de este ratito esperemos estar todos un poco más fediversados. Muy bien. ¿Más o menos de qué vamos a hablar? Pues de esto. Del fediverso. De esto que muchas veces, en muchos sitios, pues mucha gente a veces habla de ello, ¿no? De alternativas a los programas más conocidos, más habituales, que si el Twitter o el Ahora de Maddox, el YouTube y compañía, ¿no? Pues hay otras alternativas y a veces pues no sabemos muy bien en qué consiste, cómo funciona, si eso no es para todos los públicos, cómo va esto. ¿Software libre? Pues suele ser software libre, suelen tener un poco otra idea, ¿no? Otra política no tan comercial y la estructura en sí misma y la infraestructura que llevan por detrás es bastante distinta, aunque intentan hacer lo mismo de otra forma, ¿no? Pues fíjate, yo esto del fediverso pensaba que era algo, si es simplista mi pensamiento, algo alternativo a Twitter, a X, porque es la forma de como yo lo conocí. A mí una vez me dijeron, mira hay otra red social que se llama Mastodon y bueno, está dentro de lo que es el fediverso y demás y bueno, está mucho mejor, es más tranquila que X y demás. Y así fue como la conocí, con un programa que se llamaba Mona y con el TW Blue, que luego hablaremos supongo de él, de Manuel. Y hasta ahí llega mi conocimiento, no llega más. Sí, sí, pues efectivamente una alternativa es, ¿no? Igual que hay muchas alternativas que Twitter, antes llamado Twitter no estaba solo que hay muchas alternativas, pero claro, las hay con diferentes sabores, ¿no? Las hay comerciales, las hay open source, las hay... Claro, el asunto de todas estas cosas es que luego haya gente con la que tú quieras interactuar o quieras leerles o quieras hablar con ellos, que claro, que también estén ahí, ¿no? Igual que hay alternativas a WhatsApp, pero bueno, si luego con quienes tú quieres interactuar no están ahí, pues no hacemos mucho, ¿no? Pero la verdad es que hay alternativas y ahora vamos a hablar de todas ellas con nuestro invitado, ¿no? Vamos directamente. Pues venga, adelante, presentémoslo. Pues tenemos por aquí a José Manuel Delicado. José, muy buenas, ¿cómo estás? Hola, buenas tardes, Arturo Ricardo Ruiz. Encantado de estar por aquí. Vamos a fediversar un poco. Muy bien, genial. Pues buenas tardes, José. Bienvenido y gracias por estar en Gafotarcegatos y sus aparatos. Normalmente ponemos un link en las notas del episodio para que la gente pueda profundizar en tu perfil, en tu curriculum, pero si puedes en un minuto más o menos comentarnos quién es José Manuel Delicado. Bueno, pues ¿qué puedo contar? Me saqué hace tiempo la ingeniería del software, me metí a consultor de accesibilidad, llevo ya unos años ejerciendo de consultor. Y bueno, en mi tiempo libre investigo, aprendo de todo tipo de tecnologías, me entusiasma la informática, me entusiasma cacharrear con todo tipo de software y demás. Y nada, eso es en cierto modo lo que me ha hecho llegar hasta aquí, donde estamos ahora, y hablar de lo que vamos a hablar. Es una de las cosas que me apasionan. ¿Qué proyectos tienes en marcha o cuidas de ellos? Mira, bueno, los cuido, los tengo en marcha. Los adoro un montón, no puedo estar sin ellos. Llevo la comunidad de NVIDIA en español, en parte, con más gente, la de nvidia.es, y llevo también la audiocinemateca, donde se suben todos los días contenidos con audiodescripción, tanto en castellano como en español latino. Desde hace ya muchos años, ¿no? Desde hace diez años, que cumplimos hace poquito. Genial, pues ahí está José, metido en un montón de líos y muy fediversado. Y bueno, vamos a hablar un poco de estos temas del fediverso, ¿no? Cuéntanos, ¿qué es el fediverso? Bueno, el fediverso es un término complicado y voy a intentar simplificarlo lo máximo posible. Fediverso es una palabra que a su vez es la unión o la contracción de dos palabras. Federación y universo. Y yo le meto una tercera porque me lo dejan a huevo, que es diverso. Hay mucha diversidad, no solo de software, sino de personas. Al final, ¿en qué se traduce todo? En un conjunto de elementos que interactúan entre sí, utilizando un protocolo común. Y básicamente, tú entras al que quieres, te haces una cuenta donde más cómodo te sientas, y puedes interactuar con todos esos servicios desde un mismo sitio. Todos esos servidores, todos esos programas. Va el concepto más orientado a temas de redes sociales, pero, vamos, no es ni la primera ni la última vez que hemos visto esto en Internet. Y es antiguo. Es antiguo, aunque el concepto en sí es más reciente. En cierto modo, esto del fediverso ya lo hemos visto en el correo electrónico, lo hemos visto en el IRC, en los tiempos en los que se usaba, y en un sinfín de programas más. Pero esto es complicado, enrevesado. Es decir, la gente de a pie, de la calle, el correo electrónico más o menos lo entiende, ¿no? El correo electrónico lo equiparan al correo normal, ¿no? Una carta, tiene un destinatario, un remite, el contenido, incluso a juntar cosas, archivos. Pero esto del FEDI este es un poco más complicado para la gente de a pie, ¿no? A ver, es complicado también por la forma en la que lo explicamos. Aquí se mete mucha gente técnica, y al final tendemos hacia la parte técnica, cuando queremos hablar de él. No sé cómo explicarlo. Se parece mucho al correo electrónico porque tiene un destinatario o varios, que es cuando tú mencionas a alguien, pero también puedes no mencionar a nadie, la gente te sigue y ven lo que publicas. Y también se parece en que tú tienes un nombre, un nombre de usuario, arroba, un dominio, ¿vale? En el correo electrónico lo tenemos. Aunque hoy en día casi todo el mundo ya tiene Gmail y ya todo es arrobajmail.com y los demás proveedores ya no existen. Pero bueno, en cierto modo, al menos esa parte queda ahí y guarda esa similitud con el resto del FEDIverso. Claro, pero normalmente entendemos que detrás de cualquiera de estos servicios, pues hay algo, hay una empresa detrás de Twitter, pues hay una empresa, una empresa que se llama Twitter, más o menos, detrás del correo de Gmail pues está Gmail, está Google, Alphabet o lo que sea, pero bueno, está Gmail o está Yahoo, está Microsoft, hay algo detrás, ¿no? Y detrás de aquí, ¿qué hay? Aquí hay de todo. Aquí hay personas, hay asociaciones, hay empresas, hay casi cualquier tipo de entidad que quiera tener, puede haber administraciones públicas. ¿Vale? Quien quiera montarse un servidor puede hacerlo o quien quiera crearse una cuenta en un servidor ya existente también puede hacerlo y ya tiene representación en el FEDIverso. José, ¿y qué filosofía sustenta lo que es el FEDIverso? ¿En qué se basa? Básicamente, el FEDIverso persigue la descentralización. Hay mucho software libre involucrado. La idea inicial era evitar la censura impuesta por algunos gobiernos y al final, pues, se ha convertido en una red distribuida de nodos y lo bueno que tiene es que puede caerse uno, pero no se cae la red entera. Nosotros vemos a veces noticias del tipo, se ha caído WhatsApp o se ha caído Instagram o Twitter o todos los servicios de meta. Eso en el FEDIverso no pasa. Se cae una página y cuando pueda volver, vuelve. También es cierto que hay servidores que se apagan y ya no vuelven, pero ocurre poquito. Y básicamente es eso. Descentralización, distribución, que el control vuelva, el control de los contenidos vuelva a las personas, que no haya un algoritmo detrás y bastantes cosas más contrarias a lo que vemos en las redes sociales tradicionales. ¿Tú por qué tomaste la decisión? Porque supongo que tú vendrías de redes sociales tradicionales como sería Twitter o cualquiera de estas y algún día dijiste, bueno, apago aquí y paso directamente al FEDIverso. Sí, yo estaba en Twitter. Yo estaba en Twitter y entré en Twitter en 2011 y gracias al TW Blue y a clientes similares, la experiencia fue comodísima. He estado en Twitter mucho tiempo, pero he utilizado la aplicación móvil de Twitter y la web muy poco. Siempre tiraba de clientes de terceros y, bueno, ¿qué pasó? Que ya vi lo que estaba pasando con las APIs, vi que me quedaba sin esos clientes y digo, ya que está pasando lo que está pasando, Elon Musk ha comprado Twitter y ya conozco un poco más cómo funcionan estas redes y tal, pues voy a lanzarme a la aventura, ¿no? Yo ya llevaba curioseando por más todo en unos años. Entré allá por el 2018, tuve mi cuenta allí. Como otros muchos, monté un puentecito de Twitter a Mastodon y al final acabé usando Twitter y al final me limitaron la cuenta. Y ya, viendo el panorama y explorando un poco más todo aquello, dije, hay que moverse, vamos a probar, a ver cómo sale. Puede que me arrepienta mañana, puede que tenga que desmontar esto, porque las máquinas no dan, porque es que encima di el salto al FEDIverso y di el salto con servidor propio. Dije, bueno, a lo mejor no dan los recursos, pero mira, han dado, se han portado muy bien y ya en noviembre del año pasado hicimos dos años y vamos a por el tercero. ¿Quiere decir que entraste con servidor? Pues que monté el mío propio. Bueno, más que el mío, lo puse para la asociación entera de NVDA en español. Correcto, a disposición, ¿no? Eso es. Tiene el nombre comunidades.nvda.es Y entonces, nada, lo hice, a pesar de que mucha gente piensa que es para NVDA, lo hice como un servidor de propósito en general, que cualquiera puede entrar, seguir a quien quiera y hablar de lo que quiera, como si estuvieran en las redes sociales que tenían antes. Pero supongo que lo que tendrás eran usuarios, la mayoría personas, digas, con baja visión, ¿no? Sí, sí, sí, son los que nos han elegido, porque además me llegan buenos comentarios de que se sienten cómodos, se sienten a gusto, de que esto está bien moderado, les va bien, y entran e interactúan con los demás. ¿Cómo moderado? ¿Nos puedes explicar esto? ¿Tú moderas ese canal o ese...? ¿Has dicho que se llama? ¿La dirección dices? ¿Comunidad? No, no, no, el... Instancia, el mástodon. Instancia, exactamente. A ver, yo básicamente, más que moderar, diría que observo, y si ocurre algo es cuando se toman medidas, pero el resto del tiempo soy un usuario más. Vale. ¿Quieres decir que por encima de ti no hay nadie? ¿La instancia la gestionas tú, de principio a fin? ¿Un poco serías el administrador, moderador? Soy uno de ellos. Somos como tres o cuatro personas, todos de la asociación, y la gestionamos, cada uno con lo que puede. La mayor parte del tiempo sí que estoy yo. Por intentar un poco simplificar y comparar con algo conocido, las instancias serían como núcleos, como si fueran pueblos, ciudades, y ahí cada uno... Y luego se puede enfadar, que es que una ciudad puede hacer relaciones a través de sus carreteras y como quieran, pues se comunica con otras ciudades, se comunican entre ellas. Y tu ciudad, tu instancia, se puede comunicar con otras, ¿no? Sí, las veces que he intentado explicarlo he puesto un ejemplo muy similar con barrios donde tú hablas con tus vecinos, pero si quieres puedes llamar por teléfono a otro barrio que está más lejos, a otra ciudad, y hablar con la gente que hay allí. Es algo muy similar. Y lo de montar un servidor, pues que eso no es para todo el mundo, que simplemente la gente con ir y darse de alta, igual que te puedes dar de alta en Twitter, en YouTube o en otros sitios, pues te das de alta y ya está. Aquí lo complicado, que es por lo que la gente tampoco se registra mucho, tiene una tasa de adopción bastante bajita, y es por la parte técnica, pero también porque no saben qué elegir. Tú te metes a la página oficial de Mastodon, y te metes a servidores, y ves un chorro interminable de servidores, que sí, que puedes filtrar por idioma del servidor, puedes filtrar por temática, pero una vez que filtras dices, ¿y ahora qué hago? ¿Me meto a este? ¿Me meto a este otro? Luego están los que no aparecen allí, como el mío. El de la comunidad no aparece en ese directorio, porque, como dije, los recursos son los que son, y tampoco queremos una avalancha de gente. Pero eso también es un problema de entrada, ¿no? Porque si quieres darte de alta en Twitter o en cualquier página de estas, pues entras ahí y ves el botón de darte de alta a un usuario nuevo y ya está. Pero es que ya el primer paso de darte de alta a un usuario nuevo, ya solo ese paso te tira un poco para atrás, porque dices, ¿y ahora qué? ¿Dónde me doy de alta? ¿Cuál es el bueno o qué diferencias hay entre unos y otros? ¿Cuál es mejor? ¿Cuál es peor? Siempre está la opción que elige mucha gente, que es entrar en Mastodon.social, se registran allí, y luego ya cuando ven que les gusta otro servidor, migran su cuenta. Porque eso sí, en Mastodon, por ejemplo, está muy bien implementado, que es la migración de un servidor a otro. Lo único que se pierde son las publicaciones, pero todo lo demás se conserva. Seguidos, bloqueos, etc. ¿Y qué criterios se siguen para federarse? A ver, la federación depende un poco de lo que quiera el propietario de la instancia. O sea, por defecto, si tú no haces nada, montas el servidor, lo abres y ya está, tus usuarios comienzan a seguir gente, ya sea de la misma instancia o de otras. Entonces, en el momento que sigues a una persona de otra instancia, esas dos instancias ya conectan. Y poco a poco se va formando como una especie de red, donde tú entras, el resto de instancias también empiezan a federar contigo, y al final es como se va encontrando la gente así. Por ejemplo, la comunidad NVDA, que es la que tú moderas, ¿con quién está federada? Con quién no. Tenemos ahí como mil y pico servidores ya. El problema es... Y de hecho sí. Es una pregunta bastante acertada a la contraria. ¿Con quién no? Nosotros tenemos una política bastante abierta. Intentamos bloquear o desfederar lo mínimo posible, porque existe esa opción. Tú puedes ir a la configuración y decir, este servidor lo voy a meter en lista negra, que se suspendan todas las interacciones con él, y adiós. Y se acabó. Eso lo hemos hecho con casos muy concretos, generalmente servidores destinados a lanzar ataques o spam, con muchos bots y demás. Hay otras instancias que aplican políticas más severas en función de lo que votan los usuarios, o de los ideales de la gente registrada, o de los pensamientos de la administración y demás. Eso también se ha visto mucho estos años. Esto sería el punto más interesante, más importante, que diferencia una instancia de otra. Claro. Aparte del software elegido, porque estamos hablando todo el rato de Mastodon, pero hay muchos más programas, más versiones derivadas, tened en cuenta que estamos hablando de software libre. Si me pongo a decir nombres, grabamos cinco o seis podcasts, no vale con uno solo. Entonces, ¿qué pasa? Cada propietario elige qué instala, pero también pone sus reglas, y elige quién puede registrarse, cómo se registra, yo qué sé. Al final, son decisiones que toman los usuarios, pero también los administradores. Con quién van a federar, con quién no, cómo van a aplicar las reglas, de qué se puede hablar, de qué no. Y, por supuesto, hay administradores de todos los tipos. Los hay que lo hacen mejor, que lo hacen peor, etc. Supongo que, como cualquier red social, tendrá una timeline que tú la irás configurando, y a partir de ahí, cuando estás federado, ¿tú qué ves? ¿Solo lo tuyo, o ves lo de toda la gente conforme se va publicando? Es una pregunta muy interesante, porque aquí no hay una timeline, sino varias. Tenemos la inicial, la de inicio, que es donde ves lo que veíamos con el TW Blue en Twitter, por ejemplo. Ves la actividad de la gente a la que sigues, ves tu propia actividad, ves también que esto le choca mucho a la gente los mensajes directos que te llegan, porque aquí el concepto de mensaje directo varía un poquito, pero de eso podemos hablar ahora o después. Y ahí acaba la de inicio, pero luego tienes la local, y en la local ves lo que publica la gente de tu instancia. Entonces, ¿qué pasa? Que si no conoces gente del lugar en el que estás, vas a la local y ya puedes empezar a seguir. Ya encuentras gente que puedes conocer o no conocer, y seguirla. Pero es que después de la local está la federada, y la línea federada está formada por las publicaciones de la gente a la que sigues tú, y de la gente a la que siguen tus compañeros de instancia. De esa forma se va enriqueciendo el contenido. Tú puedes ir a la federada, encontrar gente y seguirla, ya sea de tu instancia o de otras. Y luego ya lo puedes complicar un poco más todavía, y conectar la instancia a un repetidor de publicaciones, que también existen y se pueden hacer, y cuando se asocian varias instancias a él, por la federada te llega todo el contenido de todos esos servidores. Aquí sí que estamos profundizando un poco en lo técnico, he de decir que cualquiera que decida ser usuario no va a notar seguramente nada de esto, va a ser totalmente transparente, y simplemente lo que cambiará será lo que vea, de una instancia a otra, si se registra en varias. Pues eso, un lío. Para el común de los mortales, para la gente de a pie, antes en cualquier otra red social, Twitter que es el ejemplo siempre, o Instagram o alguna de estas, te das de alta y ahí está todo. Twitter hace tiempo tuvo una línea pública, por así decirlo. Hace tiempo se podía ver, y se veían tweets de un montón de gente, llegaban a chorros y labrias. Y aquello era un infierno, se quitó rápido. Pero yo siempre lo digo, que un buen lugar para empezar es una instancia grande o la línea federada. Si lo que quieres es encontrar gente y seguir gente con tus mismos intereses, y no nos podemos olvidar tampoco de los hashtags y las tendencias que también existen. Y el idioma. Y el idioma. Sí, sí, sí. Pero si yo estoy en una instancia, y quiero seguir a alguien que está en otra instancia, ¿eso qué me supone? Te supone que tienes que conocer, o encontrarlo por casualidad, su nombre de usuario. Si te da su nombre de usuario, genial. Lo sigues, y ya está. Si te da su nombre de usuario, genial, lo sigues, y ya está. Y si te da su nombre de usuario, genial, lo sigues, y ya está. Si te da su nombre de usuario, genial, lo sigues, y ya está. Si no te lo da y lo encuentras navegando por ahí, pues también... ¿No puedo buscarlo? No, se complica un poquito. A ver, Mastodon tiene un buscador, pero es un buscador bastante limitado, por varios motivos. Es capaz de buscar publicaciones dentro de tu instancia. Es capaz de buscar alguna cosa más que tenga retenida en las cachés. También de reconocer a un usuario de otra instancia, un perfil, o una publicación, y mostrártela. Pero no se le puede pedir mucho más. Luego, aparte, la gente en su configuración, por aquello de respetar su privacidad, tiene que activar una casilla para ser encontrado, para que tus publicaciones se indexen y se localicen. De lo contrario, no lo hacen. Pero, José, ¿no se le puede pedir más? ¿Por qué? Porque técnicamente no es viable, porque no hay ese propósito. Me refiero en cuanto a la búsqueda de usuarios de otras instancias y federaciones y demás desde un lugar común. Eso, ¿por qué no se puede hacer? Porque implicaría centralización y hacerlo de forma descentralizada es un jaleo. Seguramente ocuparía mucho espacio, mucho consumo de recursos, y al final no se está haciendo principalmente por eso. Sería una tarea muy, muy, muy costosa. Porque no hay un coordinador. Aunque esté descentralizado todo, no hay nada que coordine. Por ejemplo, donde vayan todas las bases de datos de usuarios y se genere una base única donde se pueda buscar. Es imposible. No. Hay algún servicio que a lo mejor te ofrece algo parecido, pero nunca te va a mapear todas las instancias. Luego hay que tener en cuenta que hay instancias que tienen distintos niveles de privacidad en su configuración administrativa y deciden, a lo mejor, que estos servicios no puedan pasar. No es como otras redes como BlueSky. Tú te vas a BlueSky, que también se habla mucho últimamente de ella, y allí sí hay un directorio central de identificadores, y es fácil encontrarle a la gente. Está descentralizada también, pero un poquito menos. Bueno. Aquí iría por el tema de la primera selección que tú haces de todo, de esta tendencia, intereses... Entrarías ya dentro de una de las instancias, ¿no?, que sería donde te suscribirías, entiendo, y a partir de ahí tendrías acceso también, si focalizabas en federado, de todo lo que se fuera publicando. Y ahí tendrías que ver, primero en lo que a la gente conoces, ¿no? Para decir, lo sigo, lo sigo, que lo normal es que si has entrado en una de estas instancias, que conozcas a alguien o por lo menos, si no personalmente, por lo menos porque lo has leído, porque lo has... ¿no? Algo de esto será así. Claro, eso es. Sí, sí, sí. Vale, vale. Yo creo que eso ya es un problema un poco de entrada, ¿no? Yo creo que es un pequeño gran problema que hay que entender un poco lo que hay detrás la parte técnica para a la hora pues eso, a la hora de realizar una búsqueda, a la hora de tal, pues hay que entender lo que hay detrás para poderlo hacer correctamente, ¿no? Y eso pues a la gente de a pie que no tiene por qué tener todos esos conocimientos pues le echa un poco para atrás. Antes había servicios que te permitían asociar tu usuario de Twitter al de más todo o no de lo que fuera y la gente te podía encontrar. Pero con el cierre de las APIs cayeron rápidamente. Y es una pena porque facilitaron mucho las cosas. Sí, supongo que sería cuando hubo aquel crecimiento brutal, ¿no? ¿Qué pasa? ¿La migración? ¿La migración de 2022? De 500.000 casi a 6 millones, ¿no?, de seguidores. Sí, sí, sí. Fue brutal. Luego hubo algunas más pero ya más pequeñitas. Pero realmente si no las comparamos con nada, si la comparamos, por ejemplo, con Twitter con X que tiene casi 550 millones de seguidores, es decir, no llegáis ni al 1%, ¿no?, en comparación. No, aquí hay una base de usuarios bastante residual y ya no me limito a más todo sino al Fediverso entero. La última vez que vi el contador había una cuenta oficial de contador que cada hora iba publicando cuánta gente había. Me parece que se rompió o la apagaron o no sé qué le pasó pero vi unos 15 millones de cuentas. De esos 15 millones no todas tienen por qué estar activas. Yo qué sé. Puede haber un montón de factores involucrados y al final el número de usuarios activos es menor. Sí, pero eso le pasa a todas las redes sociales, ¿no?, también. Claro, claro. Hay quien se hace su cuenta de Twitter a lo mejor de X y no la miran ya en la vida o de lo que sea. Puede pasar. Lo que han dicho antes, ¿no?, que si no puedes buscar usuarios que están en otras instantes en otro estar por la descentralización en sí misma, pues tampoco puedes contabilizarlos. No. Lo que sí se puede hacer es... O sea, no se pueden buscar usuarios concretos. Tienes que conocer los datos correspondientes y tal. Pero sí se puede pedir ciertas estadísticas a instancias conocidas. Y a partir de ahí sí que puedes armar... ...un determinado recuento de cómo están las cosas. Claro, pero instancias conocidas, porque hay instancias pequeñitas, minoritarias, que no tienen muchas federaciones con otras o lo que sea, que están ahí un poco aisladas. Claro, claro, claro. Por conocida me refiero a eso, instancias con las que la tuya ha conectado. Pues yo tengo la sensación, te estoy escuchando, ya te comento, José, y lo he dicho creo que en la introducción, que parto de cierta ignorancia, de que es como un entorno o un lugar muy apetecible para techies, para gente que le encanta la tecnología y realmente es un universo perfecto en cuanto a lo tecnológico, pero es abrupto y resulta farragoso y complicado para el usuario de a pie, que realmente no quiere muchas complicaciones. Sí, pero fíjate que a pesar de que hay mucha gente con conocimientos técnicos, hay gente de otros campos, hay mucho activismo, hay gente que habla de ecologismo, de política, también vienen artistas que dibujan o gente que sube muchas fotos, que se han ido de redes sociales conocidas, tipo Instagram y demás, por el motivo que sea. La universidad también tiene muchos grupos. Sí, sí, sí, sí. He visto algún colegio, algún instituto, asociaciones, no sé, se ven movimientos y cosas muy bonitas por aquí. También es curioso, ¿no?, porque hay gente que puede argumentar para irse de una de esas redes sociales comerciales grandes, pues la censura y tal, pero pasan de estar censurados por el multiministerio de turno a estar censurado por, no sé, por José Manuel Delgado, por ejemplo. Claro, eso puede pasar. El censor mundo. A ver, el inquisidor local. Inquisidor local. Sí, sí, sí. Pero sí que se han visto ejemplos de esa censura que decís. Y también hay que decir que la cosa ha acabado con esa gente yéndose a otra instancia, simplemente. Han cambiado de sitio, están mejor y ya está. También me podrían incluso llegar a bloquear o banear en la instancia. También podrías echar a ese usuario o bloquearle de alguna forma. Hay veros controles de moderación, también hay un sistema de reportes para cuando alguien hace alguna travesura y puedes limitar la cuenta de esa persona para que no pueda federar y sus publicaciones no salgan de tu instancia o puedes suspenderla, que ya la baneas del todo, o simplemente mandarle un aviso. Por tu experiencia, sin dar nombres lógicamente, cuéntanos así cosas que te han sucedido como moderador. Que si te han llegado reportes, si por algún tipo de comentario que venía adjunto al reporte que te haya llamado la atención y un poco cómo has procedido. A ver, me han pasado cosas muy graciosas. No precisamente en comunidad, porque yo estoy hablando de comunidad, pero también tengo otra instancia que se llama fedefeed.net y es una instancia cerrada que es solo para meter cuentas bot para seguir fuentes de medios de comunicación y publicar noticias. Porque los medios de comunicación que seguían por el click, el algoritmo, la publicidad, los anunciantes y demás no han querido en su mayoría dar el salto hacia aquí. Entonces había que traerlos de alguna forma. Total, hice esa instancia, no me voy a liar mucho, hice unas cuantas cuentas, y de repente se ven cosas como que te llega un reporte a la cuenta de Hitmodo, por ejemplo, y dice, esta gente tenéis que eliminarla porque publican artículos guiados por la inteligencia artificial y entonces han echado a todos los traductores a la calle y no sé qué. ¿Y a mí qué me cuentas? No sé, es el medio de comunicación, ellos verán lo que hacen, quien quiera seguirlos aquí puede verlos, yo no voy a hacer nada. Y luego los más graciosos son los reportes hechos a la cuenta del Mundo Today, sin duda, que como todos sabemos es un medio periodístico de humor. No me acuerdo, me parece que se metieron en una noticia, no sé si con la iglesia o algo así, y llegó un reporte de un señor muy enfadado, os voy a denunciar a la policía, no sé qué, no sé cuándo. Digo, señor, pero si aquí no es. Y a nivel de comunidad alguna cosa ha pasado, muy pocas, tengo usuarios muy buenos, y en general los que interactúan con ellos también lo son, y sí que hemos tenido alguna cosita, pero muy poco. ¿Alguna anécdota para contar? ¿Anécdotas? No sé, hay una persona que se metió aquí, empezó a publicar de un tema que le gustaba mucho, a imponer su temática, al final hubo que tomar medidas, se fue. Luego también tuvimos que bloquear a un chaval que se puso a hacer el gamberro y a publicar software malicioso. Algún bot con spam nos ha entrado también. Antes has nombrado cuentas bots, que trabajaban un poco para el Ferifit, creo que se llama, tu otra instancia, y estaban reportando noticias, a ver, cuéntanos un poco. Estaban reportando noticias de esas cuentas. Estas cuentas son cuentas bot, efectivamente, todas se gestionan desde la misma máquina y lo que hacen es conectarse al medio correspondiente, el Mundo, el País, el 20 Minutos, Europa Press, van leyendo su fuente RSS, que a día de hoy siguen existiendo y siguen siendo muy recomendables, y cada noticia que ven, pillan el titular y lo lanzan, lo lanzan con su enlace y tú sigues esas cuentas y ya puedes informarte, entrar y leer la noticia que corresponda. ¿Ha sido tú quien ha seleccionado los medios? Sí, en principio sí, y sé que me faltan muchos, la gente me los va pidiendo y según me los piden, los agrego, empecé por España, algún medio internacional hay, pero pocos, y espero en el futuro meter más. Genial. Aquí también el historial es limitado, o no, es decir, las publicaciones que yo pueda hacer en la instancia de NVDA, con el tiempo desaparece, no están ahí siempre. A ver, en principio tú cuando te registras en cualquier servidor de Mastodon, tienes historial ilimitado, tú publicas y eso queda ahí para siempre. ¿Qué pasa? Que esa publicación ocupa sitio, ocupa espacio en la base de datos, ocupa, si subes imágenes o audios o vídeos, ocupan espacio en el servidor donde los subas, y eso al final repercute en los costes del servidor. Entonces, ¿qué pasa? Que el propietario va notando que el espacio aumenta, y va teniendo que subir los costes para poder gestionar eso y que siga funcionando como siempre. Mastodon tiene una opción, que te vas a las preferencias y puedes marcar, que es para que tus publicaciones caduquen. En el momento que caduquen, el servidor automáticamente las limpia, borra el contenido multimedia asociado, borra el texto y ese espacio se libera. Entonces tú puedes marcar esa casilla y elegir cosas tales como si se van a eliminar también las publicaciones que hayas fijado, las que tengas en favoritos, en los marcadores o que te hayan retoteado X veces, y cada cuánto tiempo, publicaciones más antiguas, ¿de cuánto se van a borrar? Yo, por ejemplo, tengo puestas dos semanas, así que mi historial llega dos semanas atrás y a partir de ahí se acaba, ya no hay más. Y hay gente que pone seis meses, un año, dos años, o directamente que no marcan la casilla y siempre tengo que andar lanzando un pequeño recordatorio. ¿Costeas tú solo el pago del servidor y todo esto o tienes colaboraciones? Hay colaboración, las donaciones, las donaciones. ¿Costeas tú solo el pago del servidor y todo esto o tienes colaboraciones? Hay colaboración, las donaciones que se reciben en la asociación se destinan a esto también. Van hacia el servidor en parte y he de decir que tenemos suerte porque los costes son muy, muy bajitos y casi todo va financiado por algún proveedor. Tengo curiosidad por saber tanto qué software utiliza la gente en general y qué software utilizan las personas ciegas en distintas plataformas para poder gestionar de forma, en este caso, fácil y directa todo lo que es la gestión de Mastodon, por ejemplo. Pues mira, hay un poco de todo. Mastodon tiene su interfaz web, tiene su propia aplicación móvil para iOS, para Android, pero luego su API, su interfaz de programación, ha sentado como un precedente y hay un montón de software de servidor que está adoptándola. Entonces, ¿qué pasa? Que hay aplicaciones que valen para todo y puedes conectarlas a casi cualquier servidor, sea de Mastodon o sea de otro tipo. Yo, por ejemplo, en el iPhone tengo Mona, que es una aplicación de pago, pero cuyo precio mereció la pena cuando salió y lo sigue mereciendo, incluso se ha subido un poquito porque está muy, muy, muy bien. Te permite configurar las cronologías, las líneas que quieres ver, en qué orden quieres verlas, yo qué sé. Puedes abrir líneas locales y federadas de tu instancia y de otras. Es increíble. Yo la tengo, me la recomendó Enrique Varela cuando entré en esto y me impresionó mucho la aplicación porque ojalá la mayoría de ellas fueran así. Creo que está muy bien trabajada a nivel de accesibilidad y se lleva con VoiceOver. Mira mucho la compatibilidad con VoiceOver y todo. Está muy bien. Luego tenemos más. Tenemos el TW Blue, que Manuel Cortés lo adaptó para que se pudiese usar con Mastodon. Tenemos aplicaciones web específicas que se pueden conectar a cualquier servicio de estos basado en Mastodon, tipo Enafore, Semafore, Pinafore, que son todos derivados de lo mismo. Y es una interfaz web muy chula donde han cuidado también la accesibilidad mucho. O sea, por opciones que no quede. Y luego en Android también está Tusky y alguna otra más. Hay muchas, hay muchas. ¿Pero Tusky se especifica para gestionarla con lectores de pantalla en este caso? No, no, no, no. En sistemas móviles no hay nada específico para lectores de pantalla, pero sí muchas aplicaciones que acaban siendo accesibles. De acuerdo. Los desarrolladores están muy concienciados y al final, y si no lo están, cuando les pides que la hagan accesible y les explicas la problemática que hay y qué es lo que esperas encontrar y demás, se vuelcan y lo arreglan. Eso es lo que había escuchado, que dentro de lo que es el feriverso y toda esta tecnología que está en torno a él, comenzó sin ser muy accesible, pero hubo mucha receptividad a los requerimientos que le hicisteis la gente que entendéis de accesibilidad y que ibas señalando lo que había que mejorar. ¿Esto es así? Esto es así y te digo más. Una de las cosas que nos sorprende a todos cuando llegamos, especialmente personas ciegas, es que las imágenes tienen una opción para incluir descripción. Esa descripción también se puede meter en vídeos y en audios. El icono para introducir esa descripción llama la atención lo suficiente como para que la gente lo use. No está por ahí escondido. Y el 90% de los contenidos que se pueden incluir, tienen descripción. Más elaborada, menos elaborada, con inteligencia artificial, sin ella, transmitiendo algunas cosas u otras más cortas, más largas, pero tienen descripción. Y eso es algo que sorprende para bien muchísimo. Una sensibilización mayor del usuario en general para hacer este tipo de cosas. Sí, así es. Ahora, según llega gente, ese porcentaje, ese 90% está bajando un poquito. Y hay usuarios que meten caña. Porque es que incluso a la gente que ve, ese texto alternativo le sirve. De hecho, lo dicen. Es que me sirve para contextualizar. O me sirve para entender de qué se está hablando, de qué se pretende hablar en esta imagen. O qué se pretende enseñar. Y para localizar. Porque es texto en una búsqueda. También, también. Se puede decir que la red en sí no es accesible ni no lo es. Es cada, las aplicaciones que podemos utilizar. Igual que antes, en la época cuando había clientes para Twitter. Que había diferentes aplicaciones. Pues dependía de cada aplicación de que lo hiciera más o menos accesible. Aquí también pasa lo mismo. Eso es. Lo que pasa es que aquí, como digo, hay mucha sensibilidad, mucha conciencia. Y la gente lo hace. Y lo hace rápido. Y una duda. Una red que esté más centralizada, ¿no? Como puede ser WhatsApp. Pues a la hora de poder cifrar los mensajes. Y que el servidor no sepa lo que estamos intercambiando. Que se cifre de punto a punto. Al estar centralizado, pues quizás sea más sencillo. Aquí, al estar descentralizado. Esto, ¿cómo se lleva? A ver. Es una buenísima pregunta. Aquí hay cifrado a nivel de base de datos. Pero hay que tener mucho cuidado porque los mensajes no suelen cifrarse. Es decir, las publicaciones que se envían y se reciben. Sí que llevan un determinado cifrado. O una firma criptográfica, por así decirlo. Para que se pueda verificar su autenticidad y su procedencia. Pero los mensajes no se cifran. Tú cuando mandas mensajes directos a alguien. Que siempre lo decimos en la página de ayuda que tenemos en la instancia. No deberías transmitir datos sensibles. Porque el administrador de la instancia. O de las instancias involucradas. Pueden llegar, asomarse a la base de datos y mirar. Ahora lo tienen un poquito más difícil. O lo tenemos, mejor dicho. Pero yo no miro. No penséis que miro, porque no. Pero se puede hacer. ¿Entonces los mensajes directos que decías antes? No, pues eso. Que los mensajes no se cifran. Los mensajes circulan. Pero no es que vayan en abierto. A nivel de red, por ejemplo. Porque sí que van cifrados por HTTPS. Pero que se recomienda no transmitir ningún dato sensible. En esos mensajes. Ni multimedia adjunta, ni nada. Porque al final, corres el riesgo de que ocurra. Y de hecho, algún caso se ha visto. De algún administrador que miraba lo que no debía. Además, para llegar a poder mandar un mensaje directo. Para llegar a poder mandar un mensaje personal a otra persona. Que a lo mejor está incluso en otra instancia. Pues ese mensaje va saltando de instancia en instancia. Hasta que llega al destinatario. No, va directo. Tu instancia conecta con la de destino. Lo envía y ya está. ¿Y si no son amiguitas las dos instancias? Se hacen. Bueno, se hacen. Y si no se pueden hacer porque están bloqueadas. Alguna bloquea a la otra. Pues el mensaje no va a ningún sitio. Si los tres somos instancias. Y uno bloquea al otro. Entonces los usuarios de mi instancia no podrían envidiar a los usuarios de la tuya. Ni siquiera a través de Ricardo. Aunque si yo fuera amiguito de Ricardo. Pero ni siquiera a través de Ricardo. Ni siquiera a través de él. Por eso, yo prefiero cuando hay que tomar medidas contra instancias. Que ocurra muy poco, como ya dije. Prefiero limitar. Que sí que facilita. Permite esa interacción. Pero digamos que reduce la exposición. No vas a ver publicaciones. No te van a aparecer en la federada, por ejemplo. Pero sí permite que tus usuarios hablen. Con los que quieran de ese otro lugar. Por ejemplo, threads.net. Que es la instancia de meta. Esa la limitamos. Porque la gente. Aquí en el Fediverso. La compatibilidad de Threads. Causó mucha conmoción. Y la gente empezó a debatir. ¿Qué va a hacer meta con los datos? ¿Qué son datos abiertos? ¿Van a poder entrar? ¿Van a pescarlos? ¿Van a hacer lo que sea? Digo, bueno, vale. En nuestro caso, no nos vamos a decantar. Ni por dejarlos abiertamente entrar. Ni por bloquearlos. Porque, a lo mejor, uno de nuestros usuarios. Puede tener un amigo en Threads. Y puede querer hablar con él. No le vamos a quitar esa posibilidad, ¿no? ¿Has dicho que prefieres esta instancia de meta? Sí. Hay un servicio de texto este que han creado. Parecido a X. Conectado con Instagram. No sé bien cómo va la historia esta. Puedes habilitar compatibilidad con el Fediverso. Pero la tienes que activar a mano. Hay publicaciones tuyas que no se van a ver. Otras que sí. Luego, por lo que cuentan desde la interfaz de Threads. No se respeta el orden cronológico del Fediverso. No sé. Hay de todo. Se dice de todo. Yo, particularmente, no he entrado allí. Claro. Esto es interesante, ¿no? Porque si aquí, en el Fediverso, la idea sobre la que se sustenta todo esto es la libertad. Que, bueno, algunas instancias pueden estar más o menos censuradas. Y otras menos. Otras más. Pero si alguien, incluso con fines comerciales, o meta, o quien sea, quiere también entrar y que tiene su propia instancia. ¿Por qué no dejarle? Es como si estamos a favor del código libre. Y luego va Microsoft que pone parte como código libre. Pero no le dejamos que ponga su código libre. Porque es Microsoft. No, no. Y esto es su derecho de hacerlo. Si quieren entrar, que entren. Pero... Pero lo dejamos aislado. Pueden entrar, pero lo dejamos aislado y no nos federamos. No, porque nunca van a quedar aislados. Es como he dicho antes. Siempre hay gran variedad de opiniones, puntos de vista. Y siempre va a haber quien los aísle y va a haber quien no. Entonces, en cierto modo, parte del Fediverso se va a ver desde allí. Fíjate, José, tú comentas que hay libertad y hay diversidad. Y yo la percepción que tengo y por cosas que he leído también, es que justamente, si de algo carece, el Fediverso es de eso. Es decir, hay monoclonalismo, es decir, hay monoclonalismos y hay monoclonalismos y hay monoclonalismos y hay monoclonalismos y hay monoclonalismos, es decir, solo hay un solo color. Realmente, el crecimiento ha sido en reacción a, en este caso, a redes sociales más liberales, que no estoy diciendo si son buenas o malas, sino que son distintas. Y que realmente han habido muchos bloqueos, distancias, pues, por catalogarlos de fascistas, de no sé qué. Entonces, esa es la sensación. Entonces, cuando yo digo que hay libertad, claro, puede haber libertad según la entiende cierta ideología, porque esto también es curioso, que es la libertad realmente. Pues, una ideología se conoce de una manera y otra de otra. Entonces, bueno, esto sí que te lo quería comentar porque lo has comentado antes. Sí que es cierto que has dicho que había un solo, perdón, antes quería decir monocromatismo, que había un solo color aunque había diversidad también. Pero bueno, a mí es una circunstancia que me llama la atención. Hasta como observador, fíjate que no estoy criticando nada, es simplemente analizando, no tomo posición. A ver, mi sensación es que hay pocos bloqueos, pero los pocos que hay han hecho mucho ruido. Porque antes de esos bloqueos ha habido peleas multitudinarias, ha habido discusiones, ha habido intercambio de mensajes de un montón de sitios y al final seguramente es lo que resuena, ¿no? Y por supuesto, desde aquí, desde la comunidad, pues parece que sí que se ve un solo color. Porque al final federamos con gente de ese color, pero yo diría que hay de todo. Hay de todo, hay instancias de otros colores políticos, hay instancias con otra filosofía. Entonces, nada. Pues será aquel color que predomina en el machillón. Puede ser. Yo particularmente, si me encuentro en las otras, mientras no ocurra nada, mientras no ataquen a mis usuarios, todo va a ir bien. O sea, no hay ningún problema y aquí particularmente no se va a bloquear a nadie. Y la temática que tratáis, por ejemplo, en comunidad NVEA es abierta, ¿no? No es solo tecnología, porque yo he visto que realmente se opina mucho sobre noticias de actualidad, de carácter político. No, aquí hay de todo. Aquí hay de todo. Como dije antes, se abrió como instancia de propósito general para que quienquiera pueda entrar, explorar el Fediverso desde aquí y decidir si se queda aquí, se va a otro sitio y demás. O sea, el propósito, pese a su nombre, nunca fue hablar de NVEA. Y de hecho he visto más comentarios de otra gente que dicen que veo a gente hablando de su vida, ¿no? Digo, vale, sí, es lo que verías en cualquier otra red, es lo que se pretende. ¿Qué quieres? Pues ya está. No, no, sí, sí, eso está clarísimo, sí. Llenas macarras que arrinconan a gente que discrepa de lo que piensan o cuando publican algo y eso. Siempre las hay en todos los sitios y hasta qué punto se tiene que administrar eso o moderar eso en cualquier instancia de cualquier red social o en cualquier sitio, es así. ¿Y eso es bueno o es malo? Pues no, es lo de siempre, la educación, los grupos, y bueno, no es fácil. Es muy dependiente del contexto. Se pueden tener debates sanos o se pueden tener debates más tensos y es ahí a lo mejor cuando tenemos que empezar a tomar medidas. Pero tú dices que no has tenido que tomar afortunadamente ninguna medida, ¿no? En los activos. Entonces, nada, en otras instancias mayores sí que han pasado cosas. Y bueno, Mastodon nació, que además fue así, un poco como reacción a una red más comercial, centralizada, y surgió un poco como contraposición a eso. Igual que existe con Mastodon que la comparamos con la antigua Twitter, con X, con otras redes. Mira, tienes Mastodon, que efectivamente se parece a Twitter, te mete un límite de 500 caracteres, luego hay gente que sube ese límite, yo particularmente no lo voy a hacer. Hay... Entendemos que sube el límite el moderador. Sí, sí, el moderador sube el límite, efectivamente. Hay instancias que tienen 5000, 2000, así. Pero bueno, Mastodon empieza con 500 caracteres pero luego tienes otras. Tienes plataformas de blogs, de música, de vídeo, de fotografía, similares a Instagram o a Facebook, Friendica se parece mucho a Facebook, Pixel Fed es el equivalente a Instagram, Pertube, que es como YouTube, no sé, Ride Freely, luego hay complementos para plataformas conocidas como Wordpress, que tú te lo instalas y ya te habilita el soporte ActivityPub y entonces tus entradas se leen por el Fediverso. A mí me explotó la cabeza el día que conseguí leer una publicación de Wordpress desde TWBlue porque tú dices es que parecía imposible, ¿no? ¿Qué estoy haciendo si siempre he visto esto navegando por la web? ¿Cómo es posible que ahora lo esté leyendo desde aquí? Pues se puede. Eso es lo que mola de esto, que interconectas un montón de plataformas con un protocolo compatible y tú desde la que tú eliges todos los demás y te llega en un formato donde las cosas funcionan. Entonces, por ejemplo, la que es el equivalente, por así decir, a YouTube, ¿no? Hay una red que se encuentra a YouTube pero harían falta otras instancias que permitan grabar esos vídeos o en la de NVIDIA también se podrían almacenar o son instancias separadas. Tú tienes una instancia de Pertube, subes un vídeo y entonces ese vídeo lo publicas. Tú lo descargas, sean de donde sean y el vídeo les llega junto con la publicación. Los vídeos suelen circular de un servidor a otro para facilitar que puedas descargarlos desde tu servidor local y, en cierto modo, proteger tu privacidad, que el servidor remoto no conozca tu IP, por así decirlo. Entonces, bueno, alguien que está en Mastodon ve el vídeo que tú has publicado, lo puede reproducir, y al responder, él responde con lo que para él es un TOT de respuesta, pero a ti te llega en forma de comentario ese vídeo porque tú estás en Pertube y quieres esa interfaz y ese modo de conectar. A ver que me he perdido, pero ¿dónde está alojado ese vídeo? Ese vídeo va a estar en tu servidor de Pertube, donde lo has subido tú, pero una vez que federa, los otros servidores se lo van a bajar Estaría también en el tuyo, en el caso de... TRANSCRIPTION TEXT TRANSCRIPTION TEXT Hay plataformas de tipo Github para que puedas subir código abierto y federan entre sí. Nescloud, que es como una nube autoalojada que puedes meter en casa, está trabajando también en un complemento para conectarse al Fediverso. O sea, esto abre un enorme mundo de posibilidades y también las empresas se han dado cuenta. Hemos hablado de Threads, pero hay otras que también quieren conectarse a esto. Y tú como usuario, ya no como moderador ni nada de esto, siempre que, bueno, no quiero ser indiscreto, pero normalmente ¿qué es lo que sueles seguir? ¿Qué sueles ver cuando tú llegas, entras en tu gestor? ¿Qué es lo que has seleccionado que te gusta? Supongo que tu comunidad lo primero para ver qué se ha cocido, ¿no? Por supuesto. Mis usuarios no faltan. Sigo amigos, sigo medios de comunicación. Os sigo a Arturo y a ti, que tampoco me podéis faltar. Gracias. Bueno, bueno. José Manuel fue mi primer usuario con el que me comuniqué cuando dije "socorro, no sé cómo funciona esto" y salió al rescate. Sí, sí, sí. Además, tú elegiste nuestra instancia y yo siempre que alguien viene aquí intento recibirlo de la mejor forma posible. Tenemos aquí instrucciones de cómo usar más todo, en cómo adaptarse y, no sé, a la gente parece gustarle. Sí, sí, hombre. Y sobre todo tú, que eres una persona muy respetuosa y amable, que siempre se agradece. Gracias. Y volviendo a esto, creo que ya. Porque sigo también las líneas de otras tres o cuatro instancias de personas ciegas y, bueno, mis cuentas de Nubedea y Laudicinemateca, que también están por ahí. Y el Fedefeed. Sí. Sigo algunas, no a todas. Porque eso cada diez minutos dispara y me llena el hilo de noticias y tampoco quiero estar tan informado. Y al estar descentralizado, el mensaje podría cambiar por el camino. Por ejemplo, en Empertube, uno que tenga una instancia, el profesor este que comentaba antes, Ricardo, creo que era francés, pues pone sus vídeos en su instancia de su institución o lo que sea. Pero luego si yo lo veo en mi instancia de Nubedea, pues se viene una copia de ese vídeo. Vendrá para acá, pero luego a lo mejor si el profesor cambia ese vídeo, tendrá que actualizarse en mi instancia o qué pasa. Sí, sí. Los cambios se reflejan. Se reflejan tanto las actualizaciones como las eliminaciones. Luego ya cada instancia decide si respeta eso o no. Por ejemplo, hace poquito me enteré de que los servidores de Geneo Social no lo hacen. Hubo un caso de alguien que se quejó porque decía, Jolín, es que yo veo publicaciones de hace seis años, pero las veo en otro sitio. No en mi servidor, sino en otro sitio. Y contactó con el propietario en cuestión y ya se tomaron medidas. Pero a veces no tiene por qué respetarse una solicitud de eliminación. Claro, porque podría pasar que el original ha quitado su vídeo o lo que sea, pero sin embargo la copia que está en el caché, en mi instancia en este caso, pues yo puedo seguir viendo ese vídeo, aunque el original vaya abajo. Sí, pero no. A ver, la instancia que lo respeta, lo respeta. O sea, una solicitud de eliminación, en cuanto te llega, el servidor elimina la publicación automáticamente. Entonces lo ideal es eso, se va de caché y se va de todo. No puedes acceder a ello. Pero sí que es verdad que mucha gente viene al Fediverso huyendo precisamente de eso y buscando un cambio de aires. Y de hecho casi siempre lo notan y lo agradecen. En general se está bien aquí. Claro, pero si este profesor pone también sus vídeos en su instancia y luego yo estoy en la tuya y tú lo censuras, pues cortarías el lazo con esa federación, con esa instancia y yo no podría verlos. Claro. Y tendrías que irte a esa instancia o cambiar de instancia o tener varias cuentas. Hay gente que tiene varias cuentas también. Y ver los vídeos desde otro sitio. Yo particularmente, tranquilo que no lo voy a hacer, a ver que empiecen a ocupar espacio. En ese momento ya pensaremos qué se hace. ¿De cuánto espacio estamos hablando? Ya por curiosidad. Muy poquito. Poco más de 100 gigas tengo en el servidor. Y hay que procurar que no se llene demasiado. ¿Y el software se actualiza muy a menudo? ¿Te requiere mucha atención o tienes que...? No, se actualiza cada equis tiempo, metiendo novedades o corrigiendo fallos de seguridad o de funcionalidad. Y por suerte no. Desplegarlo es fácil, mantenerlo es fácil. Y bueno, gracias a Docker, que también me apoyo mucho en Docker para gestionar la instancia y las imágenes. Docker es un software que facilita mucho estos despliegues y las actualizaciones y demás. Muy bien. Pero vamos a hacer una cosa que nos gusta mucho, José. Que es ese paso a paso desde cero. Una persona que ha escuchado este episodio y dice yo quiero entrar, por ejemplo, en Mastodon. Una persona, vamos a poner que sea ciega o no ciega. Da igual. Entonces, punto uno. ¿Qué tendría que hacer? Vale. Hay dos alternativas. O nos vamos a joinmastodon.org, joinmastodon.org. Y allí le damos a servidores y buscamos en esa lista gigantesca que va a aparecer para elegir un servidor. Pero la opción más simple, el camino más simple, es entrar en mastodon.social y hacerse una cuenta. Y a partir de ahí ya te empiezas a encontrar gente, empiezas a seguir gente. Y a lo mejor si quieres irte a otro sitio, te vas a otro sitio. Entonces, entramos allí. Vamos a proporcionar nombre de usuario, correo electrónico, contraseña. Lo típico que se suele pedir siempre. Nos damos de alta, confirmamos el correo y demás. Y ya estando allí dentro, pues se puede empezar a mirar el hilo federado o el local, que van a estar muy a mano. Vale. Una cuestión. Cuando has dicho damos usuario, ¿ese usuario va a formar parte de nuestra cuenta? Ese usuario va a formar parte de la cuenta. Ese usuario va a ser arroba usuario, arroba mastodon.social, por ejemplo. De acuerdo. Vale, vale. Muy bien. Ya estamos dentro, estamos allí. Y ahora, por ejemplo, si yo quiero encontrar comunidad nvda, hago una búsqueda. Simplemente pongo mastodon en Google y pongo comunidad nvda y me saldría. Es una opción. Es una opción. Puede salir en Google. Otra opción. Puedes usar el buscador de mastodon y buscar nvda como tendencia o como palabra clave, que seguro que algo sale. Correcto, porque exactamente. Usuario sería complicado, pero instancia sí que me va a mostrar algo, ¿no? Seguro que sí. Bueno, entonces, ya la veo, digo, aquí está. ¿Qué hago? Nada, puedes entrarla, puedes entrar en ella, puedes visitar su línea local, puedes ver sus tendencias, de qué habla la gente por allí. Me gusta. Puedes ver también su línea federada, si quieres. Todo ello sin registrarte, ¿eh? Ojo. Sí, sí. Puedes ver todo eso y en función de si te gusta o no, dices, vale, quiero migrar. Y en la configuración de la cuenta se puede hacer. Hay opciones para, bueno, te tienes que hacer una cuenta, por supuesto, sí o sí, en la nueva instancia. Pero en la cuenta hay opciones para eliminar, o sea, migrar tus seguidores, descargar los archivos que quieres exportar. Lo único que no te puedes llevar, como dijimos antes, son tus publicaciones, cuando migras de un sitio a otro. Y, nada, a partir de ahí, cuando tienes las asociaciones hechas, migras y el resto sucede solo. Puede tardar unas horas, pero ya tienes cuenta en el nuevo servidor. Puede tardar unas horas porque está pendiente tu autorización, en este caso, ¿no? No, no, no, no. A ver, yo tengo autorización en comunidad, por ejemplo, para aprobar usuarios que se registran. Exacto. Tengo el registro semiabierto, que eso también es algo que se puede configurar. Hay instancias que no admiten a nadie, hay instancias que admiten a cualquiera y luego hay un nivel intermedio que es decidir si la persona entra o no entra. Vale, pero la migración no se aprueba, la migración ocurre. Ocurre. Una vez que tienes una cuenta en ambos sitios, el administrador no hace nada, es algo totalmente transparente para él. La persona migra, va de una a otra. Vale. Por eso decimos, y por eso volviendo al tema de la libertad, que si no te gusta un sitio, siempre vas a poder irte a otro y nadie te lo puede impedir. Incluso si te han limitado la cuenta, puedes irte. Y el tipo de contenido, ¿no? Hemos dicho que hay mensajes de texto, que puede haber de vídeo, como el PerTube, y puede haber, por ejemplo, de música, un equivalente al Spotify o cosas así. O de archivos, de programas. A ver, no conozco yo instancias de música. Sé que las hay, pero no he explorado esa parte todavía. Pero sí, a ver, puede haber. Hay mucho contenido. Texto, multimedia. En general, también puede haber programas. Software. Software. Si alguien publica un enlace de descargar, puede haberlo. Claro. Claro, pero es un enlace, ¿no sería el archivo en sí mismo? No, no, no. Se limita a lo que veríamos en una red social, como X y demás. Multimedia, texto, imágenes, y para de contar. Porque el vídeo sí que estaría, si es un vídeo, en sí mismo, el vídeo en sí estaría dentro de la instancia, ¿no? Sí, y dentro de la publicación vas a poder reproducirlo. Tiene sus controles de avance, retroceso, su texto alternativo, muy importante, no debe faltar tampoco. Y la piratería aquí, ¿cómo lo lleva? Porque esto puede ser un caldo de cultivo interesante, ¿no? Hay de todo. Hay de todo. Particularmente en la instancia de comunidad, y viendo cómo está el panorama por listas de correo y demás, yo cuando puse las reglas dije, venga, vamos a permitirlas siempre y cuando el nivel de privacidad se ajuste adecuadamente, y sea por mensaje directo o hablando en plata, que yo no me entere. De eso no hemos hablado, de los distintos niveles de privacidad, si queréis os cuento un poquito, porque tú puedes elegir cuando publicas, si esa publicación va a ser pública, no listada, sólo para tus seguidores o sólo para la gente que mencionas. Son distintos niveles de privacidad, la pública va a federar por todas partes, tú la lanzas y va a llegar a todas las instancias, va a aparecer en las líneas locales, federadas, y así. Pero la no listada, aunque sigue siendo pública, la va a ver sólo quien te siga, bueno, perdón, quien te siga y quien la busque, es decir, quien entra a tu perfil a mirar. Y luego la de sólo seguidores, sí, la ves sólo quien te siga, y ojo porque aquí surge una duda muy frecuente, si alguien te sigue puede ver tus publicaciones actuales y pasadas, que fueran sólo para seguidores, o sea, no es, te sigo y veo sólo lo que publicas a partir de ahora. Y luego está la de sólo la gente que menciono, que es el mensaje directo propiamente dicho. Entonces una publicación, le pones ese nivel, mencionas gente, una persona o varias, y ese mensaje directo llega a esa persona o personas. De tal forma que algo muy bueno que tiene es que se pueden hacer de forma muy fácil conversaciones en grupo, privadas. Sí, eso es lo que a mí me resulta más interesante que no he visto en otro sitio y me parece genial, porque sí que si mencionas a un grupo que vais a hablar de una temática donde a todos os puede interesar, sí que se generan dentro unas conversaciones que son magníficas, además que al ser más reducido el grupo, ¿no?, tiene como más dinamismo y es más interesante. Tampoco, en mi caso al menos, no son habituales. O sea, he visto conversaciones de siete o ocho personas o seis o nueve incluso, pero públicas. Pero serían totalmente viables en privado también. ¿Y el precio? ¿Cuánto cuesta esto? Depende. Depende del servidor que tengas, de la gente que quieras admitir, los recursos que quieras darle, el software que instales. Entonces aquí no hay algoritmo, no hay publicidad, no hay anunciantes. Y aunque parezca gratis para el usuario, no lo es. El administrador necesita pagar eso. No significa que todo el mundo tenga que lanzarse a pagar, pero siempre se agradecen las donaciones, siempre son bienvenidas y van a ayudar a que la instancia en cuestión perdure en el tiempo, que es lo que se persigue también. Y en tu caso, por ejemplo, para que te llegue una donación, aunque lo vamos a poner también en las notas del episodio, ¿cómo tendrían que hacerlo? Pues muy sencillo. Basta con visitar la página nvda.es barra donaciones y allí se explica todo y se ofrecen distintos métodos de pago por PayPal, tarjeta de crédito, transferencia bancaria. Tenemos ahí un montón de alternativas para que cualquiera use la que mejor le venga. De esa forma, pues podemos ayudar a sostener todo esto. Fenomenal. Pues yo creo que hemos tocado ya todos los temas. Creo que no nos hemos alejado mucho, ¿no? Si os parece, podemos hacer un resumen, recapitulamos un poco. Pues sí, hemos conocido qué es el feriverso, de dónde viene y cómo realmente podemos discurrir por él. Hemos conocido también la diferencia entre lo que es una instancia, una federación. ¿Cómo funcionan las publicaciones? ¿Cómo interactúan entre sí los usuarios? ¿Cómo buscar? Un poco las limitaciones, los pros, los contras, desde un punto de vista un poco técnico para intentar conocer un poco las tripas y poderlo utilizar. Como usuarios, en este caso, sí que hay que conocer un poco lo que hay detrás. No siempre nos sirve únicamente con entrar y darnos de alta, que también, pero si conocemos un poco lo que hay debajo del capó, pues vamos a poder utilizarlo en condiciones. Bien, hemos conocido también el paso a paso de cómo, desde cero, llegar a entrar dentro de este feriverso y comenzar a inscribirse, a migrar y demás, y comenzar un poco la aventura, que es muy recomendable para que no te lo cuenten. Es decir, nosotros podemos hablar y tener nuestra opinión, pero lo interesante sería que los que no conocéis este tipo de entorno, pues lo probéis y tengáis vuestra propia opinión. Eso es. Contamos un poco lo que hay, intentando ser objetivos, que nada no es ni blanco ni negro. Todo tiene sus ventajas, sus inconvenientes. Pasamos de estar censurados por unos a estar censurados por otros. Cada cosa tiene sus peculiaridades y simplemente pues para que podamos elegir en cada situación lo que más nos convenga. Pues muchas gracias, José, por habernos acompañado este rato. Esperemos que hayas todo a gusto y que repites. Bueno, eso espero yo también. Muchas gracias a vosotros por esta maravillosa oportunidad. Y nada, a todos los que están escuchando, si quieren venir al feriverso, es un lugar tranquilo en el que se está bien. Y hay poca gente, va a seguir habiendo poca gente, pero con vosotros vamos aumentando ese número y nada. Os recomendamos que la instancia sea comunidad NVDA, que tiene un moderador, que como hemos dicho antes, es una persona muy amable, respetuosa y dedicada, y que se llama José Manuel Delicado. Y al que le agradezco un montón que me haya transferido estos conocimientos porque ahora me siento mucho menos ignorante, aunque lo sigo viendo complicado. Sí, estamos un poco más feriversados, aunque esto yo creo que no es para todo el mundo, pero bueno. Tiene su parte complicada, pero cualquiera puede entrar y va a estar bien. Yo estoy segurísimo al 100%. Muchas gracias. Muchas gracias, José. Contamos los medios de contacto. Bien, pues si queréis encontrarme allí por el feriverso, precisamente, soy arroba jmdaweb arroba comunidad.nvda.es. Y si no, o si queréis algo más tradicional, como el correo electrónico, podéis escribir a contacto arroba nvda.es y por allí os atendemos. Muy bien. ¿Y Ricardo? Bueno, pues nuestros medios de contacto son nuestro correo electrónico gafotas arroba cegatos punto es y. Hay que ver qué clásicos somos. Correo electrónico tradicional, pero bueno. Y a través de WhatsApp por un mensaje de texto o de audio en el más 34644640792. Como siempre, os agradecemos a todas y todos que hayáis llegado hasta aquí. Esperamos que os haya resultado interesante como a nosotros este episodio y lógicamente os esperamos en el próximo. Hasta luego. Adiós. Adiós. Adiós adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Pues lo que me faltaba, ¿eh? Joder. No, hombre, una toma falsa. Está bien. ¿Sí? Pues... Joder. ¿Nos traes agua, pues? Sí, sí. Disculpad. ¿Un vasito de agua? Lo tengo ahí. Ya he bebido antes. Estaba, además, con un pequeño caramelo en la boca y... nada. No sé, se ve que tengo un poco de caras pero aún no acabo de curarme. Bueno. Pueden llegar, asomarse a la base de datos y mirar. Ahora lo tienen un poquito más difícil, o lo tenemos, mejor dicho. Pero... yo no miro. No penséis que miro, ¿por qué no? Pero se puede hacer. ¿No miras porque no ves? Por eso iba a decir yo. ¿Por qué os he visto? No miro porque no veo, pero tampoco uso mi lector de pantalla para observar... Vale, vale, vale. ...lo que allí se publica. Ah, era una broma, José. Sabemos que eres decente, ¿sabes? Solo traficas con los datos, ¿no? Con otra gente, pero no miras. Claro, claro, claro. Vale, correcto. No puedes saquear. Así que Arturo era francés, el profesor, que era Messier-Pierret. ¿No te acordabas de ese detalle? Te ha quedado bien. Dice, por cierto, que era francés. Claro, claro. Ya que has pasado la historia, la historieta y todo ese tipo de cosas. Lo he leído. Es que, claro, a mí me suena que lo leímos, ¿no? Que era un profesor el que lo hizo porque encontraba mucho ruido en YouTube, ¿no? Bueno, ruido, no. Porque censuraban los vídeos. Eso es. Porque siendo profesor es un problema porque vas a explicar la historia, empiezas a hablar de nazis y va YouTube y te censura los vídeos. Sí, sí, sí. Claro, claro, que siendo profesor deberías poder hablar, libertad de cátedra, hablar de lo que te dé la gana, ¿no? Simplemente contar la historia, lo que pasó, ni bien ni mal. La objetividad en la historia creo que nunca existe. Siempre depende de quién la haya escrito. Pero bueno, intentar contar por lo menos la versión oficial y ni eso, ¿no? Porque YouTube pues va y te busca palabras clave con sus algoritmos, buscan ciertas palabras y te censuran el vídeo y te lo quitan. Y no puedes ni siquiera compartir esos vídeos. Te veo como hablando de algo muy dolido, como que te hubiera pasado a ti. Puede ser, puede ser. Algo ahí, algo ahí. Pero bueno. Muy bien. Respirad, venga. Sonreíd. Abrazar la libertad del fe diverso. Pedir pista para aterrizar, que había un momento que... O sea, que José iba a pedir pista para aterrizar. Sí, sí, sí. Pero oye muy bien el sonido hasta el momento. Porque sí que cuando has entrado, José, nos hemos inquietado muchísimo. Yo con mi talk me han dado como palpitaciones y todo. Para mí es habitual. Bueno, imagino que es así. Y además yo sí que sé que las turbinas esas van muy bien. A no ser que tengas refrigeración líquida y cosas de estas. Porque es otra historia. Pues sí, hemos conocido qué es el fe diverso, de dónde viene. Y bueno, cómo realmente podemos discurrir por él. Y bueno, hemos conocido también la diferencia entre lo que es una instancia, una federación. Venga, chicos. Cómo se financia. Cómo se financia. Que es dormir, que hay que hacerlo a la limón, hombre. Cómo funcionan las publicaciones. Cada cosa tiene sus peculiaridades. Y simplemente pues para que podamos elegir en cada situación lo que más nos convenga, ¿no? Correcto. Que sepáis que vais a incursionar en un reducto de techies y woks trasnochados. Nosotros... Pero esta es broma. Es que no tenemos patomas falsas. Venga. Bueno, silencio. Venga, Arturo. Muchas gracias, José. Contamos los medios de contacto. Bien, pues si queréis encontrarme allí por el fe diverso, precisamente, soy... Soy... Y si no, si queréis algo más tradicional, como el correo electrónico, podéis escribir a... Y por allí os atendemos. Muy bien. Fenomenal. ¿Y Ricardo? Los nuestros... Bueno, yo el mío no me lo sé. Los nuestros de... Ah, vale, digo. Era que me preguntaba. Yo entro con el gestor y voy para adentro. Que no sé ni cómo me llamo. Si ahora tuviera que dar solo a alguien, yo ni me lo sé. El mío. El del podcast. Sí, sí, sí. Ya, ya. Bueno. Muy bien. Muchas gracias. Pues nada. Vamos hablando. Y a descansar, que mañana hay que... Como nos vulnera tu última enneca. Venga, vamos a acabar hablando en latín, que... Me gustaba más lo de... Ya estamos cambiando el idioma. Lo de... Me gustaba más. Sí. Y que el niño se acuesta, el cagao se levanta. Efectivamente. Alboreate es, claro, que madruga, ¿no? Es el que se despierta, ¿no? Por el alba. Alboreate. Ah, qué bueno, qué bueno, qué bueno. Sí, sí, sí.
Gafotas, cegatos y sus aparatos #13
Fecha: martes, 4 de marzo de 2025, a las 00:00:00
En este decimotercer episodio de Gafotas, cegatos y sus aparatos, exploramos los lectores de pantalla más populares en Android: TalkBack y Jieshuo (pronunciado “Gisua”). Para ello, contamos con Héctor Benítez y David Santos, dos expertos en tecnología y accesibilidad digital que comparten su experiencia y consejos prácticos para aprovechar al máximo la accesibilidad en Android.
Temas destacados en este episodio:
- TalkBack: Fortalezas, debilidades y evolución del lector de pantalla integrado en Android.
- Jieshuo: Un lector de pantalla alternativo con mayor personalización y funcionalidades avanzadas.
- Ecosistemas abiertos vs. cerrados: Diferencias clave entre la accesibilidad en Android e iOS.
- Inteligencia Artificial y accesibilidad: Integración de IA en TalkBack y en dispositivos Samsung/Pixel.
- Aplicaciones recomendadas: Las herramientas preferidas por nuestros invitados para navegar, comunicarse y gestionar su dispositivo.
- Consejos finales: Cómo elegir el mejor lector de pantalla según las necesidades de cada usuario.
No te lo pierdas: Si te interesa la accesibilidad en Android y quieres conocer a fondo estos lectores de pantalla, este episodio es para ti.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Descripción general de la accesibilidad de Android.
Información y tutorial del lector Jieshuo Screen Reader (inglés).
Créditos:
Duración: 01:26:14
Descripción detallada del logo de Episodio 13. TalkBack vs. Jieshuo: ¿Cuál es el mejor lector de pantalla para Android?
La imagen es una ilustración en blanco y negro con un estilo de cómic retro, similar a los grabados antiguos o las ilustraciones de mediados del siglo XX. Representa al personaje de nuestro logo, un hombre de aspecto distinguido sentado en un sillón de cuero con botones capitoné. Su vestimenta es elegante: lleva un traje con chaqueta de solapas anchas, una camisa blanca y una corbata de rayas diagonales. El personaje tiene un bigote grueso y curvado hacia arriba, y luce gafas de sol redondas. Además, lleva unos auriculares grandes de diadema conectados mediante un cable. Su expresión transmite concentración mientras manipula un teléfono móvil moderno con su mano derecha, mientras que su mano izquierda sostiene firmemente el dispositivo. La carcasa del teléfono tiene un diseño con varias lentes en la parte trasera. A la derecha del hombre, en la parte superior de la imagen, aparece el icónico logo de Android en color verde, encerrado dentro de un círculo. Este detalle sugiere una conexión con el sistema operativo de Google, posiblemente indicando que el hombre está utilizando un dispositivo con Android o que la escena está relacionada con la tecnología móvil. La composición transmite una sensación de sofisticación y tecnología, combinando elementos visuales de épocas pasadas con la modernidad de los dispositivos actuales. El trazo grueso y definido, junto con el sombreado detallado, refuerza el estilo gráfico característico de este tipo de ilustraciones.
Transcripción de Episodio 13. TalkBack vs. Jieshuo: ¿Cuál es el mejor lector de pantalla para Android?
Bienvenidos al decimotercero episodio de tu podcast favorito. ¿Qué tal estás, Ricardo? Pues muy bien, Arturo. Aquí encantado de que estemos ya en un número tan elevado de episodio y con ganas de hablar del tema de hoy. Sí, y hoy, bueno, vamos a hablar de móviles, ¿no? Que nos gusta mucho la tecnología y los móviles y, en este caso, pues de los androides, ¿no? De los androides que, bueno, no sé si es conocido o no es conocido, pero vamos a intentar dar un poco de luz dentro del mundo del androide y de los lectores de pantalla. Correcto. Esa es la palabra clave. Los lectores de pantalla para androide, que son menos conocidos que otros lectores de pantalla. Pero si quieres, podemos hablar un poco de qué es un lector de pantalla, porque igual alguien lo escuche y no sabe lo que es. Sí, eso es. Para empezar por el principio, pues un lector de pantalla, ¿no? Que es lo que habitualmente, pues principalmente utilizan personas con discapacidad visual, sobre todo, pues ciegos o con diferentes deficiencias visuales que si te cansas a leer y demás, ¿no? La idea de un lector de pantalla, simplificándolo mucho, es que toda la información que habitualmente podemos ver en la pantalla, pues poderla extraer de alguna forma para poderla convertir a voz, ¿no? Incluso, bueno, podemos diferenciar ahí dos partes, ¿no? Por un lado, interpretar, acceder a esa información que está en la pantalla y luego esa información, el mismo software, pues la pasa a otra parte, que es la que convierte ese texto en voz, ¿no? En una voz sintetizada. Bueno, en voz o en braille, depende de lo que tengas en cuanto a la salida. De dos formas predeterminadas. Es voz, porque es más sencillo, pero si tienes un display o una línea braille externa, sí puedes también, a fin de cuentas, lo que capturas la información, la administra de una u otra manera y, bueno, permite al usuario que pueda acceder a la misma, porque, lógicamente, no ve la pantalla y no ve lo que se le muestra. En este caso, vamos a hablar de los lectores de pantalla para móvil. ¿Tú recuerdas la primera vez que tuviste un móvil adaptado, un móvil que pudiste utilizar? Pues sí, recuerdo el Nokia 3660, creo recordar que era, y no era lector de pantalla como tal, porque inicialmente, la tecnología y las características de móvil llegaban hasta donde llegaban en aquel momento y todavía era difícil un lector de pantalla y era una capa que se superponía y era un programa, una aplicación como tal, y lo que estaba dentro de esa aplicación sí que te lo leía, pero no podías salir de esa aplicación, no podías ejecutar otros programas en el móvil, porque eso ya estaba fuera de esa aplicación y ya no te lo leía nada. Correcto, exactamente, era como una app dentro del propio móvil que te permitía acceder a algunas funciones del móvil y leer alguna información, pero no manejarte por todo el móvil. Es una especie de máscara o entorno cerrado. ¿Cuál era? ¿El Mobile Speak era? Mobile Speak, creo que incluso, no, Mobile Accessibility. Hubo uno que era el Mobile Accessibility, que fue el primero. Fue el primero, ¿no? Sí, sí, es posible. Sí, luego, Mobile Speak, creo que sí te leía algo fuera ya de la app. El Mobile Accessibility era una app en sí misma y solamente te leía lo que estaba dentro de esa app. Incluso te salía un mensaje de error o lo que sea del sistema y ese ya pues no era leído, no. Solo te leía lo que estaba dentro de su aplicación. Un sistema que era Symbian, ¿eh? Sí, sí, sí, para Symbian. Correcto. Yo recuerdo Talks o Talks, que se llamaba también, que bueno, no sé si era el mismo principio, pero tenía más pinta de lector. Sí, el Talks era ya el lector de pantalla, porque este sí que te leía otras aplicaciones. Este se integraba muy bien en los Nokia y este ya era lector de pantalla. Ambos con la voz de nuestro amigo Eloquenz. Correcto. Que son dos piezas distintas, ¿no? Una cosa es cómo se accede a la información de la pantalla, a la información interna, por así decirlo, y luego esa información pues la pasa a una síntesis de voz que puede ser más o menos natural, más o menos robótica. En algunos sistemas operativos o lectores de pantalla es más fácil cambiar esta síntesis de voz y en otros, como Apple, pues es la que viene y ya está, ¿no? No se puede cambiar. Pero bueno, son dos piezas independientes. Muy bien. Y luego llegó la debacle, se hundió Symbian, aquello que había generado unos teléfonos Nokia maravillosos con un sistema bastante interesante, pues desapareció. Pero por el horizonte vimos dos grandes marcas sacar sus terminales móviles. Por una parte era Apple con su iPhone y su sistema operativo iOS y por otra parte era Google que impulsó Android para, lógicamente, los terminales Android. Y a partir de ahí pues ya tuvimos una nueva accesibilidad. Sí, además en ese punto más o menos cuando empezó la debacle de Symbian, yo creo, y comenzaron estos otros entornos, ¿no? Fue también cuando empezaron las pantallas táctiles y pensábamos en aquel momento, ¿no?, que una vez más los ciegos nos quedábamos atrás porque con un teclado físico numérico pues era bastante fácil teclear, pero con una pantalla táctil pues hubo un momento que no se veía la luz y no se sabía cómo íbamos a poder utilizar eso. Es verdad, esto es determinante. Dimos el cambio de botoneras, de botones, de teclas a pantalla táctil, que parece una tontería, pero sin ver y perder una referencia física como era una tecla realmente pues producía vértigo, ¿no?, ese cambio. Pero nos equivocamos prácticamente todos. Luego ha resultado que es magnífico y hoy por hoy yo no me veo con un teléfono con teclas. ¿Y tú? Pues, bueno, no sé. Habría que verlo. Porque para escribir, a la hora de introducir datos, yo los SMS los mandaba muy rápido con un tecladito físico T9, como se llama, el teclado que tiene los números, físicos, ¿no?, del 1 al 0, el asterisco, la madilla, y ahí se escribe, nosotros escribimos de forma muy rápida y con una pantalla táctil pues a veces cuesta un poco más. Se puede. Pero solo por eso, pero no, luego ya lo será horroroso. Claro, claro, solo eso, solo esa ventaja. El resto no hay color. Bueno, pues nada, vamos a hablar ya de los lectores de pantalla para Android y para eso vamos a presentar a nuestros colaboradores. Sí, hoy también tenemos a dos invitados que nos van a hablar de Android y de los lectores de pantalla para Android. Tenemos a Héctor. Muy buenas. Buenas, ¿cómo estáis? Hola Héctor, ¿qué tal? Bienvenido. Y tenemos también a David Santos. Hola David. Hola, ¿qué tal? Encantado de saludaros. Pues nada, explicarnos primero quiénes sois, quién es Héctor y quién es David. Vale, pues nada, Héctor es un chavalín de 47 años actualmente, vendedor de cupones y bueno que lleva mucho tiempo en todo este mundito de la tiflotecnología. Le gusta mucho cacharrear y a grosso modo ese sector. Sí, y él es muy humilde y nos lo ha dicho. Es un desarrollador de aplicaciones muy interesantes y algún día hablaremos de alguna de ellas porque la verdad que para las personas ciegas son magníficas, se adaptan perfectamente a los lectores de pantalla que hoy nos lleva, es uno de los temas que estamos comentando y ya también hablaremos. Y además de ser un enfermo de la lectura y un lector empedernido. Sí, bueno eso sí, eso sí. ¿Y David? Bueno pues David es un chavalín también de 40 años, informático y en este mundo de la discapacidad visual desde hace tres años, un poquito así. Entonces bueno, con un poco todo nuevo para mí. ¿Antes nada David? ¿Antes no tenías nada adaptado tres años atrás? No, desde los 38 años yo veía bien. Entonces a partir de ahí, a raíz de una neuropatía, tengo los problemas de visión y pues adaptando todo. Tienes un blog magnífico y un blog valiente donde hablas de tu proceso y puede servir y ser de mucha utilidad a las personas que por alguna u otra razón pues tienen algún tipo de pérdida en este caso visual, como fue tu caso. Con lo cual lo pondremos también en el enlace, en las notas del episodio por si alguien quiere visitarlo. Has dicho que eres informático. ¿En qué trabajabas o trabajas? Estaba en la parte de dirección de una consultoría informática de tecnología en Madrid. Aquí tenéis a los usuarios de iPhone con VoiceOver que no tienen ni idea de los lectores de pantalla para Android y queremos que nos contéis vuestras impresiones y nos habléis de ellos. Bueno, yo en mi caso particular, la experiencia que yo tengo cuando comencé, yo en mi trabajo he podido disponer de cualquier terminal. Al final trabajaba con ello y disponía de ese contacto con los proveedores para poder tener casi cualquier terminal. De hecho, he tenido iPhone también y me acuerdo del iPhone 6s, puede ser, pero nunca me gustó mucho el sistema operativo. No me hacía él y estaba más acostumbrado al tema de Android. Entonces, cuando empecé con los problemas visuales y al estar afiliado en la ONCE, pues bueno, me comentaron que sí que en España casi todo el mundo tenía iPhone y era el sistema como más adaptado, accesible. Y yo sí que quise probar la capacidad que tenía Android con su método de Tollback, su accesibilidad y sí que es cierto que al principio comencé, me parecía un poco lento y buscando por Internet con algún canal, como puede ser el de Blind Android de Yoel, y sí que vi que había otras opciones, como puede ser el lector, en este caso JISO, y es el que yo tengo actualmente y luego hablaremos un poco de él, imagino, también. ¿Y tú Héctor, tu itinerario con Android? Pues mi itinerario, me acuerdo además, fue en el 2011. Acababa prácticamente de salir la versión 2.9 y me fui para la ONCE también y dije, yo quiero eso, Android, y me dijeron que no, que Android no era accesible y en efecto no era accesible. Antes, cuando estabais hablando, me he acordado de que en aquella época, sí o sí, en las primeras versiones necesitábamos tener un teléfono con teclado y sigo guardando mi Sony Ericsson con mucho cariño. Y ese fue mi comienzo y he visto toda la evolución desde aquel entonces, que era bastante mala la accesibilidad, con tal back de aquella época, y hasta hoy, que bueno, conozco otras plataformas y creo que ha pegado un acelerón bastante grande y a día de hoy yo creo que Android, si se puede decir que es una plataforma totalmente accesible con los lectores de pantalla y en este caso mío, con la suite de accesibilidad que se llama ahora. El Tollbox se llamó ahora suite de accesibilidad, ¿cierto? Porque antes tenía Google, pues todo ahí, un poquito el teclado Braille por una parte, cosas de sonido por otra, tal cual, y bueno, se ve que ahora, bueno, lo he intentado aglutinar en una única aplicación y bueno, ahí está de momento todo bien. Sí, porque el Android ha ido mejorando progresivamente con el tiempo, ¿no? Empezó muy flojido y poco a poco ha ido mejorando y ahora sí que ya es algo decente. Es que al principio, ya digo, si no tenías un teclado que te asistiera, era imposible manejar un Android. Yo recuerdo que me puse además a buscar información, no había nada de accesibilidad, ni oficial ni no oficial, no había grupos, no había nada de apoyo, o sea, era horroroso y yo no sé cómo continué y bueno, gracias a que encontré en la otra parte del charco a una persona y ahí nos pusimos a investigar un poquito y bueno, seguimos, pero los principios fueron muy duros, no fueron tan fáciles como en otros sistemas. ¿Esta accesibilidad en Android viene integrada de serie? ¿Hasta qué punto? ¿Viene o no viene? ¿Se puede venir o puede no venir? ¿Cómo es esto? Sí, viene bien integrada. Yo en la poca experiencia que tengo de estos años, sí que es cierto que hay algunos terminales, como puede ser Samsung, que tiene su propio lector dentro de TalkBack, es decir, existe TalkBack dentro de Samsung, que tú lo puedes habilitar, pero es una versión diferente, es un poquito adaptada. Se puede, haciendo un pequeño proceso, quitar y poner la de Google directamente, que es una versión más nueva, creo que si no recuerdo mal, por la 15 o una cosa así, y te viene también embebida en el sistema operativo también. TalkBack es el lector de pantalla que viene por defecto, por así decirlo, con Android, lo que pasa que es cierto que hay sabores personalizados, Samsung o Xiaomi o quien quiera. Es una pequeña capa de personalización, se podría decir. Claro, pero a la hora de instalar Android en sus dispositivos, pueden incluso llegar a quitar el tema de toda la parte de accesibilidad, si quieren, o pueden incluso mejorarla, como hace Samsung. Eso es. Comentan que los Pixel, que serían los teléfonos de Google, que es el mismo impulsor de Android, debido a que tienen menos capas de personalización, de marca, o por lo menos las que tienen están más acorde a su lector, suele funcionar mejor y la respuesta es más buena. ¿Eso lo habéis podido comprobar vosotros con algún Pixel o no? Yo, por ejemplo, ahora mismo estoy usando una ROM personalizada, que es LineageOS, que viene directamente del código fuente de Android, de AOSP, y es lo más puro que uno se puede encontrar, incluso más puro que lo que es el sistema que te vienen los Pixel, y funciona muchísimo mejor. Yo tengo otros teléfonos, tengo Samsung, tengo Motorola, y el problema está en Android, en la adaptación a las distintas capas de personalización que meten las empresas. Ahí es donde empiezan los problemas. Perdona, ¿qué es una ROM? Viene a ser el sistema operativo. Vale. Aquí es importante hablar de la famosa palabra fragmentación, que cada cacharro puede ser de su padre y su madre, y cada marca, cada modelo puede personalizar ese sistema operativo que instala en ese terminal móvil. Y luego, además, tú puedes quitarle ese Android y además instalarle otro distinto con otras características. ¿Esto para bien o para mal? Sí, yo hace tiempo hablaba con un amigo, teníamos ahí un pequeño debate que a día de hoy los terminales móviles son tan sumamente potentes que donde está la diferenciación de cada uno de ellos es más en este sistema operativo y su propio ecosistema. Es decir, los Pixel, por ejemplo, tienen un sistema operativo muy pulido que en cuanto a cámaras hacen unas fotografías increíbles e incluso el sistema va muy fluido y muy rápido. Lo mismo pasa con Samsung, pero a lo mejor hay algún terminal de otra marca china, por ejemplo, que tiene unos componentes de hardware que pueden incluso ser más potentes que estos Pixel, pero ese sistema operativo que está tan bien depurado hace que funcione tan bien. Y eso en accesibilidad luego se nota. Por una parte, la libertad de poder cambiar, personalizar y hacer muchas cosas de cara a tener una coherencia en cuanto a la accesibilidad con el lector de pantalla es un incordio, porque no se comporta igual tanto en una marca como en otra, por lo que estáis diciendo. Y lo que es curioso es que aún teniendo mejores componentes, es decir, es así. Sí, sí, eso sí. ¿Qué solución para esto existe? Ninguna. Ninguna, ¿no? Vale. No, porque las empresas van a seguir haciendo lo que a ellos les conviene. Y sí, bueno, nos venden que van de la mano de la accesibilidad, tal y cual, pero al final lo que importa son las cuentas y bueno, al final, guste o no guste, somos un nicho para sus cuentas no muy importante. O esa es mi percepción. Va pregunta de ignorante, ¿eh? ¿Vale? De ignorante a sabios. Entonces, esto que has dicho antes de la ROM, es decir, yo si tuviera una ROM para un terminal en concreto, ¿podría cargármela lo que es el sistema operativo personalizado con lo que hemos dicho, no? Con la personalización de marca y poner algo más limpio en un terminal? Sí, sí, sí, sí. ¿Eso se puede hacer? Sí, sí. O sea, si hay ROM, o sea, si hay el sistema operativo especial para ese modelo, sí, sí se puede hacer. O sea, de hecho, a ver, el código de Android está publicado y todo el que tenga conocimientos se puede hacer su propia ROM. Luego hay grupos que se ocupan de ello y facilitan las ROMs ya hechas para muchos modelos. Bueno, yo ya he nombrado LineageOS, que es uno de los grupos más veteranos. Y creo que tienen ahora mismo como para cien y pico terminales. Y bueno, lo bueno es que, además, Android es Linux al final. Entonces, con un teléfono básico puede llegar a ir muy bien. Lo que pasa que también ahora nos hemos vuelto locos con los megas, los píxeles, los megahercios. ¿Y eso de la rosa es legal? Sí, sí. O sea, mientras tú puedas desbloquear lo que es la BIOS, por decirlo de alguna manera, del terminal, sí, sí lo es. O sea, las compañías suelen permitirlo. Hay algunas que no lo permiten. Entonces, bueno, ahí ya podríamos entrar en... Y tú en este caso tienes conocimientos como para operar de forma individual. No necesitas a nadie, te has informado, te has documentado y tal. Pero, por ejemplo, alguien que está escuchándonos dice, bueno, yo no tengo estos conocimientos. Pero lo que está diciendo Héctor puede hacer que mejore mi propio terminal. ¿Dónde podría recurrir esa persona? En foros especializados. No es un proceso para todo el mundo. Porque conlleva de que si se hace mal también te puedes quedar sin teléfono. ¿Y existe algún tipo de negocio, de servicio que se preste a terceros? Que yo sepa, no. Seguramente haya alguna persona en cada ciudad que a lo mejor sí lo hace. Pero, bueno, tienes que dar con ello. Yo que sepa, no. Es algo que se suele hacer a nivel personal y, bueno, ya digo, mirando mucha información. ¿Entonces la sensibilidad que trae Android S? Hemos dicho que es TALBAC. ¿Qué características tiene TALBAC? ¿Qué es lo bueno, qué es lo malo? ¿Qué peculiaridades tiene? En una ROM personalizada. En la estándar y luego en una personalizada. Un poco las dos. O sea, en una personalizada lo mismo que en una normal. Las características. Como lector de pantalla te permite explorar todo lo que es el sistema. Luego trae, al instalarse, te agrega algunas opciones para audio, para sonido. O sea, no solo es lector de pantalla. Como hemos dicho antes, la suite ya engloba más apartados. Ya incluye el teclado braille. Entonces, bueno, ya cada vez es más completa. Sí, tiene partes de visión, audio, temas de contrastes, brillo. Todo esto imagino que como en todos los lectores, ¿no? Y aparte te deja hacer diferentes opciones con diferentes menú. Hacer los flips a la derecha, flips a la izquierda, doble clic y demás. Además te permite también utilizar de manera gratuita el sistema que tiene de voz de Google. Directamente con diferentes voces. Ya no tienes que descargar. Imagino antiguamente había que hacer, ¿no? Con Vocalizer, Eloquence, no sé cuál. Pero existen diferentes que puedes poner. Incluso Acapella también. Pero el de Google, por lo menos que es el que yo tengo, funciona bastante bien. Es bastante natural. Hemos visto que en las últimas versiones de TalkBack hasta anunciaban también cierta sincronización con Gemini, que es su inteligencia artificial, ¿no? Para el reconocimiento de imágenes y demás. ¿Os ha dado tiempo a probarlo? Sí. Sí, sí, sí. Es una pasada. Sí, a ver, en la última versión. Ahora no me acuerdo cuál tengo, pero es una de las últimas. Ya viene. Y bueno, es muy fácil. O sea, en el mismo menú. O sea, con tres dedos en la pantalla. Directamente te salta el menú de TalkBack. Y bueno, ahí te viene el describir imagen. Y te permite nadar lo que tienes en pantalla, describirla. Y bueno, te da una pequeña descripción. Te deja seleccionar el texto de esa descripción. Y bueno, tienen previsto cada vez que se integre más con la inteligencia artificial de Google. Entonces yo creo que van a venir cosas bastante interesantes también para TalkBack en ese aspecto. Pero vamos que ya es un adelanto el, por ejemplo, es una tontería, pero muchas veces pasamos el dedito por los iconos y realmente no sabemos lo que es ese icono. Y el poder describir un icono, ya digo que parece una tontería, pero que es algo que pasamos el dedo muchas veces. Pues oyes, ya tienes un contexto más de lo que es el sistema operativo que estás usando todos los días. Al igual que con fotos, cuando están navegando por una red social, en un momento dado puedes decirle, bueno, la descripción de la red social no me gusta, dámela tú, ¿vale? Y puedes conseguir un poquito más de contexto. ¿Y la descripción de la pantalla? ¿Eso llega también a realizarlo? ¿O eso tienes que ir elemento a elemento? No, sí, sí, sí, también. O sea, si tienes el foco en una parte general, te lee lo que tiene realmente el foco. Si lo tienes al principio de una ventana, te lee el contexto de la ventana. De momento siguen siendo, o sea, descripciones bastante breves y concisas. Yo supongo que esto al final irán aumentando. Conforme lo tengan más pulido irán dando más contexto. Junto con otras herramientas que seguro que sacan. ¿Y te permite interactuar con las aplicaciones a través de la IA? ¿O solamente te lo describe y ya está? No, te lo describe, te lo describe. Eso yo supongo que también en algún momento debería llegar. Claro, si te dice que es un botón, que te deje interactuar con ese botón. Sí, sí, yo supongo que eso, visto además por dónde van los tiros con la inteligencia artificial, por ejemplo, de Gemini en otros sistemas operativos. De hecho, Google tiene el proyecto Mariner, que es igual que el operator de OpenAI. Y bueno, es para interactuar con esto, con el escritorio, con la pantalla del móvil o del ordenador. Es así. Con lo cual estamos a la vuelta de la esquina para que lo implementen. Pero ya no como algo del lector, ya no como algo del lector, sino del propio sistema. Yo en mi caso tengo el ecosistema de Samsung, un S24+. Y lo que utilizo es la inteligencia artificial directa de Samsung. Entonces también es otra parte que nos podemos beneficiar. Es decir, los que tenemos Samsung podemos utilizar su IA, que ya está disponible, tanto como para la descripción de textos, notas, esa transcripción de audio a texto. También tenemos la opción de las llamadas. Lo típico que aparece en muchos vídeos o información de poder hacer una traducción simultánea a otro idioma. Bueno, al final son cosas que van saliendo. ¿En tiempo real? Sí, en tiempo real. Es decir, a ti te llama un japonés hablando en japonés y tú lo entiendes en castellano perfectamente. Sí. Muestra una información, tanto a él como a mí, de que se va a hacer ese cambio de idioma y ya está. A ver, japonés es un poco complicado, pero sí que hay algún otro idioma que funciona mejor. Yo lo he probado con francés y alguna cosa se traga, ¿no? Pero bueno, si te puedes sacar de un apuro, ¿no? Argentino, chileno, colombiano, perfecto. Bueno, está muy interesante, sí que es verdad. Esto es, bueno, aparte del lector, ¿no? Es toda la inteligencia artificial que lleva el sistema operativo de Samsung. Eso es. El de Samsung lo hace solo en dispositivos Samsung, ¿no? ¿El de Android lo hace en todos los dispositivos Android o solamente en Pixel y similares? A ver, los Pixel, al llegarle antes distintas funciones de lo que es la inteligencia artificial, entonces el lector se aprovecha antes de todas esas mejoras. Pero, por ejemplo, lo de la llamada, Google lo tiene, pero claro, esa inteligencia artificial de los Pixel en algún momento llegarán a los otros, porque claro, los Pixel te lo venden también por eso. Cosas exclusivas. Claro. Siempre al final, el valor añadido que te puede dar el comprarte un terminal de esos, tipo estoy hablando el ecosistema Samsung o Pixel o demás, es que te pueden dar esas funciones que ellos tienen integrados. Es decir, sí que van a sacar ciertas cosas para otros terminales. Hablo de Xiaomi, Poco, cualquiera, ¿no? Pero sí que es cierto que tienen que tener ese valor añadido para diferenciarse del resto. Es decir, la inteligencia artificial de Samsung va a estar siempre en Samsung y los Pixel van a tener otras opciones que van a ser solamente de ellos. En este caso, lo que comentaba Héctor. Justamente hablamos de dos marcas que últimamente, en los últimos tiempos, en cuanto a accesibilidad están trabajando bastante de la mano. Pixel y Samsung, ¿verdad? Google está muy encima. De hecho, las gafas que van a sacar nuevas, creo que era una colaboración de Google y de Samsung. Sí. En principio, sí. El proyecto Astra, que es el que van a llevar a cabo, lo va a asumir Samsung y está Google detrás, claro. Entonces veremos a ver en qué acaba. Sí, de hecho, bueno, el que tal va que esté integrado en el sistema, es gracias a la colaboración desastrosa de Google con Samsung. Tengo mi opinión sobre el Talbac de Samsung. Y ahí está. De hecho, se llama Talbac. Antes se llamaba Voivista, ¿era? Sí, creo que era Voivista. Voivista, sí, creo que era. Sí. Entonces, bueno, ahí está el Talbac. Pero, a ver, ya que lo has dicho, acláralo. ¿Por qué piensas que es desastrosa esa colaboración? Primera, porque capa la posibilidad de que el usuario pueda decir, pues quiero instalar la suite de accesibilidad de Google, porque va más avanzada, tiene otras características. Y entonces te lo capa, porque el paquete se llama de la misma manera lo que es la aplicación, ¿vale? Van con firmas, las aplicaciones en Android, y se llama de la misma manera y no te deja, no te deja instalar. Era lo que hablábamos antes de que hay que hacer varias cositas para poder quitar el Talbac de Samsung y poder instalar la suite de accesibilidad de Google. Entonces, bueno, ya eso es un principio que por lo menos a mí no me gusta o eso de que no te deja ver lo que es el Talbac más avanzado. Y, a ver, en la experiencia que tengo con el tema de Samsung, me aventuro un poco, pero creo que trabajan un poco por lotes. Es decir, ahora está muy de moda el tema de la inteligencia artificial y como que están muy centrados en eso, en sacar nuevos terminales, y la accesibilidad la dejan un poco apartada. Porque sí que he visto, y en la comunidad dentro del lector que yo tengo, que se comenta eso, que como que Talbac se ha quedado un poco rezagado, pero Google ha seguido avanzando. Por eso esas diferencias entre los dos, ¿no? El lector de Talbac que hay en Samsung instalado y el que existe en Google, que con ese proceso que decía se puede cambiar, pero de repente hay un día que te avanzan ese Talbac de Samsung, ¿no? Y te pegan una actualización con One UI 6.1 o algo así, que es el sistema operativo de Samsung, y hacen una serie de mejoras. Pero te las van sacando como de poco en poco y no llegan nunca a estar al mismo nivel en accesibilidad uno y otro, que sería lo más lógico, ¿no? Tener esa actualización de accesibilidad de Google en Samsung a la vez. Entonces es como que van un poquito rezagados y lo van sacando por lotes, por así decirlo. Entonces, pues bueno, creo que de cara a futuro, cuando baje un poco el boom de esta inteligencia artificial, que imagino que baje un poquito, sí que puedan acelerar los procesos de tanto accesibilidad como del resto de aplicaciones. Claro, es un poco lo que comentábamos, ¿no? Que esta fragmentación o esta posibilidad, para bien o para mal, de que cada uno pueda personalizarlo, pues puede dar lugar, como ha dado, que alguien como Samsung, pues hace su propio desarrollo, coge el Talbac, en este caso, en un momento dado, y lo bifurca, y a partir de ese momento, pues hace sus propias funciones, sus propias características, sus propias peculiaridades. Luego, por otro lado, Talbac puede ir avanzando en su desarrollo y al final tienes dos muy parecidos, porque empezaron en un punto común, pero se han ramificado y cada uno puede tener sus cosas buenas o sus cosas malas, ¿no? Para bien o para mal. Sí, y luego, aparte de esto, también existe lo que comentaba, un valor añadido en el tema de... Yo hablo de Samsung, que es lo que conozco, porque están sacando un ecosistema bastante potente en cuanto a dispositivos de uso doméstico. Existen lavavajillas, existen frigoríficos, existen televisores. Emiliano comentaba hace poquito que le escuchaba hablando de unos altavoces también inalámbricos con una barra de sonido, ¿no? Entonces, todo esto se integra y sí que es cierto, yo me he dado cuenta, yo tengo, de hecho, varios dispositivos en casa, sí, que la accesibilidad para esto y para su manejo es muy amplia, es decir, está casi todo etiquetado, se puede utilizar más o menos bien, incluso la televisión que tengo la puedo apagar y encender desde el propio móvil, pero que se podrá bajar esta aplicación, ¿no? Imagino en otros sistemas operativos, pero me ha llamado la atención que el ecosistema de Samsung está mejorando mucho y se está ampliando mucho. Hay una implicación y un compromiso de la propia Samsung, de hecho los hemos visto en algunas ferias de tifo de tecnología con Stan montado, y luego cuando han participado en ferias genéricas como puede ser el CES Las Vegas y demás, siempre han hecho algún tipo de noticia destacando todos los avances que han hecho en la accesibilidad, que está muy bien. Supongo que será el ecosistema SmartSync se llama, ¿no? Sí, ese es. Y como acabas de comentar hace poco, que esto da la posibilidad de poder instalar otros lectores de pantalla, ¿no? Tú sueles utilizar otro habitualmente. Sí, yo tengo actualmente, yo de hecho utilizo el lector Jesua, el lector chino, y bueno, yo no utilizo Tolva, Tolva lo utilizo como el lector de pantalla de respaldo cuando falla alguna vez o necesito reiniciar el terminal y activar cualquier cosa, pues a lo mejor tengo que usarlo, pero es que apenas lo he utilizado, en realidad. Pues cuéntanos qué características tiene, por qué es mejor, por qué es peor. Bueno, a ver, esto bajo mi opinión Jesua salió en 2019, hizo un cambio bastante grande en las últimas versiones, y es un lector que es extremadamente rápido. Yo me he dado cuenta que es muy, muy rápido, muy personalizable, la curva de aprendizaje sí que es cierto que es moderada, no es simplemente como puede ser Tolva, de habilitarlo y ya está, y empiezas a funcionar, o como en VoiceOver, pero una vez que lo tienes instalado, la cantidad de configuraciones que te permite hacer es muy, muy extensa. Tiene una peculiaridad que es que dentro del propio lector existe la posibilidad de programar. Entonces puedes programar tus complementos, utiliza un lenguaje de programación basado en Roblox que se llama LuaScript y permite hacer desde juegos hasta complementos que permiten hacer atajos, editores de texto, existen varias personas, hay un chico en México que se llama Sergio que ha realizado incluso una suite para poder editar audio, a nivel de poder editar, quitar tiempos de silencio, poner diferentes efectos de sonido, es muy, muy abierto, es muy potente, muy completo, pero es chino. Eso es otra cosa que se tiene también mucho miedo, también con el tema de la censura y todo esto. Es algo que se puede debatir también. ¿Tú piensas lo mismo Héctor? A mí me da igual si es chino o francés o... es la transparencia, es lo que a mí me ha echado para atrás. Yo lo he utilizado en un entorno controlado y en una red cerrada y he visto cosas que no me gustan, en teléfonos roteados, lo del roteo es como volver que tu usuario seas super usuario, que tengas acceso a todo lo que es el sistema operativo, cosa que un teléfono normal no lo tiene. He visto permisos que por lo menos a mí no me han gustado y me han llamado bastante la atención para que eran necesarios. Y eso es lo que me echa para atrás. Ya digo, no la procedencia, sino la poca transparencia. Vale, ves que faltan garantías y no tiene la suficiente seguridad o por lo menos la que tú exiges. Ahora, últimamente sí que hay compañeros, normalmente de Latinoamérica, que llevan mucho tiempo utilizando este lector de pantalla y sí que manifiestan que ellos comparten sus cuentas bancarias, conservan su capital, nunca han visto ningún tipo de eso, conservan su virginidad, no les ha pasado absolutamente nada y de hecho, últimamente hemos visto en algunos grupos especializados a gente bueno, defenderlo y decir que probablemente esa desconfianza no está fundada del todo. No sé cómo lo verás. Es que, si me permitís, el problema no es es que no está en eso, está en el intermediario. Yo, seguramente el señor Lee sea un genio, porque para hacer lo que ha hecho, simplemente para mí es una genialidad. O sea, el producto es muy bueno. El problema está en todo lo que hay intermediario desde China hasta tu terminal. Yo estoy en distintos grupos, yo veo cómo se pasan gisos pirateados y eso conlleva un peligro terrorífico. Y sí, es verdad, no ha pasado nada, pero a uno se le inventa el ordenador y no pasa hasta que se despierta el bicho. Entonces, a mí me da esa desconfianza. Es todo lo que hay intermediario. Yo ya digo, yo no tengo nada contra el señor Lee y para mí es un genio. Correcto. ¿Y tú lo ves igual, David? Bueno, yo sí que sé que Jesúa hace tiempo estuvo en la Play Store y fue mucho controversia con este tema. La sacaron y se comentó que fue porque se permite programar dentro del propio lector, entonces se podía hacer un mal uso de esos complementos, porque esos complementos se pueden mandar y ejecutar de manera cifrada, donde no ves el código o de manera que sí que ves el código. Entonces, gisos tiene una parte gratuita, donde utilizas el lector y tienes ciertas capacidades y luego existe una versión de pago que se paga al tal Lee, que debe de ser del grupo QQ en China. Sí que es cierto lo que comenta Héctor. Hay que hacer como una apuesta, es decir, confiar en él y confiar en este lector. Yo puedo decir bajo mi experiencia que no he tenido ningún problema, pero yo no utilizo tampoco contraseñas dentro del propio lector. Utilizo sistemas biométricos en caso de tener que utilizarlo e intento tener doble factor en todo y demás. Siempre te queda un poco la duda, pero sí que es cierto que la velocidad o las capacidades o el uso que le doy al lector, puedo decir que estoy a años luz de cuando yo he utilizado Tallback. He visto un cambio brutal. Y lo que comentábamos de Latinoamérica, sí que es cierto que allí se utilizan terminales más bien de gama baja, Samsung A14 sobre todo. Entonces, la disposición de terminales más de gama alta, en este caso como iPhone, para poder utilizar VoiceOver, no es tan fácil. Una persona de Venezuela, Colombia, no tienen esa capacidad. A lo mejor unos sí, otros no, pero la inmensa mayoría utilizan lectores de pantalla, o Jesua o Tallback. Y es lo que me comentaban a mí. Por eso existe el JESUA Oficial de Latinoamérica o hay países emergentes que utilizan este lector como principal. ¿Por qué los terminales de gama baja? Porque en esos terminales de gama baja, que lógicamente tienen menos recursos, va más fluido, supongo lo que es Jesua que Tallback. Mucho más fluido. Mucho más. Y a mí me llamaba la atención, porque no lo entendía. Un sistema embebido como puede ser Tallback debería ir rápido y ellos comentan. Es que es extraño. No lo entiendo muy bien, pero sí que lo comentan. Y además lo he preguntado varias veces porque me chocaba mucho. Me comentaban que cambiaba totalmente. Héctor, ¿tú también has escuchado eso? Que la gente una de las cuestiones, comparando a ambos lectores, es la fluidez de uno sobre otro en terminales de gama media-baja. Sí. Por eso ha tenido el boom que ha tenido por aquellos lares, por Latinoamérica, por ejemplo. ¿Tú dónde te animas? Yo lo tengo instalado. Pero no lo uso. Lo tengo instalado para seguir su desarrollo. Ya digo, yo es que contra el lector no tengo nada. El problema es todo lo intermediario y todo lo que conlleva. Hago un paréntesis. Cuando uno instala un lector de pantalla, realmente está dándole acceso absolutamente a toda nuestra información en cuanto a lo que está leyendo. Entonces, ya digo, maliciosamente puede ser un peligro. Pero no por el señor Lee. O sea, por todo lo que hay entre medio. Pero ya digo, yo lo poco que lo he usado, lo tengo instalado, sí va más rápido. O se maneja de otra manera. Porque son sensaciones al final. Yo tengo iPhone y cuando cambio a Android me parece mucho más duro aunque me ponga el gisio. No sé. Son las vibraciones del teléfono, las sensaciones con el teléfono. Este punto es importante lo que has comentado. Un lector de pantalla, para poder utilizarlo, necesita un control casi absoluto del terminal. Lo típico es cuando nos instalamos una aplicación de linterna y nos pide datos para acceder a nuestra agenda de contactos, pues es un poco extraño. Y muchas veces cuando nos piden permiso para acceder a los contactos, para mandar notificaciones, muchas veces decimos que sí a todo sin leerlo. Y alguna vez ha pasado que alguna aplicación, incluso la Play Store, no sé qué tal, y que te pide permiso para las funciones de accesibilidad y alguno le ha dicho que sí. Y con eso puedes saber todo lo que tecleamos, todas las páginas que visitamos, todas nuestras contraseñas, puede llegar a conocer toda nuestra información de nosotros. Y se puede dar mal uso a este tipo de privilegios de poder acceder a toda la información del móvil en este caso. Si me permites, es que David ha dado la clave. Al final es un poco el conocimiento y sentido común. David, por ejemplo, ha dicho no solo poner contraseñas, solo usar parámetros biométricos. Entonces, es luego también un poquito de sentido común de cada uno. Yo siempre pongo el mismo ejemplo. Yo no voy por la calle gritando mi PIN de mi tarjeta. Entonces, bueno, es eso. También si una cosa se usa con sentido común, pues evitas también muchos problemas. Al final, es que tienes que poner también en una balanza. Yo creo que la enseñanza que te puede dar este sistema a nivel de... Es lo que comentábamos antes, con lector. Te tiene que gustar cacharrear también, porque no es sencillo. Eso es un sistema o un lector que es complicado. Ya he dicho que la curva de aprendizaje es grande, pero una vez que la tienes, yo sí que he visto cosas que dices qué capacidad de hacer. Por ejemplo, tenemos gestos por aplicación. Es decir, gestos que en el Google Chrome me van a funcionar de una manera y si entro en no sé qué otra aplicación, puedo decir... Chat, GPT, Whatsapp, van a ser otra cosa. De hecho, yo, por ejemplo, que he programado dentro del lector, tengo asignado un gesto dentro de Whatsapp que si doy triple clic con tres dedos, me borra el chat. Pero si ese triple clic con tres dedos en Google Chrome me abre otra ventana y me abre el periódico. Por decir, un ejemplo. Es mucha la información que tiene, se actualiza muchísimo, pero, claro, la curva de aprendizaje es grande. Mucha gente me dice, incluso tú, Ricardo, cuando lo vimos, que estuvimos hablándolo y lo pusiste así como de prueba. Es que, claro, solamente la instalación ya te lleva un rato y querer meterte y querer cacharrear. Como Héctor con la ROM. No todo el mundo que se compra un teléfono va a decir, cambio la ROM. No. Tienes que tener esas ganas y ese interés por cambiarla. Yo también he cambiado muchísima ROM y muchas veces, cuando la cambiaba y la tenía ya instalada, digo, ¿Pero quién me manda a mí meterme ahora a cambiar aquí la ROM? Pues es eso. Es así. Es un poco así. David, ¿existen recursos formativos en español para utilizar este lector de pantalla y eso? En español, no. Sí que existen recursos de grupos de WhatsApp donde hay información y dentro del propio lector existe información tanto para la parte de usuario para la instalación como para la parte de programación, en caso de que quieras programar y comenzar con ello. Pero no existe como tal en español. Existe en inglés y en un perfecto chino mandarín. En Telegram sí hay grupos. Sí, sí. En Telegram y en WhatsApp hay varios. De hecho, el propio lector Gisot tiene en su parte de ayuda diversos grupos de WhatsApp autorizados por el propio grupo QQ, ¿no? Que directamente habilita una serie de personas de los grupos para que sean como moderadores y poder tener esos grupos. ¿Grupo QQ? Sí, eso es como se llama. Grupo QQ. Lee debe de estar en de haber fundado esa empresa. El lector este es un poco yo tengo oído que es como una navaja suiza, ¿no? Que además tiene muchas funciones adicionales, no propias de un lector de pantallas, sino funciones adicionales interesantes. Sí, tiene un montón de menús. Tiene editores de textos dentro. Te permite, bueno, imagino que como vosotros, ¿no? Movernos por palabras, por demás y todo esto, pero te permite entrar en ediciones de texto. No como un editor de texto que le tiene incluido, sino en ediciones de texto que es moverte por palabras, pero moverte a la primera palabra, borrar la primera palabra, es decir, haciendo diferentes movimientos y diferentes gestos. Es muy muy amplio que algún día si queréis, pues bueno, se puede hacer algún tipo de demostración o lo que sea, pero yo invito a la gente a lo que hace Ed, pero en realidad no tienes por qué cambiar tu voiceover. Lo puedes tener como principal y si tienes ganas de cacharrear en un entorno controlado, puedes instalarlo, lo puedes probar, puedes estar unos días con ello y ya está. Al final lo pruebas y ves cómo es. Cuando dices desinstalar tu voiceover es tollback, ¿no? Tollback, bueno, no necesitas desinstalarlo. Yo lo tengo, si te refieres a desinstalar tollback puedes tener los dos. No a la vez, pero claro, está por encima de JSO, encima de tollback. En mi caso si fallase el JSO, directamente podría poner tollback de nuevo. Vamos, lo tiene en el sistema operativo puesto. ¿Porque tú cómo invocas o cómo llamas a cada uno? Yo tollback lo tengo puesto con la tecla de volumen más y volumen menos. Le expulso a la vez y se activa. Y el lector JSO en este caso arranca por defecto o si no quiero que arranque por defecto lo puedo poner con icono, con normal. Una diferencia es que cuando sacas el teléfono de la caja también, ¿no? Pues el tollback me imagino que sí que podrás arrancarlo, ¿no? Creo que sí. No estoy ahora seguro de eso. Sí, no. Eso depende también de lo que hablábamos antes, la personalización de Android y depende mucho de el fabricante, el modelo, ¿vale? Porque yo me he encontrado teléfonos que no lo pude desarrancar trayendo el tollback y trayendo las voces de Google por defecto. Esto ya leí yo en un grupo que aún funcionaba lo de poner los dos dedos y aún se cargaba el tollback en algunos terminales. Bueno, yo os puedo decir que se arrancaba haciendo un cuadrado y no había Dios que arrancara el tollback. Es verdad. El otro sí que como es una aplicación pues hay que instalarla, hay que terminar de iniciar el sistema y poder instalar esa aplicación. Eso es. Y todo el mundo que quiera probarlo, sí que es ampliamente recomendable que se descargue claro, la oficial, ¿no? Lo que decía esto, sí que existen craqueadas por ahí, ¿no? Que no pagan licencia, pero eso sí que puede ser, pues al igual que utilizar los complementos que estén cifrados. Yo no ejecuto ningún tipo de complemento que esté cifrado sin que pueda leer el código. Al final necesitas saber qué estás ejecutando en tu teléfono. Muy bien, creo que no hemos hablado del precio, ¿no? ¿Cuánto vale la versión Pro? Son 18 euros al año y luego, bueno, pues tiene la típica promoción de si son 2 o 3 años, ¿no? Pero al año son 18. ¿Y se puede usar de forma gratuita con limitaciones o algo? Sí, tiene una serie de limitaciones, por ejemplo, los gestos por aplicación, creo recordar que no funcionan, pero funciona te diría un 75%, una cosa así, que se te quedan ciertas cosas, ¿no? Pero el resto también, pues también tiene el tema de temas de sonido, relojes diferentes, cronómetros, todo esto, ¿no? Entonces, esas cosas que en la versión Pro sí que lo puedes utilizar y en la otra no, igual que la síntesis de voz, tiene dos síntesis de voz, puedes utilizar la principal o la secundaria, pues en la versión de pago tienes las dos y en la versión gratuita solo tienes una. ¿A ti de este lector de pantalla qué es lo que más te gusta, David? La personalización, las capacidades que tiene y la velocidad. La velocidad me parece impresionante, la capacidad que tiene de poder hacer ciertas cosas que no he logrado hacer con TalkBack ni con otro que no lo sé, con VoiceOver si se puede hacer, porque no he indagado mucho, a ver si me hago con un iPhone dentro de poquito y empiezo a probar, pero el tener estos tipos de atajos, el poder hacer gestos diseñados y programados para ciertas cosas, el tener complementos programados, poder hacer, yo que sé, que con cuatro dedos me abra ChatGPT y me invoque un GPT personalizado, esas cosas, esa velocidad que puedo ganar en mi día a día, en procesos que utilizo continuamente, creo que me decanta por seguir con él de momento. Y Héctor, en tu caso, en un Android limpio, tipo Pixel o con una ROM sin mucha personalización de marca ni nada de esto, ¿con la última versión que hayas probado qué es lo que te aporta TalkBack? A mí estabilidad, yo he visto en los principios y a día de hoy la estabilidad, no noto que se cuelgue, no noto que se reinicie, cosa que antes sí pasaba, en aplicaciones muy pesadas, hablando Chrome, por ejemplo, que es de la misma Google, y va muy mal, en la última versión por lo menos a mí me va muy bien, entonces bueno, sobre todo estabilidad y confianza en que voy a recibir actualizaciones sin preocupación, he hecho a mitad de noche, a veces yo tengo las actualizaciones automáticas, lo oigo como se reinicia y digo, me ha llegado una actualización, entonces bueno, eso es lo que me aporta a mí. Muy bien, pues os voy a preguntar a los dos en cuanto a las aplicaciones que utilizáis, básicamente lo que serían redes sociales, gestor de correos o navegadores, que utilizáis con cada uno, uno con Tolva y otro con Gisoa. Yo utilizo de navegador, utilizo Google Chrome, porque al final lo tengo sincronizado con el ordenador, para gestor de correo utilizo la suite Gmail, que va muy bien, y luego, no sé, alguna otra aplicación que utilizo en mi día a día, utilizo Google Keep, aunque estoy empezando a utilizar más Samsung Notes, por el tema de la inteligencia artificial de Samsung, que te puede transcribir esas entradas de audio a texto, por ejemplo. Utilizo también el tema de Lookup, que es de Google, y luego, tipo ChatGPT de OpenIA y demás, pues bueno, como imagino que todo el mundo. Luego sí que utilizo lo que hablábamos, de SmartThings, para la gestión de diferentes... Domótica, ¿no? Todos los tipos que pueda tener por casa de domótica, eso es. ¿Y redes sociales? ¿Utilizas alguna? Si no, sin discreción, vamos. ¿Redes sociales? No, no utilizo ninguna. Utilizaba X, Twitter, antigua, pero... WhatsApp sí, ¿no? WhatsApp sí, y lo que digo, tengo diferentes gestos dentro del propio WhatsApp, para poder hacer diferentes atajos. ¿Y tú, Héctor? A ver, yo uso más o menos las que David, y bueno, en redes sociales uso Trusky, para Mastodon. Y bueno, uso PlusMessenger, en vez de la de Telegram oficial, pues uso PlusMessenger, que es un mod de Telegram. Y bueno, más o menos son las que uso. No es mi teléfono principal, pero vamos, los momentos que cacharreo con él, son las que uso. Bueno, pues ya que estamos hablando de Android y lectores de pantalla, vamos a hablar de una aplicación que habéis nombrado, y que, nada, aunque ahora ya sé que Sane AI de Microsoft se puede instalar en Android, y Be My Eyes también se puede instalar en Android, pero habéis hablado de Lookout, ¿no? Bueno, ¿qué tal va esta aplicación? ¿Qué es lo que hace? ¿Y qué tal se comporta con el lector? Pues va muy bien, pero sí que es cierto que desespera un poco. A mí me desespera cuando yo casi coge un bote de especias, y empieza a decirte Tomillo, o Romero, y empieza a leerte todos los ingredientes, no lo entiende bien. Entonces, últimamente sí que es cierto que estoy utilizando más ChatGPT, y directamente que me describa la foto y fuera. Yo utilizo, de hecho, también etiquetas NFC, y las tengo programadas, o las de NaviLens, pero yo utilizo de momento NFC, y con esas plantillas, esas pegatinas que tengo programadas, directamente lo miro, ¿no? Tengo etiquetadas varias cosas por casa, porque me desespera un poco, pero eso no creo que sea que la aplicación va mal, sino que es la aplicación como es, no tiene que ver con el lector de pantalla. En cuanto al lector de pantalla, funciona bien. Funciona rápido y va bien. Sí, que con la de Microsoft pasa más o menos lo mismo. O sea, si lo pones en que te vaya leyendo conforme va recogiendo imagen, pues a veces te vuelves un poquito loco. Entonces, me pasa lo que David o tiro de ChatGPT o directamente de MyEyes, y me describa la imagen, porque al final es más rápido. Y ahí, bueno, según como hemos ido hablando y comentando, hay entornos más abiertos y entornos más cerrados. Un entorno más cerrado como puede ser Apple, en el que un lector de pantalla solamente pueden hacerlo ellos, no puede hacerlo nadie de fuera, porque hay que acceder a un nivel muy bajo del sistema operativo, y Apple, en este caso, no se lo permite a nadie. Como hemos ido comentando, Android sí. Android es un entorno mucho más abierto, en el que cualquiera, como acabamos de ver, pues cualquiera puede hacer un lector de pantalla, ¿no? ¿Por qué no hay más lectores de pantalla? ¿Por qué no hay un lector de pantalla Open Source? ¿Por qué no hay alguna otra alternativa? Se intentó. Eso, Héctor, que programa, ¿no? Podías tirar a hacerte un lector, ¿no? No, no, para teléfonos todavía no. En su momento se intentó, hubo a los principios y funcionaba muy bien un lector que no me acuerdo del nombre, perdón, que era coreano, surcoreano, y funcionaba muy bien, y era de código abierto, y la verdad que iba muy bien. Ahora en la Play Store también tenemos el Prudence, y también tiene su legión de aficionados que dicen, no lo he probado, yo lo probé en los comienzos y no me gustó, pero dicen que ha mejorado en las últimas versiones bastante, es un tipo talback, es un híbrido, porque también tiene funciones como Gisio, y está en la Play Store, pero de código abierto, yo que sepa hasta hoy, no hay nada, no, me parece que no hay pistas de que haya algo, o que yo sepa. Yo no conozco, sé que había también antiguo un proyecto como de Motorola, que estuvieron también indagando, estuve buscando información cuando, ya digo, empecé con Tallback y demás, pero que estaba un poco abandonado, y bueno, siguieron con el tema de Tallback, y en este caso con Gisio, que sí que es cierto que te sacan actualizaciones cada 2x3, te hablo de que cada 2 días hay una nueva beta, y versión estable cada semana, o semana y media, para poder actualizar. Entonces creo que es el proyecto que está más actualizado, y luego Tallback también. Para una persona que decide acercarse a Android, y os ha escuchado hablar de los dos lectores, sería recomendable utilizar uno antes que otro, por la facilidad en cuanto a la curva de aprendizaje, para poder utilizarlo lo más rápidamente posible, aunque luego acometieran otro, o daría igual. ¿Vas a tener que utilizar Tallback sí o sí? Porque vas a tener que descargar la versión de Giso, ¿no? O sea que, quieras o no, vas a tener que tener unas nociones de Tallback, para poder instalarla, no sé que alguien te lo haga, pero si quieres ser autónomo tendrás que utilizar Tallback para poder descargarlo, instalarlo, dar los permisos que hablaba antes esto también, y demás. Y luego sí que yo de hecho no conozco ciertos menús de Tallback, o sea no sé cómo se copia, cómo se pega, creo que es con un menú que sale también, pero yo directamente tiré a este otro, estuve probando pues eso, diferentes cosas, cómo copio, cómo pego, luego lo vi, luego ya se me ha olvidado, y sé que algunas cosas han cambiado, pero en la curva de aprendizaje ya digo, como decía antes, es moderada, pero tienes que empezar con Tallback para poder ser autónomo e instalar Giso en este caso. Hay gente que se crea en Tallback como equipo principal, conozco algún chico, un chico de Alicante creo que es el que lo sigue utilizando, y él está cómodo con Tallback, trabaja con Tallback, y le gusta, y ya está, y funciona con él, y se ha adecuado a él. Al final es que cada uno busque lo que mejor le vaya y lo que más se adecue a lo que necesita. Yo sí les recomiendo de que tengan las nociones básicas de Tallback, que en un momento dado siempre vamos a tener que recurrir a Tallback, que es lo que hay detrás, y luego lo que uno tenga ganas. ¿Eso quieres decir que lo que uno tenga ganas, que si ya conoce Tallback y quiere seguir probando y tener por lo menos también otro lector ahí? Pero esto es igual que con cualquier aplicación, hoy en día tenemos para hacer una acción mil aplicaciones, entonces, por poner un ejemplo rápido un navegador web uno se puede quedar con Firefox porque diga que le funciona mejor, otro con Chrome, entonces, bueno, es luego experimentar. Lógicamente viene en Chrome instalado ya en la mayoría de los Android, entonces, bueno, no empieza con Chrome, pero luego si tiene ganas de investigar y ver si se adecua más a su manera de manejar el teléfono, pues oye, ¿por qué no Firefox o de los miles que hay? En Tallback sí que encontraríamos canales formativos en español con más facilidad. Sí, bueno, la documentación oficial de Google y bueno, muchos. Sí, yo creo que sí. Lo que yo sí que animaría un poco es que no se tengase miedo, al igual que me voy al caso de los audiolibros al que le gusta Audible o utiliza Audible le va bien, le funciona, le gusta, pero que también conozca otras plataformas, en este caso Storytel o yo que sé cualquier otra, pues lo mismo pasa con Tallback, ¿no? Yo, por ejemplo, sí estoy con este sistema, pero me apetece probar VoiceOver. Creo que hay que conocer un poco todo y luego ya, sí, te decides si puedes ver. Fíjate, Héctor tiene iPhone, pero se ha instalado una ROM en un Android. Entonces, bueno, el tema de cacharrear más menos, pero luego conocer un poco todo lo que hay, ¿no? En cuanto a aplicaciones dentro de Google, dentro de, sí que hay muchas que están en Apple, ¿no? Pero bueno, hay alguna que seguramente esté también en Tallback y solo estén ahí, ¿no? Igual que vosotros tenéis en iPhone seguramente como las notas del lector, creo que eran, pues esa me parece muy interesante, ¿no? Programada por Jonathan. Bueno, asistente del ponente, ¿no? Asistente del ponente, sí, Jonathan Chacón, ¿puede ser? Sí, ese es. Que debe estar muy bien también esa aplicación. Bueno, pues un poco conocer los sistemas que hay. Me parece muy interesante que nos deis esta ventana para poder hablar en este caso, pues, de a mí, de JSON y Tallback, ¿no? Junto con Héctor. A mí particularmente me ha venido muy bien, porque yo sí que de verdad que únicamente tengo en terminal Android para hacer pruebas, pero soy un paquete utilizando Tallback. Yo creo que es eso a caballo y rey. Y yo os iba a preguntar algo, es decir, yo una de las dificultades mayores que he tenido siempre con Tallback, porque es el que utilizo lógicamente en modo prueba, ¿no? Es la edición, ¿no? De texto, el poder borrar, el poder intercalar, el poder moverme, que por ejemplo con VoiceOver lo hago con una facilidad pasmosa, entre el rotor, los dedos, ¿sabes? Con una sola mano lo hago fenomenal y en cambio con Tallback encuentro mucha dificultad en la edición de texto. Esto sí que me gustaría que me lo comentarais en ambos lectores, es igual el tema de edición, eso ha mejorado porque bueno, yo tengo ya un terminal antiguo, ¿no? Es un Xiaomi Redmi Note 8 Pro pero bueno, Tallback se actualiza. Sí, bueno, en Tallback ahora tenemos los gestos, o sea, dedo para arriba, dedo para abajo, los desplazamientos que se parecen algo más a a lo que es VoiceOver y luego es que no sé, yo a mí son percepciones, ¿vale? Yo ahora, por ejemplo, cuando cojo el Android viniendo de mi teléfono principal que es iPhone, en el cual ya llevo unos años, pues me pasa lo que a ti, o sea, encuentro más difíciles algunas cosas pero porque no las practico diariamente, no es una práctica diaria, ¿vale? Yo veo a mi mujer, por ejemplo, con Tallback y digo, joder, perdón, me quedo alucinado y digo, yo antes tenía esa facilidad pero ahora cuando me cojo el teléfono Android, no tengo esa facilidad y no es que no, soy yo, ¿vale? No creo que sea el lector, ¿vale? Porque luego ves a gente que dices, yo por ejemplo, yo sé escribir en Braille en una máquina Perkin pero me pones el teclado Braille en cualquiera de los sistemas operativos y sinceramente es que no consigo ni escribirla y yo veo a gente que se pone ticutucutu y dices, bueno, a ellos les va bien, o sea, creo que también es un poquito la persona. ¿Tú también lo ves así, David? Yo creo que sí, coincido con Héctor, que al final es adaptarte a lo que necesites y lo que utilices y sobre todo en nuestro mundo lo hace mucho el trabajar con ello diariamente y pero sí que también es cierto que la gestión yo hablo del lector que tengo es muy potente porque existen varios modos existe un modo de texto y luego existe otra opción que es dividir y editar texto y te permite por párrafos, por líneas, por caracteres, por palabras y dentro de ese modo te permite moverte dentro con diferentes gestos solamente para texto, es decir, la gestión que se hace de texto es muy potente, más que Tollback, por lo menos cuando yo lo intenté pero sí que también es cierto que la gente que utiliza Tollback seguramente en esa edición de texto, por esa maña entre comillas que tengan de esa utilización, van a poder hacerlo de manera muy rápida al final es como todo, yo creo que al final el acostumbrarte a poder hacerlo de una manera va a hacer que lo puedas hacer sin problemas y muy rápido como digo. Lo bueno es que haya alternativas que luego depende de cada usuario el uso que le va a dar, si a lo mejor es un usuario que solo usa el WhatsApp y hacer y recibir llamadas y a lo mejor algún correo esporádico pues para qué le vamos a complicar la vida depende de cada uno. Claro, es el tema que tú enciendes el iPhone, pones VoiceOver y listo, y aquí enciendes, pones Tollback y también va bien es como iPhone pero si en el caso de Jesua pues fíjate lo que tienes que hacer, bajártelo instalarlo, programarlo, configurarlo tienes que hacer bastantes cosas Era lo que hablábamos, es el uso que se hace de la herramienta diario, yo cuando cojo mi teléfono Android cuantas veces me pongo a subir en una lista con tres dedos y digo, esto no funciona, qué mal va no, es que vengo de otro sistema que se hace así y claro es la costumbre ya que tenemos. Estos automatizados y entonces lógicamente Sí, sí, sí, sí, se hacen automáticamente, entonces no nos damos cuenta, pero es la práctica al final lo que nos da el buen uso. Y a mí me pasaba parecido, yo he cogido alguna vez de algún amigo el iPhone, he puesto la accesibilidad, he visto el rotor y digo, este rotor es horrible me paso no se me da bien no entiendo cómo funciona me costaba mucho, entonces yo mi rotor, si es que el mío es muy diferente y es mucho más directo Pero el rotor se ejecute igual haciendo así como con un compás un giro, como si le dieras a un potenciómetro No, en el Jason es diferente, tienes que bajar el dedo y subirlo y así cambias el rotor, o a la izquierda y a la derecha lo puedes configurar de dos maneras De cuatro, arriba y abajo, o abajo y arriba como tú quieras. Se me llamó mucho la atención porque este gesto que parece tan sencillo, porque es como darle volumen a una radio antigua, un potenciómetro pero sobre la pantalla, pues hay personas que tienen dificultad para hacerlo con lo cual, y creo que no hay alternativa estamos hablando ya de VoiceOver y de iPhone con lo cual lo que me estás comentando que tiene Gisua es más interesante Sí, yo me volvía loco, de hecho me pasaba, no me funcionaba a lo mejor son mis dedos que están mal No, yo al principio me movía yo y no se movía el teléfono o sea, era yo el que hacía el círculo es un gesto odioso hasta que te acostumbras hasta que te acostumbras es lo que veníamos hablando Luego yo sé que me he dado cuenta lo que comentaba un día que hablábamos Ricardo y yo que yo le decía a Ricardo, quiero hacer algo para conocer el lector que no buscas al final que la gente lo instale, porque a mí me da exactamente igual pero sí, porque lo conozcan igual que hice todo el tema de la RON y lo planteé en algún grupo de WhatsApp, de oye ¿interesa que haga algún tipo de curso manual? o lo que sea y pasó una bola de estas del oeste como aquí nadie dice nada como que no hubo interés y es porque lo que hablábamos yo que sé, un 95% puedo decir que utilizan iPhone en España que es el 90-95 en Latinoamérica es al revés se utiliza Talbac o Jason Sí, pero esto fue sintomático bueno, en honor a la verdad lo único que te contesté que estaba interesado fue yo es que fue real y de hecho recibí mi formación, con lo cual muchas gracias Tuve clases particulares Sí, sí, tuve clases particulares, pero sí que es cierto que era un ofrecimiento altruista que esto no es normal que alguien te diga, bueno ¿estáis interesados en que yo preparara algo para hacer una introducción a este lector que es tan desconocido? y nada, silencio grupo de 170-180 personas ojo y tanto de aquí como de allí me refiero de este hemisferio como del otro Tengo que decir que en España o en Android primero lo que hablábamos de tema de que por ejemplo en Latinoamérica pues bueno los terminales son más caros entonces bueno, Android sí que te da esa gama media-baja con buenos rendimientos entonces bueno, se han tirado allí por eso Aquí también fue una poca falta de información y también que Android empezó mucho más tarde en tener un producto que realmente pudiéramos usar Sí, es cierto Sí, sí Creo que ahora mismo es lo que comentaba que quizás VoiceOver se está relentizando un poquito y Android se está acelerando y se están como igualando por lo que comentaban así en los grupos y bueno eso es bueno para nosotros igual que las inteligencias artificiales que comentábamos el otro día Ricardo y yo es bueno que esto pues haya disputa y que todo va en nuestro beneficio cuanto más luchen entre ellos se supone que mejor irán y mejor ascenderemos La competencia dicen que esto hay que beneficiar al usuario y yo estoy de acuerdo también O sea mejor para todos lo que pasa que bueno como efectivamente VoiceOver quizás empezó antes con un nivel muy alto pues mucha gente que eso puede permitir pues entró ya en el segundo y ya difícilmente va a salir porque si al final puedes hacerlo en el otro puedes hacer lo mismo de otra forma pues para qué, me lo voy a aprender y tengo que empezar a trabajar desde el principio de cero pues si ya sé hacerlo pues continúo como estaba y por diferentes motivos pues en España por ejemplo pues tendió más por iPhone, en Estados Unidos, en otros sitios ya mejor en Latinoamérica pues por quizás motivos económicos o lo que sea pues inicialmente se empezó más con Android y ya pues se han quedado ahí Con una diferencia que me hemos dicho que no íbamos a hablar de VoiceOver mucho pero sí que hay que destacar algo cuando sacaron VoiceOver para iPhone lo integraron dentro del sistema, era un elemento más y TalkBack durante un tiempo era una aplicación que se instalaba y no estaba dentro del propio sistema no sé si esto sigue ahora así o no, es que no lo recuerdo la verdad es que... TalkBack no viene integrado en el sistema, no viene en el núcleo sigue siendo una aplicación Y vosotros que sois personas con muchos conocimientos informáticos y en cuanto a accesibilidad esto es un handicap ¿verdad? porque cuando tú integras algo dentro del sistema normalmente tú armonizas todo el sistema y entre ellos el concepto de accesibilidad es uno más entre otros de los que hay dentro y ese lector o en nuestro caso otro tipo de herramientas de accesibilidad para otro tipo de discapacidades suelen ir a la par no exactamente a la par pero sí con más agilidad que cuando instalas algo desde fuera ¿no? que venga en el núcleo y eso quiere decir que ya desde un principio el sistema viene accesible eso quiere ya decir mucho hasta Android 5 realmente no podíamos decir que teníamos un lector de pantalla entonces bueno los años de desarrollo que Apple lleva sobre eso y el producto exclusivo que tiene para sus teléfonos que ya digo el decir que desde un principio viene ya integrado en sistema pues bueno esa cuenta con la accesibilidad entonces bueno Google fue a caballo Claro, tiene sus ventajas y sus inconvenientes, claro, la ventaja es que al estar integrado en el propio núcleo puede ser mucho más robusto y quién mejor que ellos van a conocer sus tripas para poder acceder a esa información a muy bajo nivel y podértela dar de múltiples formas ¿no? con voz, con braille, como sea pero el inconveniente que creo que solo ellos lo pueden hacer, nadie más si hay algo que no lo hacen bien, si lo hacen bien, fenomenal pero como hay algo que no lo hagan bien pues pues estás perdido O sea, la diferencia está en esto tan simple como un gesto ¿vale? en Android por ejemplo hasta que no tuvimos el atajo para lanzar el callback te quedabas te quedabas tirado directamente te quedabas tirado, es verdad como no tuvieras un poco de maña o conocimientos pues hasta que no llegaran unos ojos amigos es eso eso no te pasa en iPhone eso es la integración no sé Últimamente se queda más colgado VoiceOver, se baja el volumen sí que es cierto lo que ha dicho David que no están sus mejores momentos el VoiceOver en Android Pues es verdad que tú eres usuario Héctor pues tú primero lo habrás visto en la iOS 18 y el foco, terrible A mí no me pidáis luego que os dé cursos y formación cuando VoiceOver desaparezca porque ahí diré yo ahora no quiero Yo estoy de acuerdo con vosotros que tengan bebido ese VoiceOver ese sistema de accesibilidad dentro del propio teléfono cuando esté instalado pues es un plus también es cierto que antiguamente no es como ahora es lo que comentaba antes los sistemas operativos han cambiado y no creo que se haya hecho un techo de hardware pero las aplicaciones que están en los sistemas operativos que tienen los teléfonos están muy depuradas ya para ese sistema y aparte no por tener un Snapdragon generación 3 te va a ir mucho mejor que en 1, 2 creo que no se ha hecho un tope pero sí que a nivel de aplicativos en estos equipos llevamos al final un equipo que es más potente que un ordenador de sobremesa todos en nuestros bolsillos pues bueno creo que los lectores de pantalla también incluidos pues funcionan de otra manera como funcionaban antiguamente de hecho la propuesta de Samsung es un híbrido realmente sí que sacan dentro de su sistema un toolbag personalizado sí es un toolbag diferente tiene alguna funcionalidad diferente pero viene con el sistema viene con el sistema correcto hacemos un resumen un poco de todo lo que hemos ido tocando y ya vamos terminando hemos hablado pues un poco de bueno de los lectores de pantalla de los lectores en sistemas abiertos, cerrados y sobre todo nos hemos entrado en Android que es un sistema pues muy abierto que permite que haya diferentes lectores de pantalla como el que ya viene integrado bueno más o menos por defecto porque depende de las diferentes distribuciones, sabores marcas y modelos lo que hayan implementado o las partes que hayan quitado del sistema operativo original y el toolbag pues más o menos viene en todos y luego pues hay alguno como el Jiswa que pues en principio tiene mayores funciones, es más ágil se comporta mejor y es mucho más abierto, potente flexible y versátil en principio sí y hemos hablado también de cómo, con qué aplicaciones pues se puede trabajar o cuáles son las de preferencia de nuestros colaboradores y hemos hablado también de cómo se puede editar en estos lectores en comparación con voiceover y demás es decir, hemos hecho todo lo que es un recorrido además de conocer bueno como está el estado del arte de cada uno de los dos lectores en este momento que vemos que tanto implementan ya funciones de inteligencia artificial como se sincronizan o armonizan con el propio sistema operativo también con inteligencia artificial y esto es básicamente lo que hemos estado tratando y se han dado muy buenos consejos sobre todo de las personas que en este caso son conocedores de estos lectores como son David y Héctor. Eso es y que dependiendo de cada persona no hay un una varita mágica, no hay un lector que sea el que predomine sobre los demás indudablemente sino que depende de cada usuario, del uso que se le quiera dar de los conocimientos que uno tenga y de para qué lo quiere utilizar pues habrá que ver en qué circunstancia es mejor cada uno Si, el episodio nos ha salido mal, pensábamos localizar dos ultras, que uno fuera contra el otro que hubiera sangre, un combate de gladiadores y qué va, qué va dos personas muy sensatas con mucho sentido común y que básicamente lo importante han estado de acuerdo en todo con lo cual pues reafirma aún más los planteamientos Muchas gracias Héctor, muchas gracias David, esperemos volver a hablar, tener alguna tertulia por aquí con otros temas varios que controláis y sabéis de muchas cosas esperamos volver a oírnos Muy bien, hemos estado muy a gusto, lo contáis todo muy bien, con mucha tranquilidad y eso se agradece y de forma muy clara, con lo cual aprendemos muchísimo así que gracias a los dos también Muchas gracias a vosotros por invitarnos Pues recordamos a todo el mundo que se suscriba, que nos ponga algún comentario alguna estrellita 5, 4, 3, una o ninguna pero que, bueno, que comente que nos cuente lo que le ha parecido y recordamos los medios de contacto Pues sí, voy yo con el correo electrónico que es gafotas arroba cegatos punto es y el whatsapp para mensajes de texto o de audio en el más 34 644 640 792 Bueno, os agradecemos muchísimo como siempre que hayáis llegado hasta este punto del episodio y esperemos que hayáis estado tan entretenidos como nosotros Os esperamos en el próximo Así que hasta luego, adiós podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast podcast pues se oye como el culo mi teléfono y de repente esa campana suena en toda la casa. No me preguntéis cómo lo hace, pero es el mismo altavoz. Aquí también se oye. Bueno, pues alguna vez lo he hecho. Pues mira, puesto modo avión, ¿sabes? Pero bueno... ¡Ping! Es mío, es mi teléfono.
Gafotas, cegatos y sus aparatos #12
Fecha: sábado, 22 de febrero de 2025, a las 00:00:00
En este duodécimo episodio profundizamos en la edición y tratamiento de audio accesible con REAPER, un potente software de edición multipista con un enfoque versátil y altamente accesible para usuarios con discapacidad visual.
Hablamos con nuestros invitados José Manuel Fernández Cortés (Pepe) y Gerardo Kessler (Gera), músicos expertos en producción y accesibilidad, quienes nos explican desde la historia de REAPER hasta las funcionalidades avanzadas que hacen de este software una herramienta imprescindible.
Temas destacados en este episodio:
-Historia de REAPER: Desde sus orígenes con Justin Frankel, creador de Winamp, hasta su evolución como un DAW de referencia.
-Accesibilidad en la edición de audio: Cómo OSARA, desarrollado por James T, mejora la interacción con lectores de pantalla.
-Posibilidades de edición: Desde la edición de podcasts hasta producción musical, pasando por postproducción de audio y conversión de formatos.
-Curiosidades y ventajas de REAPER: ¿Sabías que puedes modificar la velocidad y tonalidad de un archivo en segundos? ¿O que si eliminas un fragmento en una pista se sincronizan todas las demás de forma automática?
-Conoce cómo aprender REAPER: Recursos en español, grupos de WhatsApp y tutoriales para empezar desde cero.
Momentos destacados:
Gera nos sorprende con una demostración musical de la intro de Gafotas, Cegatos
y sus Aparatos, mostrando cómo REAPER permite la producción musical con
MIDI y audio real.
No te lo pierdas: descubre cómo tratar, editar o producir audio es totalmente accesible para personas ciegas.
Intervienen:
Jose manuel Fernández cortés (Pepe).
Enlaces a Sitios referenciados en el episodio:
Blog Reaper Accesible de Pepe Fernández.
Sitio de Gera Kessler con tutoriales y recursos
Apartado para principiantes en el sitio web de Gera.
Página oficial de reaper en inglés.
Grupo de Reaper original donde nació esta historia (inglés):
(Canal Reaper Accesible Oficial – YouTube.
Canal de Reaper Accesible Español oficial – YouTube.
Para ser agregado al grupo de Reaper accesible oficial en WhatsApp, enviar un mensaje con nombre completo, nacionalidad y número de teléfono, con prefijo de país, a reaperaccesible@gmail.com
Créditos:
Duración: 01:20:40
Descripción detallada del logo de Episodio 12. Reaper: edición de audio profesional para todos
La imagen es una ilustración en blanco y negro con un estilo retro-futurista que recuerda a los carteles de los años 50, pero con un toque de ciencia ficción y tecnología avanzada. Representa a un trío de músicos vestidos con elegantes trajes de esmoquin, pajaritas y camisas blancas, combinando una estética clásica con elementos de música electrónica moderna. En el centro de la imagen, un músico manipula una mesa de mezclas con una mano mientras toca un saxofón con la otra, fusionando el jazz tradicional con la producción musical digital. Sus auriculares grandes y sus gafas futuristas con visores opacos le dan una apariencia vanguardista. A la izquierda, otro músico toca un bajo eléctrico con una pose concentrada. Viste un traje a rayas y también lleva auriculares y gafas tecnológicas similares, lo que refuerza la estética futurista del grupo. A la derecha, un tercer músico, vestido de forma similar, toca una guitarra eléctrica con actitud segura y profesional. Detrás de ellos, una gran pared de altavoces domina el fondo, emitiendo ondas de sonido visualizadas mediante una cuadrícula luminosa que evoca gráficos de audio o espectrogramas digitales. En la parte superior de la imagen, el nombre "REAPER" aparece en grandes letras, sugiriendo que puede ser el nombre de la banda o del evento que representa la ilustración. El estilo de la imagen combina técnicas de ilustración vintage con un enfoque gráfico muy marcado, utilizando trazos gruesos y un fuerte contraste entre luces y sombras. La composición está cuidadosamente equilibrada, con los músicos ocupando el primer plano y los altavoces generando profundidad en el fondo. El uso del blanco y negro acentúa la sensación de un cartel clásico de jazz o rock, pero la presencia de tecnología moderna le da un aire innovador y único.
Mostrar transcripción de Episodio 12. Reaper: edición de audio profesional para todos
Transcripción de Episodio 12. Reaper: edición de audio profesional para todos
Bienvenidos al dúo décimo episodio de tu podcast favorito. ¿Qué tal estás, Ricardo? Pues mira, tendría que decirte formalmente bien, pero la verdad es que no me encuentro nada bien, llevo un tablón encima, un resfriado, que no es ni medio normal, no pienses que llevo una pinza en la nariz, que esto es que hoy estoy así, estoy mareón, estoy con la garganta picada y bueno, con muchas ganas de hacer el podcast, porque bueno, ya te dije que solo me pararía un tiro en la frente o un sable en un ojo y que bueno, que simplemente con un resfriado, que yo pensaba que este año me escapaba, pues hay que hacer el podcast y más con la temática que tenemos hoy, que nos apetece muchísimo. Pues fenomenal, yo pensaba que era una pinza en la nariz, sí, por el sonido que tienes, pero bueno, luego podemos intentar aquí aplicar algún hechizo especial, alguna cosa a la pista de audio, a ver qué tal, porque bueno, para el que no lo sepa, pues nosotros grabamos y después de grabar pues hacemos una edición posterior, pues para poder quitar los sonidos, los chirridos de la silla o cuando uno tose, carraspea, cualquier ruido que a veces puede ser molesto a la hora de escucharlo y demás, pues una edición siempre mejora muchísimo el audio, además al ser una grabación online es muy fácil que nos empiecemos a grabar y cosas así y editarlo y dejarlo limpito y peinadito, como digo yo, pues eso, mejora la calidad. Esto ahora, antes no se trataba el sonido, no era tan fácil. Efectivamente, antes no era tan sencillo y mucho menos accesible, que fuera algo doméstico, que lo pudiéramos hacer en nuestras casas, con nuestros equipos y demás, no es de siempre, ¿no? No, hombre, yo sí conozco gente ciega que ha editado pistas de grabación en radio, cortando lo que comentamos el otro día, las cintas estas de bobinas, de carrete, y empalmándolas, es decir, porque eso claro, lógicamente tenían feedback cuando las reproducían, sabían por dónde cortar y por dónde unir, pero luego ya cuando salieron los equipos también de grabación, que tenían sistemas de edición y mesas de mezcla incorporados, como eran los TASCAM o los TIC japoneses, que eran maravillosos, eran fantásticos, pues allá teníamos dificultades y cuando ya llegaron los boommeters, displays y otro tipo de indicadores y todo esto, pues la gente ciega tuvimos más dificultades todavía. Y cuando llegó el software y llegó el Cubase, el primer Putus, que se llamaba de otra manera y no me acuerdo cómo era, que era software, también veíamos a nuestra gente ya alrededor haciendo maravillas con la edición de sonido y el tratamiento ya del propio sonido y tampoco era accesible. Así que hemos tenido que hacer una travesía en el desierto bastante larga, sobre todo en lo que ha sido edición de multipistas, porque algunos software, que tú lo recordarás seguro y ahora me dirás más de uno, para editar una pista estéreo, cortar, ponerle un poco de reverb y eco y cosas de esas, o subirle el pitch y todo eso sí que teníamos, pero para hacer lo que es una edición multipista, nada, no será negado todo. Sí, efectivamente, esto ha sido un poco de travesía en el desierto. Primero el audio digital, poderlo editar en casa con ordenadores más o menos normales que no fueran super máquinas y luego el handicap de la accesibilidad, que ha sido complicado encontrar algún software que fuera accesible y mucho menos multipistas. Para una única pista tenemos el Wi-Fi o tenemos el Audacity. Bueno, Audacity también después multipista, pero la accesibilidad en muchos de ellos era un poco, en el mejor de los casos, un dolor de cabeza, como un poco. Hasta que bueno, pues parece que hemos encontrado una solución bastante digna y además desde el punto de vista de la edición de audio, en doble sentido, por un lado tenemos también la edición de audio para el Comundo de los Mortales para editar un audio como puede ser este podcast y luego también la edición de audio desde el punto de vista de los músicos, que también es un poco distinto. Sí, además la solución, vamos a decir ya el nombre, que se llama Reaper, es alucinante cuando leyendo la documentación vimos quién está detrás de este software tan maravilloso. ¿Tú lo recuerdas, Arturo? Tenemos el creador de Winamp, del famoso y clásico Winamp. Sí, Justin Frankel. Los más viejos del lugar recordaremos el Winamp como reproductor en Windows ya 3.1. Sí, señor. Realmente fue a finales de los 90 y a principios del año 2000 donde este reproductor ligero, discreto, con cantidad de atajos para manejarlo, ocupaba todos los Windows y bueno, prácticamente hasta que no se lo vendieron a All, lo estuvimos utilizando todo el mundo como reproductor de preferencia. Pues este señor, concretamente en 2004 y para atender sus necesidades personales, inicia este proyecto desde una empresa que se llama Coco y empieza lo que es Reaper, pero empieza, vamos, con los primeros mimbres, no es lo que es ahora que ahora nos lo contarán. Es decir, es una aplicación muy sencilla, no le dieron ningún tipo de bombo ni difusión, desde el primer momento el planteamiento ha sido muy claro, muy frontal, muy en sintonía con las necesidades y preferencias de la comunidad de usuarios, tanto con discapacidad como sin discapacidad y un poco pues eso, lo que tiene que ser el desarrollo de un software en condiciones. Sí, además a mí me sorprende particularmente que ocupa muy poco y que no hace falta ni mucho menos una supermáquina que en un ordenador muy justito pues es capaz de manejarse bastante bien para cosas sencillas. Si quieres hacer un proyecto con 100 pistas, pues a lo mejor no, pero para cosas sencillitas se desenvuelve muy bien con pocos recursos. Sí, además puedes probarlo durante muchos días hasta casi durante una vida. Bueno, para no seguir enrollándonos nosotros que podemos estar aquí toda la hora, pues vamos a dar paso a nuestros expertos invitados en Reaper. Muy buenas, Pepe, ¿cómo estás? Hola, buenas. Verá parte de la comunidad me conocerá como José Manuel, como José Manuel Fernández, Fernández Cortés, pero los que más me conocen me dicen Pepe. Pues nada, aquí contento de haber sido invitado por Ricardo y por Arturo para este fin que nos han encomendado, hablar de este maravilloso programa que es un editor de audio y editor de MIDI. Ya diríamos lo que es MIDI porque audio sabe todo el mundo lo que es, que es Reaper. Muy bien, Pepe, muchas gracias. Pues hola, Gerardo, que es el otro invitado. Buenas, buenas. Bueno, un gusto estar aquí en principio. Soy Gerardo Kessler de Argentina. Se notará un poco el acento, supongo. Músico en una orquesta sinfónica de mi país, la Banda Sinfónica Nacional de Ciegos, Pascual Grisolía. Ahí estábamos recién hablando sobre este creador de varias orquestas acá en Argentina, a ver si no tenía algún tipo de relación con España y las bandas sinfónicas de allá, pero ya lo sabremos en otro momento. Muy contento de tratar este tema que si bien está teniendo un poco de difusión por esta cuestión de la accesibilidad y no solamente en el entorno de las personas con discapacidad visual, sino en el entorno general de producción. La gente está usando mucho Reaper porque es una alternativa maravillosa de un costo muy bajo e incluso se puede usar gratuitamente y que nos permite tener la posibilidad de hacer grandes cosas con muy poco. Estupendo. Pues para nosotros es una garantía teneros aquí, sobre todo para conocer de vuestra mano todo lo que es la accesibilidad de Reaper y esto es lo que vamos a intentar durante el tiempo que dure este episodio. Me llama mucho la atención que tenéis un perfil muy parecido, tanto Pepe como Gerard, porque los dos sois instrumentistas. Yo creo que tú Gerard tocas saxo más guitarra y esto. Pepe también, yo he tenido la ocasión de conocerlo por los nuevos vecinos y toca la guitarra flamenca. Además, para mí es de las personas que mejor le suena, que con más sentido y fuerza toca la guitarra flamenca. Suena fenomenal. Luego estáis muy vinculados ambos al tema de la tiflotecnología y del desarrollo también de aplicaciones y webs y demás. Y al mismo tiempo estáis los dos en edición, tratamiento, producción de audio con Reaper y esto. Entonces creo que sois las personas más que adecuadas para que nos deis a conocer este software. En honor a la verdad, hace un tiempito yo lo conocí a José, fundamentalmente en un podcast también, en otro podcast de José María Ortiz, donde José explicaba el uso de otro software. En ese caso era de Audacity. Y un poco fue también impulsor de mis ganas de empezar con todo esto de la producción musical o empezar a trastear con otras cosas. Yo utilizaba en esos momentos algunos software de edición, pero sencillitos. Y esas posibilidades que empezaron con Audacity también en cierto aspecto, que no tiene accesibilidad por ahí definida, pero sin embargo, como se podían configurar muchos atajos de teclado, permitían que uno lo utilice. Así que, bueno, José viene ya trasteando con esto hace un buen tiempo y yo caí un poquito después ya con Kbook Sonar, que fue una de las primeras opciones recién en la cual pudimos utilizar un multipistas en Windows. No funcionaba como Reaper, era un poco deficiente porque en realidad la accesibilidad estaba basada en la API, que era para superficie de control. O sea, el desarrollador del script lo que hizo fue emular una superficie de control, que es como una especie de consola que permite controlar el software a través del hardware. Y gracias a eso era posible usar, no en el porcentaje que se puede usar Reaper, pero por lo menos teníamos un poco de acceso al uso de multipistas. Vos, José, estuviste con eso, ¿no? ¿Con Kbook Sonar o no llegaste o directamente aterrizaste con Reaper? No, yo Kbook sí lo utilicé, pero en el año 2000 aproximadamente y era Kbook 6 y aquello era muy distinto y muy distante de lo que hay hoy en día. Me servía para entretenerme y hacer algunas grabaciones, pero era muy diferente y no tenía ninguna calidad prácticamente, vaya. Desde aquel entonces estuve desconectado hasta el año finales del 2018, que fue cuando empecé a conocer Reaper. A mí siempre me había llamado la atención este tipo de aplicaciones de multipistas y demás, siempre me ha encantado. Pero estuve utilizando programas como Soundfall o Audacity y tal, pero no multipistas. En multipistas no había nada y era bastante complejo instalar Sonar y instalar unos scripts que había que instalar. Era muy complicado toda esa instalación, ¿no? Por eso redundo tanto en la palabra, ¿no? Porque era un poco engorroso. Y entonces conocí Reaper y empecé a investigarlo y llegó un momento en que dije, cuando ya lo conocía un poquito más, porque hoy en día creo que lo conozco al 50 % nada más y me parece que estoy presumiendo. Dije, esto tengo que compartirlo con la gente, esta aplicación. Si a mí me está haciendo tan feliz, pues debo hacer que los demás también lo sientan y lo vivan. Y así lo he conseguido. Creé el grupo de WhatsApp y, bueno, a partir de ahí, por todos los demás que ya hablaremos. Claro, porque eso no lo hemos comentado. Es decir, sí, ya comenzó todo lo que es Reaper a tener su accesibilidad gracias a James T, que este señor lo conoceréis porque justo a Michael Curran fueron los desarrolladores de NVIDIA, N-V-D-A, el lector de pantalla tan maravilloso y que nos permite acceso a tantas aplicaciones y al sistema. Y este mismo hombre, James T, generó, bueno, no sé si fue realmente el que hizo ese desarrollo o ese script o no sé cómo llamarle, Pepe. Empezó primero porque hubo una previa, porque cuando largaron el software era Win32, era un programa que funcionaba solamente en Windows y ya era accesible de por sí porque tenía controles nativos, usaba controles comunes de Windows. Pero bueno, después a medida que se fue haciendo multiplataforma, porque Reaper no solo funciona en Windows, sino también en Mac y en sistemas operativos basados en Linux, ahí un poco se empezó a romper la accesibilidad. Entonces entró en juego dos desarrolladores rusos que desarrollaron otro script previo a Osara que se llamaba ReaAccess. Ahí es donde yo conocí Reaper con ese script que funcionaba muy bien, pero el problema es que el desarrollador no lo había abierto, ese software, ese script. Y el problema de esas cosas es que cuando eso depende de una persona o de un grupo de personas y no es abierto a la comunidad, cuando esas personas abandonan el proyecto, el proyecto también muere, que es como lo que pasa con muchas otras cosas también. Y es lo que terminó pasando con la accesibilidad de ReaAccess o de Reaper en general. Y después ahí sí entró en lisa James T, lo convocó Scott Chesworth, nunca me sale bien ese apellido, que era el que estaba un poco a cargo de la comunidad Anglo, que también empezaban a trastear con Reaper, porque ya KBox on Air ya no era accesible. O sea, había dejado de desarrollarse también, pasaba un poco con esto del ReaAccess. El desarrollador no hizo más el script, avanzaron las distintas versiones de sonar y chau, ya no hubo más accesibilidad. Entonces, cuando entró James, el proyecto fue abierto, entonces hoy en día sí es diferente porque está el proyecto en GitHub. Si en algún momento él deja de desarrollar, otras personas pueden tener acceso a todo eso que se desarrolló y poder continuar con el proyecto. La gran ventaja del Open Source, como pasa con el NWDA, es tener un desarrollo de accesibilidad como la que se está haciendo ahora. Esto se llama OSARA, ¿no? Exactamente. ¿Y exactamente qué es OSARA? ¿Es un entorno? ¿Es un script? OSARA es un componente que interactúa entre el software, el anfitrion, en este caso Reaper, utilizando las APIs de control que tiene el propio programa. Este tipo de programas, como son software tan sofisticados, tan completos, suelen tener algunas APIs para que otros recursos también puedan utilizar cosas de ese software, sin necesidad de tener que programar todo. Entonces, por ejemplo, para el uso de plugins, que son esos programitas que uno puede utilizar como una reverberación, por ejemplo, un delay, los efectos o procesadores, tienen acceso a esa API y entonces pueden utilizar parte del programa sin tener que programar todo de cero. Bueno, esa API de Reaper es tan completa, tan abundante, que también permitía que otro componente externo pudiera utilizarlo y pudiera controlar prácticamente, como decía Pepe, un gran porcentaje del software. Y es de ahí de donde James tomó la idea y donde empezó a controlar o a permitir el control del software a través de esa API. Entonces, este componente, OSARA, lo que permite es que el software de accesibilidad, en este caso los actores de pantalla, tengan interacción intermediada por OSARA. O sea, acceden a la API, a los distintos controles, gracias a OSARA que hace de puente entre estas dos cosas. Correcto. Inicialmente en inglés y Pepe, eres tú el que te encargas de traducirlo al español, ¿no? Sí. A ver, yo quiero añadir a lo que ha dicho Gera, porque estos son conceptos a veces bastante complicados. A ver, cuando se carga Reaper, que Reaper es el programa del que vamos a hablar hoy, un editor de audio y MIDI multipista, Reaper es como el Photoshop del sonido, para que la gente lo entienda comúnmente. Tú puedes editar el audio y hablaremos de algunas de las posibilidades más llamativas que Reaper tiene y que puede hacer con el sonido y con el MIDI. El MIDI lo tocaremos un poco por encima porque es un concepto más complicado, pero bueno, es la música hecha a base de instrumentos. Bueno, la cuestión es que cuando se carga Reaper, el programa del que vamos a hablar, Reaper busca en una carpeta concreta lo que hay y lo que hay en esa carpeta lo carga. Y cuando lo carga, cada cosa que ha cargado se ocupa de una cosa para lo que está programada. Entonces, en el caso de OSARA, intercepta las pulsaciones de tecla que Reaper va a tener. ¿Qué ocurre? Que cuando nosotros movemos la flecha hacia arriba o hacia abajo, OSARA la intercepta, dice, se ha movido la flecha del cursor del teclado nuestro, hacia arriba o hacia abajo. Entonces, como eso sirve para moverse entre pistas, pues a continuación OSARA le dice al lector de pantalla, te has posicionado en la pista número tal, que se llama de tal manera. Y bueno, este es el ejemplo más absurdo, digamos, ¿no? Como eso, cualquier otra cosa. Intercepta toda la actividad de Reaper e informa al usuario que tiene el lector de pantalla de lo que está pasando, de lo que no se puede ver. A lo mejor así se puede entender un poco más claro porque es que es un concepto un poco complicado. Si es un programa, si es un driver, si no, es algo que se adhiere a Reaper cuando se carga para ayudar a Reaper a resolver una función. En este caso es la función de facilitarnos el movimiento y la información que Reaper nos brinda y que nosotros no podemos ver. Eso es, hace como un plugin, como un complemento, como un intermediario. Es un complemento. Sí, que en la práctica es como si fuera un intermediario entre Reaper y el lector de pantalla para darle al lector de pantalla la información de forma que el lector de pantalla sea capaz de interpretarla y comunicarla de forma accesible. Exacto. Es como de ida y vuelta también, porque como decía Pepe, intercepta porque ese comando, por ejemplo, que nombró el de subir y bajar la flecha, si no me equivoco, originalmente si uno no tuviera OSARA instalado, mueve el zoom, por ejemplo. El zoom, el gráfico, el dibujo que aparece en pantalla, lo va agrandando a la chica. Entonces al tener ese elemento que intercepta, bueno, puede hacer con eso después lo que se requiera, en este caso, moverse entre las pistas de un proyecto. ¿Y qué cosas se pueden hacer con Reaper? En principio vamos por lo más básico, que es editar. Creo que ese es el proceso un poco más simple, en el cual uno carga un solo audio y ese audio lo modifica. Ya sea para cortar un fragmento, en fin, todas las cosas que se pueden hacer en una edición. Quitar el principio y el final de un audio, cortar partes del medio, añadirle cosas, por ejemplo, cargar otro fragmento o poner un pedacito de un efecto, una canción, todo en una sola pista. Por ahora trabajamos solo en una sola pista. Y hacer todas las acciones disponibles que tenemos en una sola pista. Que son muchas, porque no solamente se trata de esto, de cortar y de pegar y de mover las cosas, sino también de ir agregando lo que se llaman procesadores y efectos. Procesadores para poder modificar ciertas características del audio para no entrar demasiado en profundidad. Y efectos, que son los que conocemos todos, por ejemplo, una reverberación o un delay, que es este efecto de repetir algo. Todo este tipo de cosas son básicas que se pueden hacer. Ayúdame, José. Bueno, yo creo que tanto Gera como yo somos enamorados de Reaper y yo creo que eso debemos transmitirlo. No se trata de vender nada, sino simplemente se trata de que los demás puedan disfrutar lo que nosotros estamos disfrutando. Por supuesto que te tiene que gustar, te tiene que atraer la edición de audio. Si no te atrae eso, evidentemente no estarás escuchando este podcast. Pero imaginaos el siguiente escenario. Esta grabación va a costar de, somos cuatro, cuatro pistas, ¿vale? Bien, pues entonces, ¿qué ocurriría si, por ejemplo, queremos añadir en mitad de una pista algo que a mí se me ha olvidado decir? Pues se supone que si eso se hace, se descuadrarían todas las pistas, ¿no? Porque claro, entonces mi pista duraría más y las demás durarían lo mismo. Se descuadrarían todas las pistas. O sea, bueno, pues Reaper es tan inteligente que si yo añado en mitad de la pista que yo estoy hablando, que yo estoy grabando algo, las demás pistas las sincroniza de tal manera, deja el espacio suficiente para que sigan sincronizadas. Perfectamente sincronizadas, como si eso hubiera estado ahí desde el principio. Otra de las cosas que a mí me llama mucho la atención de Reaper, porque claro, no podemos hablar todo lo que hace Reaper, porque es imposible. Eso es completamente imposible. Simplemente cosas curiosas, ¿no? A mí siempre, siempre, bueno, los que me hayan escuchado en otro podcast lo sabrán porque siempre pongo el mismo ejemplo. Una de las cosas que me llama la atención de Reaper es que nosotros antes de grabar podemos saber qué nivel estamos alcanzando. Si vamos a saturar o no vamos a saturar con el micrófono. Nivel en decibelios, ¿eh? En decibelios. En función de eso, pues subiríamos o bajaríamos el volumen de nuestro micrófono. Si vamos a cantar, pues cantaríamos la parte más alta para ver si vamos a saturar y ajustamos los niveles del hardware, de nuestra tarjeta de sonido, de nuestro micrófono, lo que sea, ¿no? Nos separamos más de él o menos. Bueno, eso hasta ahora que yo sepa, y si no es así, alguno de vosotros me corrige o jera que estamos más en contacto a lo mejor con este tipo de programa. Creo que ningún programa lo ha brindado, esa posibilidad. Y bueno, pues como eso podría estar hablando, cosas curiosas que Reaper puede hacer sin meternos siquiera en profundidad de infinidad de cosas. Ya se nos irán ocurriendo, así que a ver. También has comentado que no es cuestión de vender nada porque ¿cuánto cuesta Reaper? Bueno, Reaper tiene un precio de creo que son 60 dólares, pero si tú no pagas esos 60 dólares lo puedes seguir usando sin limitación ninguna. Únicamente te aparecerá un cartel de manera aleatoria durante 5 segundos que, bueno, que Reaper no es gratuito y que lo puedes comprar por un precio bastante asequible. Una vez que pasan esos 5 segundos, me parece que son 5, 4 o 5 segundos le das a la tecla escape y usa Reaper con toda su potencia sin haberlo pagado. Si lo quieres pagar por contribuir al desarrollo de Reaper, pues bienvenido sea. Pero que la política de Reaper no es te lo dejo probar y luego te lo quito. No. Lo interesante es que para la potencia que tiene el software el precio es muy económico. Otros programas del mismo estilo son muchísimo más caros. De hecho, eran carísimos hasta que salió Reaper y todos los demás programas, ¿verdad? Totalmente. El Pro Tools no sé en qué precio estaba, pero eran todos esos programas. De hecho, también era software caro. Digamos, a nivel calidad-precio, lo de Reaper es fantástico porque con 60 dólares, que obviamente la situación económica de cada persona significará menos o más, pero es una módica suma comparado con todo lo que ofrece, porque realmente estamos hablando ahora de cosas curiosas y cosas por ahí sencillas, pero al nivel que se puede llegar de producción con Reaper es un nivel profesional. O sea, ya no estamos hablando de algo, como decía Pepe al principio, que uno podía jugar por ahí con otras cosas en otros tiempos, que uno quizá lo usaba así como algo curioso, como algo para aprender, pero esto ya uno lo puede usar en producción, uno lo puede usar en un estudio de grabación y hacer realmente proyectos que están totalmente a la altura de cualquier otro software. Eso es importante también tenerlo en cuenta. Incluso aunque está destinado para editar audio, también te permite editar video. Sí. Pepe hizo una demostración maravillosa que está en el canal de YouTube, que lo hiciste con una sola foto, ¿no, Pepe? O usaste varias para el video. Bueno, sobre esto quiero comentar que sí, hay un tutorial en YouTube de la edición de video con Reaper, pero os recomiendo que no lo escuchen porque tengo pensamiento de hacer uno porque el tiempo ha pasado, Reaper en ese aspecto se ha vuelto aún más fácil, no ha facilitado la manera de hacer las mismas cosas, y en ese tutorial demostraba, y bueno, lo mismo que voy a demostrar y algunas cosas más en este nuevo que tengo pensado hacer, es cómo puedes hacer un video con una banda sonora de música, o sea, con una música, con un audio cualquiera, no tiene por qué ser música, un audio cualquiera, y fotos, una sola foto en toda la música o varias fotos. Reaper, si por ejemplo le pones 24 fotos y la canción dura 1 minuto 18 segundos, bueno, pues Reaper te reparte el tiempo de las 18 fotos para que sea equitativo el tiempo de cada foto, lo puedes hacer con una foto, puedes mezclar fotos y videos, puedes poner alguna transición entre la foto y los videos, puedes poner texto, efectivamente, en el sitio que quieras de todo el proyecto, en fin, hay muchas cosas más que intento no saturar con mucha información. Yo pienso y digo siempre que es mucho más fácil, pregúntame qué es lo que no hace Reaper, que yo creo que sí lo hace. Quisiera hacer una pregunta primero, porque supongo que cuando tú accedes a Reaper, por ejemplo lo compras, tienes un Reaper básico con una serie de complementos y cosas que puedes hacer, y luego eso se podrá ampliar, ¿no? Sí se puede ampliar, pero no tiene nada que ver con la compra o no compra, la compra lo único que hace es quitar ese cartel de que no lo compraste, básicamente. El software en sí, todas las funcionalidades del software son las mismas, lo que uno después puede hacer es utilizar plugins que se llaman, que hay desarrolladores, o sea, son empresas particulares o pequeños desarrolladores, que hay miles por ahí dando vueltas, que un poco extienden ciertas funcionalidades o que añaden herramientas para procesar el audio, para poner efectos. Pero Reaper ya de por sí trae un conjunto que funciona muy bien. De hecho, yo los últimos trabajos que estuve haciendo casi que no utilicé plugins externos, sino que utilicé los propios de Reaper, pero uno siempre puede extender eso mucho más con otro tipo de software, pero el software básico, que es el que vas a tener, es el mismo tanto con la licencia o utilizándolo como demo. Vale, pues si os parece, ¿podemos hacer la diferenciación de qué podemos hacer con Reaper para edición de sonido por una parte y para edición musical por otra? ¿Serían dos una buena separación o estamos hablando de lo mismo? A ver, se puede editar tanto audio como música. La edición musical depende, depende cómo lo hagas. Si tú lo haces a través de MIDI, que ya me parece que hay que explicar lo que es MIDI, pues entonces sí hay alguna diferencia. Si tú la edición de audio lo haces grabando tu guitarra por un micrófono o por línea, grabando tu voz, grabando una batería con micrófono y tal, entonces es lo mismo. Entonces ahí hay poca variación. Hombre, evidentemente no es lo mismo editar un podcast que son voces humanas que son cuatro pistas que editar una música en la que intervienen varios instrumentos, aunque se hayan grabado de manera analógica, o sea analógica me refiero porque no es MIDI, se ha grabado a través de micrófono, porque claro, ahí tienes que mezclar. ¿Para qué? Mezclar significa dar el volumen adecuado a cada instrumento para que sea agradable al oído y tal. Y luego masterizar es intentar subir el volumen haciendo que no haya muchas diferencias entre las partes más altas y las partes más bajas y que se oiga con más fuerza. Eso es a grosso modo lo que es mezclar y masterizar para que se entienda. Las personas que no están metidas en este mundo, pues les sea más fácil de comprender. Cuando editamos música con MIDI, el MIDI es como un estándar. Imaginaros que es una partitura, en la que la información que tiene un fichero MIDI son el instrumento que tiene que tocar y las notas que tiene que tocar, entre otras muchas cosas, tiene mucha más información, pero bueno, no vamos a complicarnos la vida. Entonces, por ejemplo, el fichero MIDI solamente tiene la información de que una trompeta va a tocar las notas Do, Mi y Fa y después probablemente entra un piano tocando las notas Re, Sol y tal. Entonces esto suena. ¿Qué ocurre? Antes se utilizaba mucho, ahora se utiliza menos un estándar y lo traían muchos ordenadores. Tú enviabas esa señal al sistema y el sistema tenía un software que era capaz de sintetizar esos sonidos, el del piano, el de la trompeta, el de la batería y tal. Hoy en día esa información que está en el MIDI, que es al fin y al cabo una especie de partitura, pues si yo sé que aquí hay un piano, yo le pongo un piano profesional, un FX, un VST, un plugin, como queráis llamarlo. Entonces inserto ese piano y sonará ese piano en esa pista. En la pista de la trompeta le pongo una trompeta que suene bien, por software, por supuesto, estamos hablando, y las notas de la trompeta las recibirá ese software y hará sonar una trompeta que ha sido cuidadosamente pregrabada, por supuesto. Entonces es un tema más complicado. Por eso ahí sí varía un poco la edición cuando estamos hablando de MIDI, pero si la música la grabamos en audio solamente es mucho más parecida editar una canción y un podcast. No es igual, pero es algo más parecido porque los dos son audio. De todas maneras, a lo mejor me lía un poco y corrígeme Jera si lo ves necesario. Por ahí lo que añadiría es que sí puede llegar a variar un poco la conceptualización, que la gente por ahí se marea un poquito cuando cambiamos de edición a multipistas. Esta cuestión de tener una sola cosa que vamos a trabajar, en el caso de la edición, con una sola cosa, que cuando tenemos más de un elemento, ahí es donde empieza a ser un poco más lioso y donde por ahí la cosa cambia porque los controles son diferentes, porque uno ya no piensa en algo individual, sino que trabaja con un conjunto de cosas. Cuando surgió la invitación a participar en este episodio junto a ustedes, se me ocurrió la idea de grabar una versión instrumental de la introducción de un podcast. Gafotas, gatos y sus aparatos, no sé si lo conocen. Y esto es lo que quedó en una producción de poco tiempo. Vamos a escucharlo un poquito, si les parece. No es demasiado extenso, dura un minuto nada más. Y después vemos un poquito de qué se trata este proyecto. Eso fue Gafotas y sus aparatos, versión instrumental. Genial. ¿Y cómo suena tan bien? ¿Cómo lo has hecho? Tenemos una gran ventaja hoy en día, a diferencia de hace unos cuantos años, donde solamente podíamos grabar en un estudio o haciendo algo muy casero, con cintas y demás. Hoy en día, con una inversión muy grande, bastante escasa, podemos montarnos un estudio de grabación en casa y con software como REAPER podemos hacer muy buenas cosas. En este proyecto, por ejemplo, me voy a mover por las pistas del proyecto, simplemente con flechas arriba y abajo. Esta pista, la master, es la que recibe todo el audio de todo el proyecto. Es como un master de una consola de audio analógica. Hay una pista de FX que simplemente tiene cargado un efecto, ese efecto de reverberación que escuchan en el saxofón y en algunos elementos de la batería. Una carpeta no es el mismo concepto que las carpetas de Windows, sino que simplemente es un conjunto de pistas que están agrupadas acá en esta pista. El bajo y el saxofón. Esta batería en particular es una batería MIDI, es una de las grandes herramientas que tenemos para poder producir. El MIDI es una especie de partitura bastante más completa que una partitura, porque en ella se designa qué instrumento suena, qué tímbrica, qué banco, con qué intensidad. Hay un montón de información más que tiene, que después va a ser procesada por un instrumento virtual, que a veces son con muestras de audio reales, otras son sintetizadas. En fin, hay muchas herramientas virtuales para trabajar que suenan verdaderamente muy bien. Esta bata en particular suena muy bien. Está tocada por una persona con una batería digital, que en lugar de parches comunes de bata, tiene parches que son de tipo malla, que son de un material especial que detectan el golpe y transforman esa información en MIDI. Lo que después queda plasmado en un archivo MIDI y hace que se disparen este tipo de bancos. Después tenemos la pista de bajo, que está grabado por un bajista real. Es un bajo eléctrico que graba un amigo. Y por último el saxofón. Por ejemplo, si ponemos en solo la pista del saxo, este saxo que grabé hoy, hay un poco las apuradas. Ahí está sonando seco, sin la reverberación, pero si voy a la pista FX y la pongo en solo también, ahora se escucha con esa reverberación. Y también un poquito de la batería de fondo, porque está pasada también por este efecto. En cuanto al procesamiento, no tiene demasiado este proyecto en particular, como tiene pocos elementos. Si está todo un poco comprimido, la compresión es un proceso que nos permite acercar la distancia entre el volumen mínimo y el volumen máximo de un audio, para que quede todo un poco más parejo y podamos ganar un poco de volumen general. Un poquito de ecualización, que es esto de modificar el volumen de las frecuencias que son las que componen un sonido. Todos los sonidos están compuestos por una serie de frecuencias. Nosotros podemos modificar cada una de estas frecuencias para colorear, o para dar un efecto en particular, o para limpiar, o para muchas otras cosas. Solamente tiene eso, después algunos efectos como la reverberación, pero no más que eso. Y con estos simples elementos podemos llegar a lograr un buen resultado. Y esto lo hice en, no sé, lo que tardé en grabar hoy, esto una hora, vamos a suponer, traer el MIDI y pasarlo por un instrumento virtual y grabar. No sé, lo hice en un día, por decir algo. Y este tipo de cosas, cualquier persona, obviamente la curva de aprendizaje está, porque cualquier software de este tipo tiene su curva de aprendizaje. No es particularmente ni mucho más difícil, ni mucho más fácil, Reaper, que otros. Pero sin embargo, una vez que uno se embarca en esto, la verdad es que es algo tremendamente maravilloso. Qué bien. De hecho, el resultado es sorprendente porque impacta, ¿no? Estabas hablando de que esa batería era MIDI y, claro, si el banco de sonido era de una batería de mucha calidad y el que había grabado todo lo que son los pulsos MIDI, lo había hecho con una batería también digital, el efecto final, si no lo dices, es de un baterista tocando a lo tuyo. Sí, sí, sí. Es tremendo. Bueno, y así como esa, a medida como toda la tecnología va avanzando, también van avanzando este tipo de software, los instrumentos virtuales son tremendamente realistas, cosa que a uno como músico también a veces lo preocupaba un poco, alguien que se dedica a la música, que vive de ella. Pero sin embargo, bueno, como pasa con la inteligencia artificial, como pasa con un montón de otras cosas, la parte humana nunca va a poder ser reemplazada en cuanto a la música en vivo, el ver a una persona ejecutando con toda su historia detrás y con toda su impronta arriba de un escenario, eso es algo que no se puede computar y es algo que aún teniendo estos instrumentos maravillosos que suenan cada vez más reales, siempre esa energía que fluye de escuchar a alguien en vivo y alguien real, no una máquina, también está. Y ya me estoy yendo un poco de tema, perdón, pero a lo que voy es que, bueno, el software también ha ido avanzando mucho y hoy tenemos un montón, un montón de cosas al alcance de la mano para poder producir nosotros nuestros proyectos sin necesidad de gastar una fortuna en un estudio, que era lo que pasaba antes, ¿no? Se ha democratizado la cuestión de la producción música. Yo lo que quería decir a los oyentes es que probablemente cuando han escuchado lo que han escuchado tan bien hecho, lo de la música de ese gato y, bueno, el recorrido por las pistas, probablemente mucha gente se haya asustado, tened en cuenta que eso, si queréis empezar con ripes, vais a empezar cortando un trocito de audio, moviéndolo de sitio, añadiendo, cositas muy fáciles. Esto cuando llevéis mucho tiempo lo haréis. O no lo haréis porque a lo mejor no os decantáis por el tema de la música, os decantáis por el tema del periodismo, os decantáis por el tema de los podcasts, de crear relatos, hablados, en fin, todo lo que sea sonido. Es posible hacerlo, efectos de sonido, todo lo que sea sonido es posible hacerlo con riper. Entonces puede dar un poco de miedo escuchar toda esta nomenclatura tecnológica y demás y os puede echar para atrás y decir yo no voy a ser capaz de hacer esas cosas. A lo mejor no las hace nunca, a lo mejor no las necesita y si lo quieres hacer seguro que no va a ser lo primero que haga porque tendrá que pasar tu tiempo para poder aprender poco a poco cómo se llega hasta ahí si es el interés que tiene. Así que de miedo a nada. Lo primero, habéis comentado que este software es como muy profesional, ¿no? ¿Qué haría falta para poderlo instalar? ¿Un ordenador especial? ¿Hace falta tener algún hardware? ¿Hace falta un teclado? ¿Hace falta algo? ¿Quién puede utilizar este software? Riper puede ser descargado desde su página de riper.fm, es como habíamos hablado hasta el momento, se puede instalar sin problemas, no necesita una licencia para probarlo. Si después quieren colaborar con el proyecto, mejor aún. Después, en lo básico para uno poder utilizar esto, no necesita gran hardware, la verdad. Riper es muy liviano. Lo que sí puede suceder es que a medida que uno va utilizando después estas cosas de las que estábamos hablando, estos componentes, plugins, que sí son pesados, o por ejemplo, instrumentos virtuales, este tipo de cosas, sí requieren de más hardware, pero en sí, básicamente, para poder empezar a trastear con Riper, no es necesario ningún tipo de hardware especial. Simplemente con que funcione el sistema operativo ya va a funcionar seguro. Hace falta Riper, el instalador de Riper, 64 o 32 bits, dependiendo de la arquitectura. Osara, obviamente, también están buscando en Google Osara Snapshots, lo van a encontrar. Hay versiones para Mac, versiones para Windows, lo mismo que Riper. Y después hay otra cosita más también que es necesaria, que es una extensión de funcionalidades que se llaman SWS Extensions, que un poco extienden ciertas funcionalidades y son necesarias porque añaden un conjunto de atajos de teclado que después Osara va a utilizar también. Así que esos serían como los tres pasos fundamentales. Añadiendo también que si son usuarios de Josh, van a necesitar un script también. Bueno, eso no sé bien de dónde lo pueden descargar porque no lo utilizo yo, pero calculo que googleando se puede encontrar. Requiere de un software más, de un script más, Josh. NVEA no, directamente funciona ya con Osara y nada más. Solamente con eso ya pueden empezar a jugar con este gran programa. Bueno, muy bien. Y para jugar y jugar con cierto sentido de conocimiento y no ir a tontas ni a locas, para tener alguna base inicial, el poder contactar con algún tipo de comunidad que nos dé indicaciones, también de manuales, formación, puede ser posible en español, que es la lengua que hablamos. ¿Nos podéis explicar qué es lo que debemos hacer? Aquí ya intervengo yo. Perdona, Gera, te añado a lo que has comentado, complemento la información. Si lo quieres poner en castellano, en español, no en castellano, en español, hay también un programita que te lo pone en español. Cuando yo comencé con todo esto no había prácticamente información y la que había era en inglés. Pero hoy en día hay muchísima información, solamente con poner en google reaper accesible va a aparecer muchísima información. Yo comencé en aquel entonces, en el año 19, con un blog que se llamaba reaperaccesible .wordpress.com. No os asustéis con lo que ha dicho Gera en el sentido de que ahora donde descargo reaper y ahora que lo otro, yo no me acuerdo como era. Yo desde el punto de vista psicológico sé que la gente nos agobiamos muchísimo cuando desconocemos una terminología, cuando desconocemos un tema. Bueno, pues en este blog que yo he comentado en reaperaccesible, que está en WordPress, pues ahí hay entradas donde explica lo que hay que instalar, tanto para Windows como para Mac y donde descargarlo, con lo cual no vais a tener inconveniente ninguno. Luego también hay dos canales de YouTube con tutoriales de toda índole, como es reaperaccesibleoficial y reaperaccesibleespañoloficial. Tienen una intersesión de vídeos y otros vídeos que son diferentes en cada uno de los grupos. Y luego existe, que esto fue lo que yo creé en principio con otros compañeros, en el año 19, el 12 de abril concretamente del año 19, que es un grupo de WhatsApp que se llama reaperaccesible. Y bueno, ahí te puedes suscribir tanto si eres usuario de Windows como si eres usuario de Mac. Bueno, suscribirte a un grupo de WhatsApp, no agregarte un grupo de WhatsApp. Y entonces ahí puedes preguntar desde el principio todo lo que quieras. Hay muchísima gente, hay 245 me parece que contabilicé ayer o antes de ayer. Entonces bueno, pues te van a contestar seguro, ¿no? Cómo instalarlo, cómo te van a ayudar. Y probablemente, pues cuando tú sepas, ayudará a los demás. Con una comunidad de ayuda en WhatsApp, un grupo de WhatsApp. No tiene más historia. ¿Cómo me uno a ese grupo de WhatsApp? Pues bueno, pues puede enviar un correo a reaperaccesible, así de fácil, reaperaccesible. Todo junto, arroba gmail.com, con nombre, nacionalidad y número de teléfono. Claro, el número de teléfono es fundamental para que se te pueda agregar al WhatsApp. Y a partir de ahí, ya Reaper está en tu mano. Porque ya en el momento en el que estás en el grupo de WhatsApp, pues puedes obtener toda la ayuda que requiera. Direcciones donde hay tutoriales, tutoriales para lo que quieras y demás. Independientemente de que busques el blog que yo he comentado antes, que ya supongo que lo dejarán en los comentarios de este podcast. Y los canales de YouTube, que también dejarán las direcciones de dichos canales. Así que miedo ninguno. Solamente lo que tenéis que tener es ganas de editar audio. Complementando eso y haciendo un poco de autobombo también. Hay una página que he creado hace un tiempito, que es gera.ar ahora el dominio. Donde, si bien hace un tiempito ya que no estoy subiendo cosas todavía, pero en su momento había creado bastante material, tanto en audio como en texto, para el uso también de Reaper y de varias funcionalidades. Está mezclado con otras cosas también, otras cosas de mi interés, como es la programación y otras cuestiones referentes a los sistemas operativos. Pero también puede ser una opción el entrar ahí. Porque tengo algunos que son para, por ejemplo, hay una que es para principiantes específicamente, donde están listados, están linkeados los diferentes elementos que hacen falta y algunas instrucciones mínimas como para no asustarse, como dice Pepe, y poder arrancar desde ahí. Tienes muchísima razón, Gera. Había olvidado de la página, que es una página, gera.ar, así de fácil el dominio. Gera.ar es una página de referencia. Siempre la tenemos como referencia en el grupo de WhatsApp cuando alguien pregunta, ¿cómo puedo hacer tal cosa? Mira, vete a tal entrada de la página de Gera, porque está explicado de manera muy didáctica. Algunas cosas están explicadas en texto y la mayoría están explicadas en audio de manera muy didáctica y concisa. Y, bueno, se complementa con toda la información que se puede encontrar. Pero estas son informaciones de referencia, porque la wiki de Reaper es una cosa que creo, ya me corregiré, que creo que está desactualizada. Que también está para principiantes, también es otra base de conocimiento que puede servir para los principiantes. Vaya, que falta de material no hay, pero creo que eso sí está muy desactualizado ya. Y cuando comienzas como iniciado, como principiante, pero ves que es lo que te gusta y quieres avanzar en el conocimiento de la herramienta, en este caso Reaper, ¿qué es lo que puedes hacer? Y aprovecho ya y os pregunto también, ¿existe posibilidad de dedicarte profesionalmente a algún tipo de actividad relacionada con la edición, tratamiento, producción, sabiendo manejar esta herramienta? Bueno, desde que se creó el grupo de WhatsApp, yo sé de personas que empezaron con Reaper desde cero y que hoy en día están trabajando en un estudio de grabación con Reaper. Tienen el hardware necesario, los micrófonos, la placa de sonido necesaria, todo el material necesario, pero como centro de edición de ese audio es Reaper y están ganando la vida con eso. Con respecto a tu primera pregunta, digamos, el uso de este tipo de software, que son tan completos y tan complejos también, complejos no para asustarse, sino complejos en el aspecto hasta donde uno apunte a llegar, ¿verdad? Llegar a niveles profesionales, obviamente, como en cualquier otro ámbito, también va a requerir de un cierto esfuerzo, un cierto estudio. Y este software, el requerimiento que uno después va teniendo a nivel profesional, ya tiene que ver más con un estudio de cosas acústicas, por ejemplo, aprender a ecualizar, que es a cómo modificar las frecuencias de un sonido. Un sonido está compuesto por un montón de armónicos y de frecuencias, entonces uno puede ir modificando esa característica, pero aprender a hacerlo con certeza lleva mucho tiempo. Y eso ya va más allá de Reaper y demás, sino que es un aprendizaje que uno tiene que tener, que también se da mucho con la práctica, pero para poder avanzar, simplemente, uno puede complementarlo con estudios de la física, del sonido en sí, o también practicando y practicando y practicando, que es siempre la mejor escuela. Y ya otra pregunta, me la olvidé. ¿Te iba a decir algo al respecto de eso? ¿Existe algún tipo de formación más profesional? Ya no te dedico, no digo que se dediquen con ello a una profesión, sino que sea lo que sería un método avanzado. Mira, hay un pequeño problemita con esto, que no tiene nada que ver con Reaper en sí, sino que es costoso. Para poder uno montarse, mi idea, inclusive, hace muchos años fue montarme un estudio de grabación, pero ustedes sabrán también que han invertido para escucharse bien, como se están escuchando ahora. Imagínense que para un estudio de grabación es muchísimo más. Estamos hablando de nivel profesional. Para tener un home studio, como el que tengo yo, como el que tenemos muchos, la inversión no es tan grande, es bastante menor. Va a depender de qué tipo de cosas nos compremos. Pero para poder trabajar de esto, por lo menos montarse un estudio propio. Después de ir a trabajar a otro lugar ya es otra cuestión. Y sí, es verdad, como dice Pepe, hay algunos casos. Este caso de este muchacho inglés, creo que es, o yank, no me acuerdo, pero que él trabaja profesionalmente hace muchos años, y está utilizando Reaper a full. Esa es su estación de trabajo principal. Y ahí, en esa lista, conozco que hay también mucha gente que está trasteando ya hace muchos años con esto, y está trabajando profesionalmente. Sea para trabajar con alguien, o sea para alguna cosa concreta, no solamente para hacer música, por ejemplo, sino podría hacerse para una banda de sonido de una película, o podría utilizarse para efectos de sonido de radio, por ejemplo. Cuñadas publicitarias, ¿no? Exactamente. Sí, sí, sí. De hecho, en el grupo creo que hay varios, José, que trabajan haciéndose, haciendo eso, que también es una herramienta maravillosa para ese tipo de cosas. Sí, sí. Hay periodistas, hay personas que se dedican a la radio, personas que se dedican a la publicidad. Es que como es tan amplio el espectro de las posibilidades que nos brinda Reaper, y hay personas que se dedican, bueno, tienen un estudio de grabación, como es el caso de Beto Berbara. Beto Berbara creo que conoció este grupo de Reaper a través del blog que yo he comentado antes, del blog que yo comencé a alimentar, que hoy en día no lo sigo alimentando porque ya hay demasiada información, ¿no? Y porque me da pereza. Pero además de eso, Beto Berbara tiene su estudio de grabación y utiliza a Reaper como editor. Entonces, él está viviendo de esto y hay más personas, más personas, creo que Marcelo, no lo sé exactamente hasta qué punto, Hugo creo que estaba, no sé si lo ha terminado de montar, que estaba montando también un estudio de grabación. En fin, y eran personas que partieron desde cero, sin conocimiento. ¿Marcelo Sosa? Sí, Marcelo Sosa de Argentina también. Hugo Macías de México. Ellos empezaron desde cero y empezaron con Reaper, por eso insisto tanto en que no tengáis miedo a la terminología porque es lógico que ahora no la conozcáis. Pero si estáis, si tenéis interés, seguro que llegaréis hasta donde queráis llegar. Es que no hace falta llegar hasta ningún punto. Simplemente disfrutar el camino y ya está, ¿no? Es un muy buen punto ese que dice Pepe porque en este tipo de plataformas que son tan, tan amplias, es como la música en sí mismo. Uno cuando piensa en la música no piensa en ser un concertista. Uno quiere disfrutar de tocar un instrumento y si me aprendí tres canciones y soy feliz con esas tres canciones, adelante. Nadie tiene por qué rendir cuentas de nada. Simplemente uno aprende hasta donde quiera, hasta las necesidades, para cubrir esas necesidades que uno tiene. Y el software permite tanto una cosa como la otra. Tanto poder editar algo muy simple, poder cambiar de formato un archivo, poder crear un videíto y nada más, poder entrar a niveles de producción musical muy buenas, trabajar de esto y un montón de otras cosas. Bueno, pues a mí me gustaría saber, con REAPER como editor de sonido, editor de audio, qué versatilidad tiene, qué capacidad de movimiento nos permite dentro de lo que son las pistas, qué curiosidades nos ofrece, qué es lo que podemos hacer. Bueno, hacer podemos hacer de todo. Como dije antes, solamente la imaginación es la que pone el límite en cuanto a audio, video, foto. Bueno, foto no. Puedes hacer un video con foto, pero retocar una foto no puedes. Y puedes retocar un video a nivel de su sonido. O sea, tú lo que no puedes es, como diría yo, no es un editor de video, lo único que ocurre es que tiene la capacidad de soportar video. Entonces tú puedes recortar un video, quitarle una parte, mezclarlo con otro, todo eso sí puedes hacerlo. Quitarle el sonido de ese video y ponerle tu sonido propio. Pero bueno, no es un editor de video. Y con foto, lo que expliqué antes. Eso puede hacer de todo lo que tú, con el audio, con la música, de todo lo que tu imaginación será la que ponga el límite, lo que tu imaginación quiera. En cuanto a capacidad de movimiento, bueno, tú puedes moverte por un audio pues a nivel de décima, centésima y milésima de segundo. Incluso si estás tratando con video por frames, que son cuadros. Te puedes mover por compases y tiempo. Eso es para los que sepan de música. La capacidad de movimiento es tan fina, tan fina, que puedes llegar a sincronizar hasta la milésima de segundo. La versatilidad que tiene en cuanto a movimiento pues es brutal, ¿no? Puedes desplazarte al punto donde quieras. Puedes, si hay un silencio, por ejemplo, puedes saltar a donde, de nuevo, el silencio no existe. O sea, ya hay sonido. Es una cosa que se llama transiente. De manera que en un audio largo, imagínate que, no sé, que grabas una noche, ¿no?, en algún sitio, algún sonido que se produzca en la noche. Entonces, claro, evidentemente, no vas a estar escuchando las ocho horas, ¿no? Tú puedes buscar donde se han producido los sonidos, en qué tiempo se han producido, marcarlo, en fin, mil cosas puedes hacer con todo eso, ¿no? No sé, es que no sabría qué decirse. Me abrumo en el sentido de que son tantas las cosas y además cosas interesantes y cosas muy curiosas que puede hacer Reaper sin complicarnos, ¿no? Desde el punto de vista profesional puede hacer muchísimas más cosas. Pero así, de manera básica... Bueno, os comentabais que estabais casi sacando información de la onda, ¿no?, en decibelios y demás, un poco para tener ese feedback, ¿no?, de cómo estaba quedando lo que estabais introduciendo, ¿no? Claro, puedes sacar información antes de tú empezar a grabar de a qué nivel estás grabando. O sea, tú te estás dando información, o Sara, completamente de accesibilidad, de lo que la gente llama embúmetros, que ven unas barritas que suben y que bajan en función de la fluctuación que hace el sonido. Pues tú sabes a qué nivel exacto, a menos 3,5, a menos 3,4, estás llegando y puedes graduar eso. Pero no solamente te dan la información en, bueno, la dan decibelios en los picos más altos, sino en otros muchos valores que ahora no vamos a entrar, ¿no?, pero en otros muchos valores que se utilizan hoy en día para poder grabar el sonido. Y que, bueno, Gera, añade más cosas porque ahora mismo no se me ocurren más curiosidades. Ahora que estabas hablando de eso también me acordé que un poco lanzaste la pregunta si esto se podía hacer antes. KBook, por ejemplo, lo permitía hacer, pero no al nivel de Reaper Porque lo que te permitía el Keybook era, si vos te pasabas de un cierto umbral, que era el umbral de saturación, digamos, en el audio se trabaja siempre en números negativos, cuando llega al cero, que ese sería como el volumen máximo que un audio puede tener sin romperse. Te avisaba cuando ya rompías. Pero este nivel de conectar un micrófono a una placa de audio generalmente, que tiene un preamplificador, que se llama una perillita que sube o baja el volumen, que está entrando a la placa de sonido, vos con REAPER podés saber que en tus pruebas, sea cantando, sea hablándose, lo que sea, cuál fue tu nivel máximo. Entonces vos podés ajustar también esa parte que es importantísima a la hora de grabar, porque siempre es conveniente grabar al máximo volumen posible, para evitar ruidos y para evitar cosas referentes al audio electrónico, el audio analógico, que es realmente muy, muy importante el poder tener acceso a eso. Otras cosas, por ejemplo, ya sin siquiera entrar en cuestiones que tienen que ver con edición de audio, en mezcla, por ejemplo, algunas cosas que suele usar la gente, o que mismo yo también utilizo a veces, es el modificar una pista. Por ejemplo, descargamos algo de YouTube, una pista de acompañamiento, un karaoke que le llaman, pero está en una tonalidad que nos hace gritar como una ardilla o nos queda muy grave, queremos modificar, y eso es muy, muy fácil con REAPER, simplemente cargando la pista y con un comandito, es decir, un semitono, dos semitonos para arriba, tres semitonos para abajo, exportamos eso y ya tenemos esa canción que habíamos descargado y que en principio no nos servía, podemos utilizarla porque la podemos acomodar a la tonalidad que nosotros querramos. Pasa algo similar con la velocidad, supongamos que, no sé, no quería contar esta incidencia, pero a veces estoy sacando algo de oído y es medio complicado, entonces lo que hago es disminuir la velocidad de eso que estoy escuchando para que me sea más fácil para escucharlo y para poder sacarlo. También es lo mismo que el cambio de tonalidad, con un simple atajo podemos descender la velocidad de algo sin que se modifique la tonalidad, por ejemplo. Y eso es muy importante para un montón de cosas que uno puede utilizar diariamente. Otra cosa, por ejemplo, es la conversión de formatos de archivo. Supongamos que tenemos, no sé, un montón de videos en una carpeta y tenemos que pasarlos a MP3, y es medio engorroso hacerlo uno por uno, hay una cosa que se llama conversión por lotes, que ni siquiera hace falta cargar los archivos a REAPER, simplemente desde la interfaz tenemos una opción en el menú archivo nomás que ya nos permite seleccionar una carpeta y todo lo que está ahí convertirlo a lo que nosotros querramos, a lo que soporte el software. Ese tipo de cosas son realmente interesantes y no tienen por ahí tanto que ver con el tema de editar y demás, que ya un poco hemos hablado a lo largo de esta charla de todas estas posibilidades, tanto musicales como de la creación o edición de un podcast, como de radio aficionado, como, bueno, muchas de estas otras cosas. Así que las posibilidades son muchas. Incluso la creación de un podcast incluso te permite poder crear con metadatos los capítulos dentro de un audio en MP3, por ejemplo. Muy buen dato, mira. Es verdad. Me había olvidado de eso. Exactamente. Me resulta curioso que estáis hablando de tantas acciones que a través de OSARA y con combinación de teclas os permite REAPER, pero vamos, yo sé que tenéis una alta capacidad mental para recordar muchas, pero tienen que haber cientos. ¿Cómo conseguís cuando no recordáis algo acceder de forma rápida y tener esa información? Es una muy buena pregunta. Y tenés una ayuda de teclado, como tienen algunos software, como el NVDA mismo, que vos activando esa ayuda después podés toquetear todo lo que quieras, que no va a pasar nada. Simplemente si encontraste alguna acción, te la va a verbalizar. Esa es una de las maneras. Hay documentación también en la que uno puede ayudarse un poco. No fuimos entrando en todas las posibilidades internas de REAPER, porque realmente sería muy largo, pero hay una cosa que se llama lista de acciones, porque cada cosa que nosotros hacemos en REAPER es una acción. Está asociada a un atajo de teclado, muchas de ellas, inclusive bastante pocas, comparándolas con la cantidad que hay. Que simplemente pulsando F4 en la interfaz tenemos una lista completísima de todas las cosas que se pueden hacer. Y esas acciones, pulsando Intro, se ejecutan. No es la forma de usar REAPER, porque sería muy engorrosa usarla así, pero también nos puede servir para, por ahí, si no sabemos cómo se hace cierta cosa, hay un buscador ahí, podemos poner, no sé, eliminar, y entonces nos van a aparecer todas las acciones asociadas a la palabra eliminar. Y de hecho podemos hacer un remapeo completísimo y sacar todos los atajos de teclado que hay y remapearlo a lo que nosotros querramos. Cosa que no es conveniente para nada, porque después cada vez que hay un cambio de distribución de teclado, nos tenemos que reaprender o reacomodar todo de vuelta, pero sí está esa posibilidad. Claro, porque no todas las acciones están asociadas a combinaciones de teclas, porque las acciones pueden ser miles y las combinaciones de teclas, pues no hay tantas combinaciones disponibles. No alcanza teclado para poder hacer tanta combinación. Entonces uno puede personalizarlo por las que más utilice o las que quiera, pues lo puede personalizar a su gusto. No digo que hasta ese punto, que tantas combinaciones, estamos hablando de teclas, para que un teclado no sea capaz de asumir todas las cosas. Sí, te aseguro que la lista de acciones es tan grande que no te alcanza el teclado. De hecho, una de las funciones maravillosas que añadieron Benozara o Unreaper, es que vos podés crear tus propios mapas de atajos de teclado. Entonces vos te creas un mapa para, por ejemplo, edición, que vos sabés que vas a utilizar ciertas acciones. Entonces te creas tu propio mapa para cortar, eliminar, todo lo que tenga que ver con edición. Después te haces otro mapa que es para mezclar solamente. Entonces pones todas tus acciones, le pones atajos de teclado a todo lo que quieras, solamente, o que te quede incómodo esa voz en los atajos de teclado para que no te quede. Tienes que usar las manos de los pies y de las manos para hacer un atajo, porque a veces pasa que son tantas las combinaciones que no te alcanzan los dedos. Bueno, vos podés remapear y crear tus propios atajos y tus propios mapas. Eso está buenísimo. De cualquier manera, las acciones que más se utilizan, primero es que llega un momento que te las aprendes. Por supuesto que te aprendes sus atajos de teclado, porque evidentemente tú no utilizas cien acciones diferentes. Utiliza cortar, mover, lo que sea. Es que son las más comunes y al final te las aprendes. Pero si no te las quieres aprender porque son acciones que no utilizas muy a menudo, la puedes poner en el menú, la puedes añadir al menú, al menú edición, al menú que quieras. Tiene un menú, una barra de menú, como todas las aplicaciones, y tú la añades donde quieras, porque no quiere aprenderte ese atajo de teclado. Que hay una acción que no tiene atajo de teclado y tú la usas mucho, tú le añades el atajo de teclado que tú quieras. O sea, es que hablar de esto, la versatilidad es tremenda, es completa. Por eso puede apabullar, escuchar tantas cosas que hace Reaper, pero Reaper hace lo que quieres tú que haga. Y en el momento que quiera que lo haga y hasta el punto que quiera utilizarlo. Pero sí, sí, tiene toda esa potencia. Podemos hablar de miles, de miles de acciones que tiene Reaper. 3.000, 4.000, no lo recuerdo exactamente cuántos son. Evidentemente no hay combinaciones de teclado para eso, pero tampoco se utilizan todas esas acciones. Lo que sí se puede hacer con esas 3.000, y ya si eres más avanzado, es hacer una acción personalizada, que es, pues no lo sé, imagínate que yo normalmente lo que hago con el audio es cortar este trozo aquí, ponerlo al final, subirle el volumen, no sé, una serie de acciones que siempre la hago. Una rutina, pues esa rutina yo la puedo unir todas las acciones en una sola, asignarle un comando de teclado, y es como si hubiera hecho un programita. Todas esas acciones se ejecutan de manera secuencial, tal como yo lo hice, y a lo mejor algo que yo hubiera tardado 5 minutos en hacerlo, pues lo hacen en un golpe de teclado. Entonces es que es muy versátil. 6.359 acciones. Gracias. Un poquito. Si fueran del banco de Santander seríamos ricos. Tal cual. Pero no son acciones nomás. Pues yo creo que hemos dado un muy buen repaso a REAPER y a la edición de audio en general. Yo creo que podemos ir terminando el episodio. Si te parece, Ricardo, podemos hacer un resumen. Pues sí, yo voy a poner ahora en rótulos cuatro nombres propios. Creo que hay que destacarlos porque al final nos han facilitado la vida con esta aplicación. El primero es el señor Justin Frankel, que hablamos que en finales de los 90 desarrolló Winamp, y en 2004 montó la empresa Coco y empezó con su REAPER, que es el programa que nos ocupa en este episodio, ya publicándolo en 2005. Así que muchas gracias, señor Justin Frankel, por todo esto. En 2014, Javier Robledo tradujo el interfaz de REAPER al español. Esto también es accesibilidad, porque acceder a tu idioma facilita mucho lo que es el uso de cualquier software y programa. Si lo haces encima con dedicación y con sensibilidad y gusto, pues también se agradece mucho. Así que muchísimas gracias. También hay que poner en los rótulos, y en grande, el nombre de James T. Sabéis que este hombre era junto a Michael Garren, que desarrolló NVIDIA, N-V-D-A. Y en este caso hizo OSARA, que es este complemento tan maravilloso que le dota de accesibilidad o mejora la accesibilidad para lectores de pantalla con REAPER. Y el cuarto nombre, y tenemos el honor de tenerlo aquí, es José Manuel Fernández Cortés Pepe, que un día descubrió la aplicación. Lo primero que hizo fue montar un blog REAPER accesible, y su experiencia la compartió con la comunidad. Pepe habitualmente, todos los proyectos que ha hecho en su vida han sido proyectos altruistas y generosos. Siempre ha compartido todo el conocimiento con la comunidad, y esta vez no iba a ser menos. Y al mismo tiempo montó una comunidad, un grupo en WhatsApp, también de REAPER accesible. Y además tradujo, y está traduciendo, porque aún lo mantiene al español, OSARA, que es el complemento ese de James T. Con lo cual también, Pepe, muchísimas gracias. Y estos son los cuatro nombres que, aunque los hemos nombrado a lo largo de la conversación, yo quería destacarlos ahora aquí al final, y así queréis vosotros seguir recordando lo que hemos tratado. Bueno, hemos pasado un poquito por arriba de las posibilidades de REAPER, que son muchas, a veces un poco abrumadoras. La idea, como se dijo en algún momento, no es vender el producto. Simplemente es contar un poco lo que se puede hacer, de todas las cosas que se pueden hacer, para invitar a que la gente no le tenga miedo, asusta, sí, la verdad. La curva de aprendizaje tiene sus bemoles, pero, sin embargo, son tantas las posibilidades que nos da, la independencia que nos da con un montón de cosas, que realmente vale mucho, mucho la pena. Y va a depender siempre de las ganas que cada uno tenga. No hay impedimentos en esto, simplemente las ganas de aprender y todo lo demás. Así que hemos repasado un poquito cuáles son esas cosas que se pueden hacer con REAPER, tanto a nivel edición como a nivel musical, con multipistas y proyectos, utilizando audio, utilizando MIDI. Andá interrumpiéndome José vos también. Hemos hablado también de cómo un poco surgió todo esto, desde dónde vino, desde la creación con la empresa de Cocos, y después el desarrollo del primer script que no fue Zara, que fue otro, pero que un poco dio el empujón inicial para saber que esto se podía hacer y qué maravilloso que era poder utilizar algo con accesibilidad, que era algo que venía faltando. Hemos hablado también de todas estas cosas que se pueden hacer, que se ofrece, de la gratuidad en sí del producto, aunque no es gratis en sí. Ahí dice que REAPER no es gratis, sin embargo se puede usar libremente, sin restricción. Esto es importante también, siempre que se pueda apoyar este tipo de proyectos que son tan importantes para la comunidad en general, pero también para la comunidad ciega, y si uno tiene la posibilidad de aportar, es muy importante que lo haga, para que este tipo de cosas sigan funcionando y tengamos la posibilidad de seguir con ello. ¿Qué más José? No lo sé, pues hemos hablado de las posibilidades curiosas que REAPER brinda, de las cosas más curiosas que puede atraer a la gente, que le puede llamar la atención. Y así hemos acabado más o menos el episodio este, hablando de esas curiosidades, de esas cosas que puede hacer, algunas de las cosas que puede hacer, que seguro que se nos quedan muchas en el tintero y a lo mejor algunas muy importantes. Pero bueno, hemos intentado hablar de algunas de ellas. Y bueno Ricardo, primero gracias por los elogios y segundo que se puede explicar más alto, pero no más claro todo lo que has explicado con la claridad y el orden que lo has hecho. Y nada, pues ya quedarán escritos en las notas del podcast todas las direcciones que hemos dado, el blog, los de Gerard, los canales de YouTube, los sitios donde podéis recabar información, la dirección de correo donde tenéis que escribir por si queréis agregaros al grupo de WhatsApp. Y nada, eso lo único que hace falta es ganas. Exactamente. Y se nos ha olvidado yo una magnífica demostración que nos ha hecho Gerard con la música de Gafotarce y Gatos y sus aparatos, que también la vamos a colgar en las notas para el que quiera escucharla y la escuche completamente. Pues muchas gracias Pepe, muchas gracias Gera por haber compartido hoy con nosotros esta tertulia acerca de la edición de audio. Y bueno, pues ya vamos terminando. Os emplazamos a que si os ha gustado el episodio pues nos pongáis un comentario en cualquiera de las plataformas donde lo estéis escuchando este episodio y damos los medios de contacto. Pues muy bien, nuestros medios son gafotas.com .es, el correo electrónico y el WhatsApp para mensajes de texto o de audio en el más 34644640792. Muy bien, volver a agradecer a Pepe y a Gerard que hayan accedido a colaborar y contribuir en este episodio. Nos ha estado muy a gusto. Gracias, gracias de verdad. Y a todos los que nos estáis escuchando, muchísimas gracias por llegar con nosotros hasta aquí, hasta el fin del episodio. Os esperamos en el próximo. Así que adiós. Adiós. Subtítulos realizados por la comunidad de Amara.org Podcast, podcast.
Gafotas, cegatos y sus aparatos #11
Fecha: miércoles, 12 de febrero de 2025, a las 00:00:00
En este episodio, nos adentramos en el fascinante mundo de la visión artificial y las IA multimodales, junto a Danais y Roberto. Analizamos cómo estas tecnologías están transformando nuestra vida diaria y, en particular, su impacto en la accesibilidad y autonomía de las personas ciegas o con baja visión.
Temas que abordamos en este episodio:
-La evolución de la visión artificial y su aplicación en la vida cotidiana.
-Los chatbots de IA con visión: cómo funcionan y qué pueden aportar a la autonomía de las personas sin visión.
-IA multimodal y visión en tiempo real: una revolución en el acceso a la información y la descripción del entorno.
-Aplicaciones específicas para personas ciegas: exploramos herramientas como ChatGPT con Visión, Gemini 2.0 Flash y Ally de Envision, enfrentándolas a la misma tarea y analizando sus capacidades para localizar objetos en una escena.
Charlamos sobre el impacto real de esta tecnología en el reconocimiento y descripción del mundo que nos rodea, evaluando sus ventajas, inconvenientes y limitaciones en términos de autonomía y accesibilidad.
No te lo pierdas: descubre cómo la visión artificial está cambiando las reglas del juego.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
La evolución de la visión artificial – Emergent Vision Technologies.r
IAS multimodales y sistemas de visión artificial por IA en tiempo real.
OpenAI lanza el modo Visión en Tiempo Real y Compartir Pantalla en Europa – GPT Zone.
Página oficial de ChatGPT de OpenAI.
Página oficial de Gemini de Google.
Descarga el documento para configurar Gemini 2.0 Flash en tu iPhone
Incluye el prompt personalizado de Roberto
y el atajo de Manuel – Formato Word.
Página
oficial de Lea, personaje de Ally (asistente Beta de Envision) – Traducida al
español.
Meta presenta Llama 3.2: es multimodal y tiene voz propia – WIRED.
Prueba el chat de Meta AI desde su sitio web.
Aplicaciones específicas de visión por IA para personas ciegas o con baja visión
Artículo sobre Be my eyes en SucDePoma.
Be My Eyes, servicio de voluntarios e IA descritptiva (Página oficial en español).
Seeing AI – Aplicación multifunción con OCR y reconocimiento de imágenes (Microsoft).
Aira – Asistencia visual remota con agentes profesionales (Inglés).
Oko – Reconocimiento de
semáforos - Detectando el
semáforo (en verde o en rojo) con la app OKO, A Ciegas – AliBlueBox (YouTube).
Lookout
– app para la Visión asistida - Aplicaciones en Google Play.
Créditos:
Duración: 01:19:59
Descripción detallada del logo de Episodio 11. Veo, veo... ¿Qué ves? Visión en tiempo real para asistirnos en el día a día.
La imagen presenta una escena de estilo cómic retro en blanco y negro con un alto nivel de detalle y trazos gruesos. En ella, dos personas con una apariencia sofisticada y moderna están interactuando con dispositivos tecnológicos en un entorno interior elegante. El personaje masculino en primer plano es un hombre con un aire de misterio y confianza. Lleva unas gafas de sol redondas con un marco grueso, un abrigo con solapas amplias y una bufanda gruesa enrollada al cuello. Su cabello es rizado y voluminoso. Está usando unos auriculares grandes y envolventes, que refuerzan la sensación de que está sumergido en el mundo digital. Su expresión es seria y determinada. Sostiene un smartphone con un diseño moderno en una mano y está realizando un gesto con el índice de la otra, como si estuviera interactuando con una interfaz táctil en el aire. Junto a él, una mujer con un look igualmente sofisticado se encuentra en segundo plano. Lleva gafas de sol similares a las del hombre y unos auriculares de gran tamaño. Su cabello es largo y ondulado, y viste un top sin mangas con un collar grueso en el cuello. Su expresión es relajada pero atenta, como si estuviera escuchando algo con interés. Se lleva una mano a los auriculares, como si estuviera ajustándolos o reaccionando a algún sonido. Sobre la mesa, en el centro de la imagen, se encuentra un altavoz inteligente de la marca "Sonos". Es un dispositivo cilíndrico con una rejilla metálica en la parte inferior y un panel superior con botones táctiles. Su presencia sugiere que el ambiente está lleno de sonido y tecnología conectada. En el fondo, hay una ventana con cortinas, que deja entrever un paisaje exterior con montañas o colinas a lo lejos. También se pueden apreciar detalles de la decoración del interior, como un cuadro en la pared, una lámpara y muebles modernos. La escena evoca una estética futurista con una combinación de elementos clásicos del cómic noir y un estilo tecnológico contemporáneo. El dibujo tiene un trazo firme, con un uso detallado del sombreado mediante líneas y puntos, lo que da profundidad y textura a la imagen. El contraste entre las sombras y los brillos está bien trabajado, aportando una sensación de volumen y realismo dentro del estilo ilustrado.
Transcripción de Episodio 11. Veo, veo... ¿Qué ves? Visión en tiempo real para asistirnos en el día a día.
Bienvenidos al undécimo episodio de tu podcast favorito. Buenas, Ricardo. ¿Qué tal, Arturo? Pues con muchas ganas de comenzar este episodio número 11 y con una temática que a mí particularmente me encanta. Sí, repetimos o tripitimos IA, ya llevamos varios episodios y los que nos quedan, porque bueno, para bien o para mal, pues es lo que está de moda últimamente y va a dar mucho más que hablar, ¿no? Como ya hemos comentado en episodios anteriores, yo creo que ya va a cambiar el mundo tal y como lo conocemos más pronto que tarde además. Así que cuanto más sepamos de esto y por lo menos estemos al tanto de lo que hace, lo que no hace y podamos utilizarlo, pues mejor será para todos. Sí, pero en este episodio vamos a hablar de la IA, pero de una parte de la IA que sobre todo para las personas sin resto visual funcional, pues resulta muy interesante porque es la visión artificial. Es decir, nosotros el sentido del que carecemos es el visual, con lo cual cualquier tecnología que pueda suplirlo o pueda asistirnos es magnífica y de esto vamos a hablar. Sí, eso es. Es una parte muy interesante, ¿no? La IA tiene muchas ramificaciones o es capaz de hacer muchas cosas dependiendo de los modelos, como ya hemos comentado alguna vez, y el de la visión es impresionante, ¿no? Como es capaz de, en los dos sentidos, ¿no? Tanto de pintar, de dibujar, de hacer imágenes hasta de escribirlas, como poder saber lo que hay en una imagen, reconocer objetos, reconocer fotografías, es impresionante. Sí, y no es tan antiguo el tema de la visión artificial. Realmente dentro de lo que es la tecnología y la propia inteligencia artificial tenemos que retroceder al siglo pasado, pero a los años 60 para empezar a hablar de visión artificial. Sí, ha ido evolucionando, yo creo que en poco tiempo, porque de los años 60 a esta parte pues eso, no ha pasado nada. Desde que inicialmente se reconocieran por ahí unas luces o reconocer una equis o algo así. Inicialmente, bueno, todavía no, pues afecta mucho el brillo, el contraste, el color, hay muchos factores que pueden influir y en aquel momento pues la tecnología, la velocidad de proceso, la memoria y demás, no era todavía lo suficientemente avanzada como para poder hacer, pero los modelos matemáticos y tal y los algoritmos pues ya inicialmente estaban, al menos en teoría, y según ha ido avanzando pues toda la tecnología ha ido un poco de la mano y hemos llegado hasta el punto en el que estamos hoy en día. Sin duda, de hecho hubieron dos hitos muy importantes, uno fue en 1959, un grupo de neurofisiólogos que estuvo observando cómo era la visión de un gato y entonces monitorizaron el cerebro y se dieron cuenta que lo primero que percibía eran los perfiles de las cosas y a partir de ahí empezaron ya a realizarse estudios y desarrollos. Y luego dicen que si es el padre de la visión artificial, realmente es un hombre dentro de la tecnología que ha estado situado en eventos, en desarrollos muy increíbles, como es Larry Roberts, que este hombre es el creador de ARPANET, que todos conoceremos porque parece ser que es la precursora en parte de internet y Larri sí que fue el primero que consiguió hacer una cosa que le llamaba el mundo de microbloques y fue la primera vez que conseguí que un universo externo, digital, fuera entendido, comprendido y visto desde otra perspectiva por un computador, por un ordenador, a través de un programa y bueno a partir de aquí empezó todo. Bueno siempre hay muchas anécdotas, sobre todo cuando está comentando una nueva tecnología. Parece ser que al principio pues para entrenar los modelos de imágenes les enseñaban fotografías con caballos y detrás del caballo pues había una verja de madera y más adelante pues enseñaron una foto con una vaca y dijo que era un caballo porque detrás tenía esa misma verja de madera. El contexto, todo lo que hay alrededor de la imagen pues todavía en los principios pues no era capaz de diferenciarlo, que todavía hoy en día se equivoca en muchas cosas, todavía no es de todo fiable. En principio la inteligencia artificial aplicada a la visión no es otra cosa que un sistema con el que tenemos una lente, con esa lente captamos unas imágenes normalmente bidimensionales. Esto entraría dentro de lo que es un sistema de computación, de preprocesado y de procesado posterior y a partir de ahí se aplicarían una serie de algoritmos que se pueden entrenar y demás para reconocer en principio patrones y posteriormente muchas cosas más. Lógicamente le afecta la iluminación, le afecta el enfoque, le afecta todo y bueno se le han dado un montón de aplicaciones a la visión artificial. Inicialmente se utilizó en la industria para pues simplemente para por ejemplo construir coches, identificar piezas y demás y ubicarlas, también para discriminar alimentos por tamaño, bueno todo lo que sería este tipo de visión artificial en la robótica, luego también para los robots móviles y bueno y para un montón de máquinas que lo que hacen es pues o vigilarnos o reconocer nuestras caras y demás. Todo esto es visión artificial pero existe una aplicación que es de la que vamos a hablar hoy que nos ha permitido pues la visión artificial a través de la inteligencia artificial multimodal y para eso tenemos dos invitados que nos van a hablar de ella. Eso es, vamos a aterrizar de lo teórico a lo práctico que yo creo que nos interesa a todos que puede hacer esto por nosotros en el día a día y para esto pues tenemos a dos invitados. En primer lugar, bueno repite, no le debimos de tratar muy mal, que vuelva a estar con nosotros Roberto, muy buenas, ¿cómo estás? Muy buenas Arturo, buenas Ricardo, contento de estar aquí otra vez hablando con la audiencia de los EGATOS. Muchas gracias. Bienvenido Roberto, hola Danáis, bienvenida. Hola Ricardo, hola Arturo y bueno por primera vez, espero que tampoco sea la última, gracias por la invitación. Muchas gracias. Muchas gracias. Bueno pues nada yo creo que el principio de lo que podemos hablar ya es de que porque lo hemos nombrado antes pero tampoco tenemos muy claro lo que es, que es una inteligencia artificial multimodal, que parece ser que es lo que está de moda. Bueno, es un término bastante grande, inteligencia artificial multimodal, ya se sabe, ya lo han tratado ustedes aquí en el podcast antes, la inteligencia artificial es un intento, la pretensión de codificar la inteligencia, de encontrar sistemas o de desarrollar sistemas que sean capaces de imitar hasta cierto punto los procesos de pensamiento de una persona, lo cual es bastante lejos de la realidad, pero es lo que inspira esta idea de inteligencia artificial y específicamente cuando hablamos de inteligencia artificial multimodal a día de hoy, en el contexto en el que esas frases se usan, se habla en realidad en el contexto de los modelos de lenguaje, de los grandes modelos de lenguaje sobre todo. Modelos de lenguaje, pues hay que pensar en tecnología como ChatGPT, que seguramente todo el mundo aquí ha usado o ha oído hablar de eso, y ChatGPT es una aplicación, es un chatbot que tiene como su esencia lo que lo hace funcionar, es un modelo de lenguaje que se llama, bueno, GPT en sus diferentes versiones, que es un modelo de lenguaje pues una representación computacional del lenguaje humano. En otras palabras, un sistema capaz de, dado una frase, predecir cuál es la frase más probable que una persona diría o escribiría después. Si te preguntamos cuál es la capital de España, pues lo más probable es que alguien responda Madrid, pues un modelo de lenguaje que ha sido, entre comillas, entrenado, y digo entre comillas porque en inteligencia artificial se usan muchos términos que tradicionalmente se han usado en el mundo académico como analogía a procesos que en realidad son típicos de la mente humana, como puede ser eso mismo, de entrenar algo o aprendizaje, que en realidad significan algo bien diferente. En el contexto de la inteligencia artificial, pero que se extrapola. Entonces, pues, en el caso de los modelos de lenguaje, se les, entre comillas, de nuevo, entrena con grandes cantidades de texto, de manera tal que puedan eventualmente encontrar patrones y a través de un sistema probabilístico, pues predecir cuál es la frase más probable que viene después. Se adquiere la continuación de la que sea que se le dé. Entonces, así empezaron los chatbots que conocemos a día de hoy, tipo GPT, y en principio sólo podían trabajar con texto, GPT-3, GPT-3.5, sólo podían entender frases en texto hasta GPT-4, que GPT-4 ya fue el primero de estos modelos capaz de combinar imágenes y texto en el mismo modelo, en la misma, bueno, no voy a decir en la misma red neuronal, pero digamos que el modelo fue capaz de combinar en una entrada y una salida texto, sobre todo en la entrada inicialmente, el texto y imágenes. Digamos, podrías preguntarle, ¿quién es esta persona? Acompañado de una imagen, por ejemplo, de una figura pública, de alguien famoso, y en teoría el modelo era capaz de identificarla, o, por ejemplo, pasarle la imagen de una serie de objetos y decirle, bueno, identifícame todos los autos, ¿cuántos autos hay? Y el modelo era capaz de responder, pues decirte, bueno, hay cuatro autos. Y esta es la idea de la inteligencia multimodal en principio, son imágenes o modelos capaces de trabajar en distintas modalidades, ya posteriormente pueden hacer más que imágenes y texto, ya los modelos actuales como GPT-4o son capaces también de combinar esto con audio. No sólo puedes darle instrucciones al modelo a través de cadenas de texto, escribiendo o usando sistemas de transcripción, sino que directamente pueden aceptar como entrada audio, directamente un fichero de audio o un flujo de audio con alguien hablando y darle respuesta no sólo en texto o una posible imagen generada, sino también en audio. El modelo mismo es capaz de generar audio y responder. Y así llegamos a las inteligencias multimodales, de las que todo el mundo habla a día de hoy. Y esto, por aterrizarlo todavía más, ¿dónde se usa? ¿En un ordenador? ¿En un móvil? ¿Hay diferentes marcas? ¿Diferentes sabores? Pues se puede usar en todo lo que has dicho antes. Puedes utilizar estos modelos en un móvil, puedes utilizarlos en un ordenador, a través de una página web, a través de una aplicación, porque los modelos, por decirlo de alguna manera, son como especie de la máquina o el motor que después hace funcionar una serie de herramientas que todos estamos empezando a usar en la vida diaria. Por ejemplo, una herramienta muy famosa, hablamos de JGPT, que probablemente es la herramienta por excelencia, lo que la gente primero conoció de manera masiva, pero a día de hoy hay muchas herramientas que su funcionamiento se basa en modelos de lenguaje. Como, por ejemplo, Be My Eyes, Aira Access, los famosos Copilot de Microsoft, y tantos otros. No solo utilizando tecnologías como la que usa JGPT, como los modelos JGPT que se hicieron tan famosos, sino otros modelos que han aparecido después. Como Gemini, la familia Gemini, que son los modelos de Google, o la familia Cloud, que son los modelos de una empresa que se llama Antropic, o los famosos Llama, que son de código abierto y que son los modelos de la empresa Meta, que es la empresa detrás de Facebook. Entonces, con todos estos modelos han salido una serie de herramientas que usan algunos de estos, o incluso una combinación de estos modelos, y que estamos cada día usando más, como ya dije antes, Be My Eyes, la propia chat GPT, o Aira Access, Copilot, Envision, Seeing, cada día son más. Entonces, el ser multimodal quiere decir que utiliza distintos modos de forma de recibir y proyectar la información. Sería audio, sonido, voz, tanto oye como reproduce. Imagen, tanto genera como describe, y texto, tanto escribe como se le puede introducir a través de la voz o lo que sea, información. Esto es lo que sería el término multimodal. Sí, multimodal en realidad se usa para cualquier combinación que implique más de un modo. Inicialmente fue solo texto, después se introdujo imágenes y se empezó a hablar de multimodal. La idea en principio era, bueno, puedes incluso darle un mensaje en un modo y que te responda en otro. Lo típico, génerame una imagen de un gato que tenga, no sé, dos cabezas, y la respuesta es una imagen. O sea, ya en ese momento estamos hablando de multimodal. Eso se ha ido enriqueciendo con el perfeccionamiento de los modelos y demás. Y ya hablamos de, como dices tú, combinar audio con imagen, con texto, y sus derivados. Claro, cuando hablamos de audio e imagen estamos hablando de video, porque un video no es más que eso, audio e imagen. Y claro, texto, pues audio también es lo mismo. Puede ser una voz, alguien hablando, que puede ser sonido, música, o cualquier otro ruido. Bueno, y vosotros, como personas ciegas que utilizáis esta tecnología, ¿qué es lo que ha aportado a vuestras vidas desde que tenéis uso directo con ella? Para mí, personalmente, es como un antes y un después. Y no es simplemente palabra vacía, sino es que es así. Es que al final, si realmente me hiciera consciente, quizás me tome un tiempo y me ponga a chequear eso desde el punto de vista consciente. De cuántas veces en el día me valgo de alguna de estas herramientas en mi vida diaria, pues creo que serían unas cuantas horas. Para empezar, en mi trabajo diario. Trabajo con una empresa que se llama Fable, haciendo testing de aplicaciones, lo mismo web, móviles, una serie de cosas. Significa, para mí, una herramienta invaluable, porque soy una persona que tengo un solo brazo, con lo cual la interacción con el teclado al ordenador llega a un punto en que se me hace muy cansado. Es día a día por muchos años, con lo cual llega un punto en el que escribir un informe se me puede hacer muy cuesta arriba, ejecutar ciertos comandos, etc. El simple hecho de poder modificar estos lenguajes a tu conveniencia, escribiéndole unas instrucciones, un prompt, y pedirle, digamos, yo te voy a decir lo que estoy viendo aquí en el feedback que tengo que dar, que no está correcto. Te lo explico, y yo recibo de vuelta, esto usando chat GPT, yo recibo de vuelta esas ideas que yo compartí, convertidas ya en un informe, con el lenguaje que yo le pida. Quizás si tengo que modificar algo es simplemente interactuar dictando, además, que eso también me ayuda mucho, y voy modificando mi informe de esa manera. Y a lo mejor si lo hacen una vez, tú dices, bueno, vale, pues me ahorré un ratín, pero cuando son muchos al día, significa que es como un salvavidas. De hecho, eso es una aplicación en mi vida diaria que me resulta utilísima. Hay otras muchas cosas para que utilizo estas herramientas que, bueno, si quieren, seguimos abundando. Yo creo que sí que es importante conocer qué utilidad se le da a la IA en general y a la IA multimodal en particular, pero bueno, desde nuestra perspectiva de personas ciegas y locos, si queréis vemos casos y ejemplos o demostraciones, pero lo importante es que contemos la experiencia, porque a mí me resulta muy interesante lo que has contado, Danáis, porque es así, porque al final a ti te evitan los tecleos, que realmente es una circunstancia en tu caso bastante más aparatosa y cansada, y realmente te puedes especializar a través de la palabra a hacer cada vez mejores prompts para obtener al final un informe redactado de forma perfecta. Es decir, a fin de cuentas tú has hecho tu trabajo y lo has hecho con mayor comodidad gracias a la IA, con lo cual perfecto. Y al final eres más productiva porque inviertes mucho menos tiempo. O sea, si tuviera que teclear todo eso, me tomaría quizás el doble. Otra ventaja es, en el caso nuestro, que en nuestra vida diaria manejamos otro idioma, es, digamos, la tranquilidad que de pronto necesitas un sinónimo que no está a mano en tu cabeza o quieres darle una vuelta al lenguaje, etc. Y es tan fácil como interactuar con la IA. Es muy sencillo. Yo creo que estas cosas, una le puede sacar partido directamente proporcional a la imaginación que tú puedas tener, de lo que se te puede ocurrir hacer. Es decir, compartir una imagen de un PDF de tu resultado de laboratorio y pedirle a la IA toda la información posible. Le puedes hacer preguntas específicas. Puedes chequear los porcentajes. Es decir, el universo de posibilidades es tan grande como la imaginación o la necesidad que a uno le surge. Además, si quiero hacer un inciso en lo que acabas de comentar, porque a mí también me tiene muy impactado, es las analíticas, que es lo que tú estabas comentando, los informes de laboratorio. Realmente siempre acceder a ellas por la forma que estaban las cifras y la información ordenada, por lo menos para mí con un lector de pantalla como persona ciega y abriendo un lector de PDF, había sido siempre una tortura. Quien dice eso dice una factura también. Entonces, desde que la IA ve ese documento y a partir de ahí tú empiezas a decir cómo quieres recibir la información y si quieres ir más lejos hasta decirle que cómo lo ve, que esto hay que cogerlo con pinzas porque lógicamente te puede dar alguna información. Pero bueno, al final yo lo que he visto que lo que me suele servir y de la forma que me da la información yo entiendo exactamente lo que tengo. Y cuando hablo con un facultativo o se lo comparto a alguna amistad médica, me dicen, es correcto, es perfecto, no te ha dicho nada que no está en esta analítica. Y para mí ha sido comodísimo el poder acceder a la información. Así que es una pasada. Lo es. O sea, ya te digo, en la vida diaria lo usamos desde para chequear los vídeos de las cámaras de seguridad, como el otro día se me ocurrió subir una partitura, yo soy músico, y una partitura encifrado y ir paso a paso, digamos, léeme la armonía en la intro, por ejemplo, y yo me conozco el tema y sé que no estaba alucinando. Y es sencillamente increíble para mil cosas. Yo cuando uso mis equipos de audio, algunos que son analógicos, yo hago lo que los ingenieros de sonido llaman el recall. Significa colocar tus parámetros exactamente como los usaste en X sesión. Y eso yo lo hago con el AI, haciendo una foto y chequeando cada parámetro. Es infinita la posibilidad. Roberto, ¿tú qué es lo que más te ha impactado o dónde ves la mayor utilidad en esta tecnología desde el momento que has comenzado ya a utilizarla con normalidad, si es que la utilizas habitualmente? Bueno, es que en mi caso la IA prácticamente me toca por referencia, cuando la gente vea los enlaces y demás. Yo trabajo en Microsoft, trabajo como gerente técnico, justamente en lo que a día de hoy se llama Core AI, que es la división de Microsoft que tiene todo lo que tiene que ver con plataformas de inteligencia artificial y con todas estas herramientas de Azure AI y demás. Lo cual fue súper interesante porque empecé a trabajar yo con esta división prácticamente cuando todo esto empezó a masificarse. Con lo cual me tocó desde el principio tener que empezar a probar herramientas y a manejar herramientas porque tenía que hacerlo, me tocaba por trabajo. Y probablemente la primera cosa que hice con estas herramientas fue programar. A ver, yo nunca he sido un buen programador. Yo soy el tipo de programador que me interesa en los conceptos. Para mí, yo casi nunca he terminado una aplicación porque me interesan mucho las pruebas de conceptos. Entonces, trabajar con una idea, mostrarla, experimentar con ella, casi nunca, no soy el tipo de programador que te va a completar un proyecto. Y cuando tú trabajas en este tipo de cosas, hay un montón de trabajo que resulta muy aburrido, muy tedioso, cuando tienes que preparar una interfaz para probar algo o simplemente iniciar un proyecto y preparar toda la infraestructura que llevas simplemente para probar una cosa que quieres probar y que quieres demostrar. Pues eso es cansado, toma tiempo, a veces tienes que trabajar con componentes que ni siquiera conoces bien. Y todo esto utilizando inteligencia artificial se te facilita de una manera que realmente te puedes concentrar en lo que quieres hacer. Ah, también se pierde mucho tiempo, sobre todo cuando estás experimentando, porque entonces ya quieres probar una idea, quieres hacer una cosa, pero entonces lo estás haciendo con la idea y dices, ah, vamos a ver qué hace ahora. Y a ver cómo funciona, y terminas distrayéndote a veces mucho más de lo que lo harías si no la tuvieras. Pero la verdad es que te facilita mucho, porque todo lo que es, todas las fórmulas, todo lo que llamamos en inglés, se llama boilerplates, no se me ocurre cómo traducir eso en español, todo lo que es plantilla, todo lo que es cosas que tienes que hacer y que siempre se hacen igual, eso te lo hace en un momento. Entonces, todo eso la idea, quiero hacer un, no sé, prepárame aquí un boilerplate para un proyecto usando React Native, que se yo, y te lo hace en un momento. Quiero trabajar con un chatbot, necesito una infraestructura con un chatbot, quiero generar una interfaz utilizando html, javascript, con un formulario para entrar mensajes y un espacio para recibir. Todo eso te lo facilita mucho. Entonces quizás, por ahí empezó mi relación con la inteligencia artificial, antes incluso de empezar a usar para cosas prácticas, porque claro, al principio no había aplicaciones móviles, todo era con herramientas medianamente complicadas a través del escritorio. Pero ya cuando empezó a usarse en la vida diaria, una de las primeras cosas que yo empecé a hacer, yo siempre he tenido mucha pereza para hacer cosas en el móvil, para escribir mensajes largos, para todo lo que es, no sé, por ejemplo, si tengo que responder un correo y quiero darle una respuesta un poco elaborada, ya, no lo puedo hacer en el móvil, me da mucha pereza, y a lo mejor es un horario en que, wow, quiero responder esto ahora, pero ya no me voy a poner a encender el ordenador, no. Bueno, pues, una de las primeras cosas que yo hice con esta tecnología, combinando transcripción y combinando gpt, fue montarme un gpt personalizado, que sencillamente yo quería responder un mensaje, por ejemplo, lo grababa en una nota de audio, lo transcribía y se lo pasaba a mi gpt personalizado, y a lo mejor le ponía correo personal o post para tal cosa. Y ya tenía yo todo, tenía ya con el formato. Copia-pega. Copia-pega, genera, a lo mejor edita un poco y manda. Y todo eso lo hacía con el móvil, casi sin escribir. Y eso es súper, súper cómodo y súper efectivo, para más, funciona bien. Y de hecho, yo empecé a usarlo. Es un gpt que has hecho tú, te conoce cada vez más a ti también, ¿no? Sabe tu estilo, sabe tu... Sí, porque le puse frases típicas y cosas que yo suelo escribir, y le metí ejemplos de textos que he escrito, y escribí más o menos como escribiría yo. Y me sirve mucho para, no sé si me ocurrió una idea, incluso lo estoy usando en el trabajo, porque todo el mundo habla de que con estas herramientas se ahorra tiempo. Yo no sé si yo ahorro tiempo, pero ahorro energía. Sin duda. Pero mucha energía. Yo soy alguien que piensa mucho para escribir, y me cuesta mucho trabajo, sobre todo empezar y acabar algo. Esos dos puntos siempre me cuestan mucho. Y a veces tengo una idea muy concreta, sé lo que quiero expresar, pero como tengo que darle una estructura, darle una forma, darle una introducción, pues ahí me agoto enormemente. Y con estas herramientas es tan sencillo como, mira, la idea es esta, ya tú sabes, rellénala. Y me concentro en... y, claro, después ya, pues, editarla, refinarla, ya es mucho más fácil. Yo creo que ahí habéis dado en la clave. Es decir, enfrentarse a la hoja en blanco es terrorífico. Y verdaderamente nos bloquea. Sí. Pero en el momento que te pone un ejemplo, es decir, que le has pedido algo y te hace algo similar a lo que tú quieres, retocar eso ya es mucho más fácil. Es mucho más fácil. Porque al final, tú acabas conciliando con ese mismo texto tu estilo. Porque si no, no te sientes cómodo. A ti no te gustaría que te leyeran como si fueras una IA que tiene su estilo. Es decir, tú lo que haces es utilizar como patrón eso y modificarlo a tu gusto. Claro. Como tampoco me gusta leer lo que escriben las IA, realmente. Me castigo mucho a mis compañeros de trabajo porque a veces me mandan cosas y les pongo golpeado. Eso te lo hizo Chagepete, ¿verdad? Dicen, ¿cómo tú lo sabes? Contra, porque es que es muy evidente. Sí, es evidente. Realmente son como una genial medicina para procrastinación. Porque a lo mejor lo que antes te he planteado, oh, qué pereza, tengo que sentarme a redactar esto o a generar una idea. Yo recuerdo una vez que me pidieron hacer como una especie de clinic en un sitio. ¿Qué es un clinic? Ya estaba pensando cómo decirlo en español. Como una especie de clase, ¿sabes? Una pequeña conferencia, si te pones. Y con un tiempo X para un tipo de audiencia específica. Y yo dije, oh my god, no. Si me pongo a pensarlo, voy a entrar en cortocircuito. Agarré a Chagepete y dije, mira, tengo este tiempo. Tengo este target de audiencia y el tema es este. ¿Qué tal? ¿Qué hacemos? Me lo estructuró con el tiempo de cada segmento, con varias ideas para cada segmento para elegir. Entonces, todo este tipo de cosas terminan haciéndote la vida muy cómoda. Y yo creo que lo que más me gusta de estas herramientas en la vida, de personas como nosotros que nos vemos, es cómo te empodera desde el punto de vista de independencia, de autonomía. Es un igualador. Sí, es el comienzo, pero sí que nos está dando ya más autonomía. ¿Cómo es de fiable? ¿Qué grado de fiabilidad le dais a las respuestas que nos da la inteligencia artificial? ¿Vuestra experiencia es muy fiable, poco, regular? Yo te lo voy a poner sencillo, no es fiable. Eso es un problema. Y sobre todo para nosotros. Sí, no es fiable. Exacto. Es que no sé. El error, y aquí voy a hacer, bueno, yo lo hago como un chiste. A veces la gente habla, bueno, las alucinaciones de IA. Bueno, ¿qué son las alucinaciones? Y bueno, te dan unas explicaciones. Y una vez, en una reunión, alguien que no me acuerdo por qué. Y es todo de las alucinaciones. Mira, te voy a explicar lo que son las alucinaciones de manera sencilla. Las alucinaciones son el nombre que utilizamos para definir una respuesta de la IA cuando no nos gusta. Porque lo único que hace la IA es alucinar. Es su esencia. Es la única cosa que puede hacer. La IA no razona, no infiere. Lo único que la IA hace es, basándose en probabilidad, producir una respuesta. Pero basándose puramente en probabilidad. Y un post-entrenamiento en el cual esa probabilidad se manipula para favorecer ciertas respuestas y demás. Pero no hay un proceso de pensamiento. No hay un proceso de análisis. Por más que los medios lo vendan. Por más que algunos, entre comillas, expertos hablen de estos modelos. No razonan, no piensan. No hay tal cosa como una inteligencia. No hay una inteligencia artificial. Te lo venden como razonadores. Pero realmente lo que están es destilando el resultado. Y que la probabilidad sea más fina. Pero realmente no están pensando. No están pensando. Desde el punto de vista del marketing, te lo venden como que razonan. Y porque además, para explicarlo a una persona en la calle. A ver cómo se lo explicas. Con qué vocabulario utilizas. Un vocabulario habitual para que lo pueda entender. Igual que cuando el ordenador tarda un poco más en procesar. Mucha gente dice que está pensando. Está pensando. Eso lo dice mucha gente. De hecho, te muestran líneas de razonamiento. Si te das cuenta, en todas las IAs ahora. En los razonadores, como son los modelos O1 o el DeepSeek. Tú le das a un botoncito y ves los razonamientos. Que yo sí que recomiendo que lo veáis. Porque veréis cómo se llegan a conclusiones por caminos insospechados. Pero muchas veces se acierta. Eso es muy interesante. Porque la manera en que funciona. Es que se hace que el modelo genere durante un rato cadenas de pensamiento. Que las cadenas de pensamiento, vamos a estar claros. No es que pienses. Las cadenas de pensamiento son un formato específico. Son una manera en que las ideas se concatenan para llegar a un resultado. Entonces, lo que se ha visto es que dejándole regenerar cadenas de pensamiento. Un poco que la probabilidad se manipula. Es más probable que te dé una respuesta útil. A costa de tenerlo más tiempo generando. Tanto es así que después la cadena de pensamiento se descarta. Esa cadena, en el chat, después se descarta. En cuanto produce la respuesta final, eso se descarta. Yo creo que es importante que los que razonemos seamos nosotros. Y que sepamos cuando preguntamos algo a la IA o le pidamos algún tipo de información. Saber lo que le estamos preguntando. Y también podemos deducir la probabilidad de la respuesta. Si preguntamos dónde nació Cervantes. Es muy probable que acierte porque lo buscará en Wikipedia. Que probablemente es donde lo hubiéramos buscado nosotros. O en otras páginas. Y el 99% de las páginas de Internet estarán bien. No creo que alguno lo haya puesto mal. Pero acertará. Pero si hacemos preguntas más complejas. Con lo que decías, por ejemplo, para programar. Yo creo que es una herramienta genial. Pero tenemos que decirle lo que queremos. Lo que se suele conocer como el prompt. Tenemos que decirlo súper detallado. Sin ambigüedades. De forma clara, concisa, concreta. Un prompt puede ser de varias páginas. Sin peligro. Cuanto más lo detallemos y mejor digamos lo que queremos. Hay más probabilidad de que acierte. Y se ciña más a lo que estamos preguntando. Pero yo creo que tenemos que tener en cuenta. Lo que estamos preguntando. E intentar acotárselo lo máximo posible. Para que el grado de probabilidad de acierto sea mayor. Y sabiendo lo que estamos preguntando. Si preguntamos por un objeto en una imagen. Es algo más complicado. Y es más fácil que se equivoque. Perfecto. Yo me alegro mucho de que hayas traído ese tema. Porque no quería que terminara el podcast. Sin hacer esta parte de que fuera una especie de pinchar el globo. Pero dejar bien claro que la IA va a decir cosas. Tiene que decir cosas. Tiene que generar respuestas e información. Ayer le dije. ¿Me puedes decir dónde está el target más cercano? Una cadena de tiendas. Sí, sí. Existe aquí también. Y me dice. ¿Tienes uno en tal y cual? Y le digo ¿a qué distancia lo tengo? A cinco millas. Y le digo ¿a cinco millas de dónde? ¿De mi ubicación? Y me dice sí. Y le digo ¿tú sabes cuál es mi ubicación? Y me dice no. Vale. Pues te vaciló. Y yo le digo ¿y cómo tú sabes que es mi ubicación? Y me dice no, por tu zip code. El código postal. Correcto. Y entonces le digo ¿dime mi código postal? Y sí, correcto. Eso es un caso bonito. Pero hay casos en que te hubiera dicho. Porque además lo he visto. ¿Tú sabes cuál es mi dirección? Y te dicen no. Y después le pregunto. Entonces ¿cómo puedes saber cuán lejos está la tienda? Y la respuesta. Oh, perdona. En realidad no tengo forma de saber cuán lejos está la tienda. Continuamente están pasando. Continuamente. Es dócil, es dócil. En cuanto le aprietas un poco cede. Es divertido. Es muy divertido. Cuando le preguntas ¿estás seguro? ¿Estás seguro? ¿Cómo voy a estar seguro, señor? Es una fotografía con un edificio que tiene seis plantas. ¿Estás seguro? Uy, perdón. A lo mejor no tiene seis. A lo mejor tiene entre tres y cuatro. Yo ¿cómo que entre tres y cuatro? ¿Tres o cuatro? A veces hay diálogos. Muy gracioso. Yo tengo una batería aquí. Y yo quería que la IA me diera el porciento de carga. Le estaba enseñando. Le preguntaba ¿qué porciento de carga tiene? 17%. No puede ser 17% porque la acabo de cargar. Tiene razón. 100%. Tiene razón. No es 100%. Es 87%. Bueno, cabrón. No me lo digas. No me riñas, no me riñas. ¿Por qué se trata de eso? ¿De que la IA va a decir algo? No me da igual. Va a decir algo. No hay manera de que no traiga una respuesta. Sí, sí. Porque, de hecho, ella está generada así para que siempre dé una respuesta. Y la respuesta no es no sé. Siempre contesta no. No, la verdad es que no. Pero además, incluso si te respondiera no sé. Ese no sé. Es tan alucinado como cuando te responde que sí sabe. Porque no hay forma de que un modelo de lenguaje pueda diferenciar entre verdad y mentira. Lo que tenemos claro y por lo que os he escuchado es que es lo de siempre. Que no hay buenas respuestas, sino que lo que hay son buenas preguntas. Es decir, que estaríamos hablando de que la IA, según nosotros sepamos preguntarle, obtendremos mejores respuestas que si no sabemos preguntarle. Correcto. Pero también depende de para qué la queremos usar. Yo me doy cuenta que los escenarios donde la IA suele ser más útil son aquellos en los que la feabilidad no es necesaria. Por ejemplo, en este tema de modificar texto. Tú le das una entrada y le dices quiero que esto sea un correo electrónico con este formato. Eso lo más probable es que lo haga razonablemente bien. Porque eso es justamente para lo que es un modelo de lenguaje. Manipulación de texto, manipulación de palabras. O sea, son situaciones en las que el conocimiento, entre comillas, del modelo no es relevante. En esas situaciones, o programar, por ejemplo. Si tú le dices, tú le describes un programa, pero se lo describe en lenguaje natural. Inicializa tal variable, asígnale tal valor útil, solicítale al usuario una entrada X. Esas cosas las va a hacer muy bien. Porque le estás dando unas instrucciones que lo único que tienes que generar el código en el lenguaje equivalente. Son situaciones donde la IA está haciendo aquello para lo que realmente es bueno. Que es generar. Generar un contenido en base a una entrada que se le dio, que es una entrada sólida. La gente usa mucho JGPT y otros y similares para hacer preguntas de tipo general, de conocimiento general. Lo mismo de historia. Y ha habido hasta quien ha escrito artículos con esa información. Y la gente sigue pensando que es una fuente de información. En su momento se discutía si Wikipedia era o no una buena fuente de información. Pues esto es aún más válido para los modelos de este tipo. Y ahora, a día de hoy, ya. Por ejemplo, JGPT, dependiendo qué pregunta, va a ser una búsqueda web. Y la respuesta va a estar más o menos, fundamental, en esos resultados de búsqueda. Pero, en general, sigue siendo un sistema muy inadecuado para responder preguntas que requieran conocimiento. Cuanto más específico acierta un poco más y cuanto más generalista acierta un poco menos, en general. Exacto. Sí, muy bien pensado. Exacto. En cualquier caso, para mí ha sido como impresionante. Recuerdo que tenía que hacer aquí un programa con la televisión. Y claro, te empiezan a pedir fotos y todas las imágenes que puedas, etc. Y el proceso de poder elegir las fotos que íbamos a usar, o por lo menos que yo iba a proponer, yo no me lo podía creer. Hacerlo yo, ¿sabes? Sin tener que buscar a no sé quién, que me dedique un rato y nos pongamos a chequear y tal y cual. Esas cosas, yo qué sé, parecen muy sencillas o irrelevantes quizás, pero según en qué contexto no lo son. Bueno, es magnífico poder ir a tu álbum de fotos y seleccionar. Eso era imposible hace muy pocos años. Total. O muy costoso, ¿no? Tenías que escanear. Bueno, no sé, es que no me lo imagino cómo se podría hacer. Creo que no se podía, no se podría. A lo mejor sería interesante, llegados a este punto, que nos vayamos metiendo más en tema de la IA. Pero la IA, no solo como herramienta útil, sino como herramienta de accesibilidad. Porque yo creo que ahí es donde el diferenciador para nosotros se hace, si se quiere, aún mayor que para el resto de la gente. Sí. Por eso mismo, en principio, con la IA multimodal, por primera vez tuvimos un sistema computacional que, y esto es muy interesante porque nos hemos pasado un buen rato hablando de lo poco fiable que es todo esto, pero por primera vez tuvimos un sistema computacional capaz de describirnos algo, ya sea fiable o no, pero por lo menos de describirnos algo. El OCR por muchos años fue súper, súper malo. Y nosotros lo usamos. Y con esto un poco que pasa lo mismo. Nosotros sabemos que el nivel de fiabilidad es probablemente inaceptable para un montón de cosas. Sin embargo, es el primer tipo de herramienta de esos tipos que podemos utilizar que es capaz de describirnos el mundo de forma automatizada. Entre cero y ese poquito, el salto es abismal. Entonces, a nosotros nos da muchísimo en ese salto. Exacto. Acceso a la información, acceso a la escena, a los objetos, al entorno, es una maravilla. Sí, sin duda. Y yo creo que en este punto podemos ir poniendo nombres y apellidos y hablar de alguna en concreto y poner alguna situación concreta o un ejemplo de cómo funcionan. Sí, yo creo que sí. Es que todo esto empezó, que todo esto ha ido tan rápido en los últimos años. Lo primero que tuvimos quizás, creo que fue Vimaya. Vimaya es que era capaz de tomas una foto, te la describe y le puedes hacer preguntas. Eso fue lo primero, pero ya, sobre todo a partir de diciembre, ya no estamos hablando de inteligencia artificial multimodal. Ya estamos hablando de lo que se está empezando a llamar IA en tiempo real. En realidad es la idea de que ya no es un chat, sino que es una interacción en que en tiempo real, entre comillas otra vez, la IA es capaz de describir lo que está ocurriendo. Ya no es una foto que se le pasa, que la describe, espera un rato, llega la respuesta, haz una pregunta, espera un rato. Ya estamos hablando de herramientas como puede ser ChagPT o como puede ser Gemini que son capaces, o MetaEye, que podemos ir hablando más en concreto de cada una, que son capaces de describir en tiempo real, de describir lo que la cámara ve en tiempo real, sin necesidad de tomar una foto. Todas estas herramientas son aplicaciones que se instalan en el móvil y utilizan la cámara del móvil para ver. Utilizan el micrófono para oírnos. Utilizan los altavoces para hablarnos. Incluso la pantalla, bueno, el que la pueda ver también te lo puede mostrar en texto en la pantalla. Exacto. Y no solo usan la cámara como entrada, sino que también pueden usar como entrada la propia pantalla del móvil. Por ejemplo, con ChagPT ya se han hecho varias demos para ahí que se han compartido. Ya se puede hacer que ChagPT en tiempo real esté viendo la pantalla y comentando lo que está viendo. Ya no se trata de toma una captura de pantalla, mándaselo a VimEyeEyes, espérate, qué dice ahí. Responde, pregunta otra vez, qué está seleccionado. Otra captura de pantalla, qué está seleccionado. Espérate, qué está seleccionado la opción 1, algo, otra captura. Así era como yo lo hacía hasta hace unos meses. Y ahora estamos hablando de que en tiempo real puedes estar hablando con un programa que te está describiendo a medida que tú modificas lo que hay en pantalla. O modificas lo que está viendo la cámara. Exacto. O sea, es sencillamente impresionante. Imagínate, por ejemplo, eso yo lo llegué a hacer con VimEyeEyes, lo hicimos todos yo creo, bueno, muchos. Quiero encontrar algo, quiero ver si lo puedo encontrar con VimEyeEyes. Toma una foto, describe. Estoy buscando tal cosa, ¿dónde está? No, no hay tal cosa en la imagen. Cambie el ángulo, toma otra foto. Ves tal cosa, toma una foto. Y así te podías tirar un rato si es que tenías la paciencia de hacerlo. Ya a día de hoy, algo como la función de descripción en tiempo real de Gemini o Live AI con Meta, ya es mucho más parecido a lo que es hablar con alguien. Es decir, estoy buscando tal cosa, ¿dónde está? Y empieza el diálogo. Y es mucho más dinámico. O sea, en mi opinión, ya lo de VimEyeEyes era algo increíble. No teníamos algo como eso antes. Pero ahora ya estamos en la siguiente pantalla del juego, en que la interacción es en, llamémosle, tiempo real. Vamos a ver algún ejemplo, ¿no? Ponernos en un escenario y vamos a verlo con diferentes aplicaciones. A ver cómo se comporta cada una de ellas. Pros, inconvenientes, cuál la hace mejor, cuál la hace peor. Y un poco cómo funcionan. Y alguna en concreto, ¿no? Con hombres y apellidos. ¿Por qué no? Precisamente les trajimos unas demos que hicimos con las, creo que dos de las, con tres de ellas. Usamos tres. Usamos tres. Usamos Gemini con Google AI Studio. Con el API en tiempo real de Gemini. Usamos JGPT. Y usamos una aplicación que está todavía en beta. Es una beta pública. Se llama Envision Ally. Que son, Gemini y JGPT son más o menos parecidas en cuanto a que la tecnología que se está usando es del mismo tipo. De intentar, o sea, a través de un flujo de video y audio, intentar una interacción que parezca en tiempo real. Envision Ally es un concepto un poquito diferente. Ya lo explicamos, si quiere, después de las demos. Pero también es otra manera de intentar hacer lo mismo, ¿no? Y bueno, con resultados bastante diferentes entre las tres. Vale. Quiero comentar que no usamos, hubiéramos querido utilizar también Meta AI. Lo intentamos, pero no funcionó en español. Con lo cual tuvimos que desecharla. Mira, no sé si quieren escuchar las demos. Empezamos por Gemini. A por ella. Hola, estás en una cocina. Enfrente de ti hay un mostrador con gabinetes blancos y tres cajones. Sí, no es necesario que me describas todo porque lo que quiero es que me ayudes a encontrar un altavoz Bluetooth que dejé en algún sitio de la cocina pero no consigo encontrar. Está bien. No veo ningún altavoz en la imagen. Sin embargo, podría estar fuera de tu vista. ¿Te gustaría que explorara algún otro lugar? Seguramente, sí. Vamos a enfocar en esta dirección. A ver si anda por esta parte de la cocina. De acuerdo. Ahora estás viendo un nuevo mostrador con gabinetes blancos. Hay una cafetera plateada a tu derecha junto con otros objetos. ¿Ves el altavoz? No necesito que me des descripciones generales de la escena. Solo dime si ves el altavoz. No veo un altavoz en esta parte de la cocina tampoco. Excelente. Vamos a ver en la mesa. Bien. Ahora veo una mesa de comedor de vidrio con una base de metal. Encima de la mesa, de izquierda a derecha, hay una vasija blanca... Dime si ves el altavoz. Sí, el altavoz negro está en la mesa. Excelente. ¿Dónde? Ayúdame a encontrarlo. Por supuesto. Está sobre la mesa, al lado de un florero blanco con puntos. Ajá. ¿Alguna otra referencia que pueda utilizar? Claro. Está al lado izquierdo de los audífonos negros. OK. ¿Es verdad? Sí. ¿Alguna otra referencia? Entendido. Está al lado izquierdo del florero blanco con puntos. Muy bien. OK. Perfecto. Excelente. Muchísimas gracias. ¿Algo que te pueda ayudar? Eso es todo. Muy buen trabajo. No, gracias. Eso es todo. ¡Qué bueno! Bueno, pues sí, la verdad es que lo ha hecho aparentemente de forma brillante. La verdad es que sí. Hay que decir de Gemini, sobre todo para el beneficio de la audiencia, que es un poco diferente de las otras variantes de esto que hay. Gemini, en realidad, esto es un modelo experimental con esta capacidad que hay que utilizarlo a través de Google AI Studio, que es una herramienta para desarrolladores. La idea es que los desarrolladores puedan experimentar con la funcionalidad del modelo para desarrollar sus aplicaciones. Esto no es un producto de consumo. Entonces, gracias a eso, yo lo que utilicé fue... Está ahí en las referencias. Ricardo, te vas a pasar un documento explicando cómo repetir esta experiencia. Yo utilicé instrucciones de sistema para el modelo para tratar de que se comporte como un asistente visual para una persona ciega. Y eso influye un poco, diría que bastante, en cómo describe, por ejemplo, el modelo trata, Gemini en este caso trata, de situar a la persona en contexto. Por ejemplo, si estás en una habitación tal, aquí tienes tal cosa, más allá tienes tal cosa, y yo estoy tratando de decirle, no, no, no, espera, espera, estoy buscando una cosa concreta, no me des descripciones generales. Pero él intenta, de todas maneras, situarme. Y si observamos la dinámica, por ejemplo, si está el altavoz, bueno, ¿dónde está? Bueno, un florero blanco con puntos. O sea, ya, dame otra referencia, bueno, está al lado de unos audífonos negros. Y así, es una interacción que podrías tener con una persona. Quizás habría que refinarlo y decirle, bueno, no me des referencias visuales, dame referencias táctiles. Pero, en general, es una interacción muy increíble y muy efectiva en este caso, diría yo. En mi opinión, de las pruebas que hemos hecho, para mi gusto, es la que describe con más precisión. Y alucina menos con el tema de derecha e izquierda, en mi opinión. Pero yo pienso, Danáis, no sé, Roberto, Arturo, como lo veréis, que el prompt de Roberto, que personaliza un poco, o da las instrucciones de cómo tiene que comportarse el sistema, creo que ayuda a esa inteligencia artificial a ser más precisa y a ser, por lo menos, más útil para personas ciegas. Claro. Sin duda. Y eso todavía se puede refinar mucho más, lo que pasa es que nos hemos dedicado más tiempo. Pero, por ejemplo, una de las cosas que yo quiero hacer es, en algún momento, ponerle instrucciones específicamente de cómo tiene que dar indicaciones. Que son indicaciones táctiles, que no se basen en la experiencia visual. Cosas de ese tipo. Y se puede seguir refinando eso. Más allá, incluso. Haciendo, además, una herramienta gratis. Bueno. ¿En qué momento? En realidad, no es una herramienta gratis. Es un entorno de experimentación. Eso sí. Que Google ha abierto para desarrolladores, pero el uso del API cuesta dinero. Para ser más preciso. Y no sabemos por cuánto tiempo eso estará ahí disponible. Claro. De todas formas, lo que dice Roberto, vamos a poner un documento para que podáis entrar de forma ágil a este entorno que se llama AI Studio. Que es donde está Gemini 2.0 Flash Experimental. Que es como se llama este modelo. Y, bueno, en este documento vais a tener también un atajo que permite lo que es el acceso ágil, como os he dicho. Y, al mismo tiempo, que el prompt que ha escrito Roberto también lo tengáis en el portavapeles para pegarlo rápido. E iniciar lo que os interesa, que es el reconocimiento del entorno a través de esta inteligencia artificial. Así que ahí en notas lo tendremos. Decir que las sesiones solo puedan durar 10 minutos. Es lo que nos da Google. A partir de los 10 minutos se acaba. Si se quiere se puede volver a empezar, pero las sesiones solo duran hasta 10 minutos. He escuchado que igual lo introducen en las aplicaciones que tienen. Y, de hecho, he visto en la aplicación que tienen para Android, que está el modelo, pero a mí no me funciona. Si pone Gemini 2.0 Flash Experimental. ¿Tienes la versión de pago? No, no tengo la versión de pago, pero pensaba que con Google One me lo permitirían. Sí, en realidad sí te funciona. Bueno, si te funciona como a mí. Te funciona, pero no está la funcionalidad de la IA en tiempo real. Puedes usar el modelo con texto de imágenes, pero no está la función. Te lo agradezco un montón, porque me estaba volviendo loco. Digo, si es que está aquí, tengo el Google One, lo tengo todo y no me está funcionando. Sería muy cómodo hacerlo desde ahí, pero supongo que algún día llegará y habrá que pagarlo. Sin duda. O no, vamos a ver, porque con todo lo que está pasando. Ojalá se pueda usar gratis, aunque sea por tiempo limitado. Quizás 5 minutos o 10 minutos, como ahora. De momento les estamos ayudando también a entrenar el modelo y también les estamos dando trabajo gratis. Igual que cuando ponían los CAPSA de los semáforos, pues también les estábamos haciendo el trabajo gratis. Sí, el concepto de gratis en el mundo de hoy como que no. Sí, efectivamente. Esa cambió. Bueno, pues si os parece, ponemos el siguiente. Ponemos la demo de GPT, también conocida como Agapito. Adelanto. Hola. Hola, Roberto. Necesito que me ayudes a encontrar un altavoz Bluetooth que tiene que haber aquí en la cocina en alguna parte. Claro, Roberto. Desde aquí puedo ver un cilindro gris cerca de la cafetera que parece ser tu altavoz Bluetooth. Está en la encimera a la izquierda de la cafetera. ¿Ese es el que buscas? No es eso lo que estamos buscando. Entiendo. Entonces, el altavoz no está junto a la cafetera. Dando un vistazo al resto de la cocina, noto que hay un dispositivo más pequeño al fondo, cerca del microondas. ¿Podría ser eso el altavoz? Es un cilindro pequeño también. No lo creo, la verdad. Vamos a seguir buscando. Claro, Roberto. Vamos a seguir. ¿Qué tal revisar los estantes o algún cajón? A veces, los altavoces se quedan en algún sitio menos visible. Puede ser, pero vamos a primero focarnos en los lugares bien visibles, que es más fácil para buscar. De acuerdo. Revisando los lugares visibles, note que en la esquina a la derecha del horno hay un contenedor transparente con tapa azul. ¿Podría estar cerca de esa zona el altavoz? También hay un par de cuencos para mascotas en el suelo. ¿Te suena familiar? Me parece muy probable que haya dejado el altavoz ahí. Vamos a ver en la mesa qué tal. Buena idea. Si revisas la mesa, puede que el altavoz esté ahí. Quizá lo dejaste allí después de usarlo. Si hay algo más que veas o recuerdes, me avisas. No, estás aquí para mirar. Mira alrededor y cuéntame si lo ves. De acuerdo. Mirando alrededor, noto que el contenedor azul está justo enfrente de ti. Si te fijas un poco más a la derecha, cerca de la mesa redonda, podrías encontrar el altavoz. Revisa esa área para ver si está ahí. Estoy enfocando la mesa. Cuéntame. Estoy viendo la mesa redonda con un contenedor transparente y una silla blanca al lado. Si el altavoz no está en la mesa, tal vez está detrás de la silla o sobre el estante cercano. ¿Podrías revisar esas áreas? Cuéntame qué es lo que ves encima de la mesa. En la mesa redonda veo un par de auriculares negros y un altavoz Sonos plateado. Creo que ese es el... Entonces hay un altavoz. Exactamente. Hay un altavoz Sonos en la mesa. Parece que está junto a los auriculares. ¿Lo has encontrado? Pues dime dónde está, en qué parte de la mesa. Claro. Está en la parte derecha de la mesa, cerca del borde. Lo notarás por su forma cilíndrica y color plateado. ¿Puedes alcanzarlo desde ahí? Hola. Hola de nuevo. ¿En qué te puedo ayudar ahora? Una cosa que te quiero decir. Has dado antes como indicación que el altavoz es cilíndrico y plateado. En nuestro caso, el tema del color no es una variable porque somos personas ciegas. ¿Alguna otra indicación para encontrarlo? Claro, lo siento por eso. En lugar del color, el altavoz tiene una forma cilíndrica y está junto a los auriculares negros en la mesa redonda. Puedes sentir su textura, que es metálica y tiene botones en la parte superior. Eso podría ayudarte a identificarlo. ¿Te resulta más útil así? Sí. Solo que tampoco nos interesa que los auriculares sean negros. Ahora es un dato. Ok. Entonces, ¿a la derecha de la mesa, digo? Sí. Ok, a ver. Sí, es una mesa redonda. La derecha es un poco cuestionable. ¿Cuál es la parte derecha en una mesa redonda? Sobre todo, ¿a la derecha de quién? Exacto. Si puedo dejar un poco más de detalles. Tienes razón. En una mesa redonda es un poco ambiguo. El altavoz está sobre la mesa, cerca del borde y al lado de lo que creo que es un adorno con patrón perforado. Perfecto, ya lo encontré. Y de paso, muchísimas gracias porque yo no sabía dónde había dejado mis auriculares. Me alegró mucho de que hayas encontrado todo. Si necesitas algo más, aquí estoy. Hay que decir que el altavoz ni es metálico, ni tiene botones en la parte de arriba, ni nada. Ni es plateado. Ni es plateado. Así que... Me sorprende mucho porque esto es... Bueno, es ChaoGPT de OpenAI, que realmente es un modelo que funciona muy bien. Y aquí merodea mucho a la hora de decirte dónde está o cómo localizar lo que estás buscando. Es un poco inquietante. Y luego, sí que es verdad que cuando lo localiza, lees el texto y te dice la marca. Porque supongo que la marca sí que será uno solo, ¿no? Sí, claro. Eso lo hizo bien. Yo... ¿Qué te puedo decir? Toda esta tecnología, incluso OpenAI, supuestamente OpenAI de todas estas cosas es la única cosa que está en producción, que es un producto, que tienes que pagar, lo que sea. Todo esto es superexperimental. Y los resultados pueden variar mucho de una semana a otra, de un día a otro. Lo que yo he observado, o creo haber observado, en relación con Gemini y ChaoGPT, por ejemplo, ChaoGPT es una guía conversacional muy buena. Muy, muy buena. Capaz de dar la sensación de un diálogo fluido, de citar cosas que se dijeron antes, de hablar de relaciones entre las cosas. Por ejemplo, en esta nueva, qué sé yo... Eso ChaoGPT lo hace muy bien. Ahora, en cuanto a la parte visual, en cuanto a video en tiempo real, tiende a ser un poco ambigua. Tienden a pasar cosas como esa. Lo mismo te dice algo que vio hace dos minutos, como si estuviera viéndolo ahora mismo. Que te empieza a decir como eso. Cualquier cosa podría ser el altavoz. Un cilindro correlateado podría ser el altavoz. Un pomo con tapa podría ser. Y si no era el altavoz, a lo mejor estaba por ahí. Es como... Hombre, a ver. También hay que ser justos. Eso pasó con las tres pruebas que hicimos. Por lo que sea, parece ser que la manera en que lo entrenaron, los datos que tiene, tienden las tres aplicaciones a asociar un altavoz Bluetooth con un cilindro. Eso yo puedo hasta entenderlo. Pero Gemini fue muy precisa en decir ahí no hay un altavoz. Sí, pero Gemini... Claro, hay cosas que hemos editado para, yo qué sé, por el tiempo, ¿sabes? Si no, se hubiera hecho muy largo. Pero las dos yo me di cuenta, por ejemplo, que identificaron como un cilindro probablemente un altavoz Bluetooth una cafetera de Nestlé. Sí, eso. De Nespresso. De Nespresso. De acuerdo. Eso es comprensible. A ver. Mi sensación es que Gemini probablemente por el prompt... Claro, uno no sabe, por ejemplo, si ChangPT lo que está recibiendo seguramente es un video de muy baja resolución. Lo cual introduce... Puede ser una buena explicación. Si se le pasa a un modelo GPT imágenes de baja resolución y se le empiezan a hacer preguntas, empiezan a pasar cosas medio parecidas a esas. Gemini a mí me da la sensación de que tiende a ser mejor descriptor en gran medida, seguramente, por el prompt. Y bastante menos... Es bastante inestable en cuanto a comodidad conversacional. Tiende a repetir cosas. Tiende a perder el contexto. A veces tiene bastante latencia. Claro, también estamos usando en momentos de no experimentación. ¿Sabéis lo que me llama mucho la atención? Porque si os digo esto me vais a dar la razón. Es decir, Be My Eyes, por ejemplo, hace unas descripciones magníficas de imagen. No en tiempo real, sino de una imagen. Sí. Lo que hay detrás, estaréis de acuerdo conmigo, que es GPT Vision. Es OpenEye quien ha entrenado este modelo. De hecho hay un paper donde explica exactamente cómo lo han hecho y todo. De acuerdo, sí. Teóricamente es el mismo GPT-4 que estamos usando aquí. Ahora, nosotros no sabemos... Porque Be My Eyes es una aplicación. Nosotros no sabemos cuáles son las instrucciones del sistema que tiene. No sabemos si estamos usando una versión personalizada del modelo. Un GPT específico para ciegos. O una versión, como podríamos decir... Estoy buscando el término en español. Que está fine-tuned. Que está... O sea, un modelo GPT. Porque se puede hacer. O sea, como desarrollador, es costoso y demás, pero tú puedes coger un modelo base GPT-4 o OpenEye. OpenEye te lo permite. Y entrenarlo con tu propio contexto. Eso se puede hacer. No sabemos si Be My Eyes lo ha hecho. O si Be My Eyes tiene un API diferente. Eso no lo sabemos. Realmente, si OpenEye utilizara el mismo entorno que utilizamos para reconocer imágenes en Be My Eyes, estoy seguro que sería un descriptor y un reconocedor de objetos magnífico. Porque Be My Eyes lo es. Bueno, con ChangeGPT yo le tengo puestas bastantes instrucciones personalizadas. Yo uso mucho la memoria. Con imágenes solamente es muy buen descriptor. Comparable a Be My Eyes. De hecho, hoy mismo lo hice una prueba en la mañana con una foto. Primero la describí con Be My Eyes. Y luego esa misma foto con GPT. Y el resultado fue prácticamente similar. Yo sospecho, y aquí solo puedo especular y sospechar, que esta versión que nos están dando de la guía en tiempo real de GPT está muy capada por temas de costo. Esto es muy costoso. ¿Puede ser un modelo mini o algo de esto? No sé si un modelo mini, pero probablemente una resolución de vida muy baja. Quizás están usando un modelo mini. No lo sé. Es posible. Es posible que sea realmente así de mala. O de buena. No lo sé. No lo sabemos. Yo coincido con vosotros. La descripción de imágenes de ChangeGPT, por ejemplo, el 4 simplemente, es magnífica. Más como le digas, describe de forma detallada y minuciosa esta imagen. Es que es brutal. Todos los detalles que puede... Además, eso ha mejorado muchísimo desde que salió. Pero muchísimo, muchísimo. Y supongo que con lo del video pasará lo mismo. También. Lo del video se le enredó. Lo anunciaron en marzo del año pasado. Dijeron que lo iban a sacar el mes siguiente. Y ya se ve que no salió hasta diciembre. Si uno se escucha las demos, y todo esto es muy cuestionable porque son demos, las demos que se hicieron en esa época cuando se anunció son muy diferentes de lo que salió ahora. Por ejemplo, en esas demos, el ChangeGPT es capaz de productivamente describir lo que hay en la imagen. En el video. Eso a día de hoy, con esto que tenemos, no se puede hacer. Cosas así. Sobre todo con esto estamos viendo la tendencia hacia donde van los tiros. Estamos viendo el potencial y por dónde van las empresas. Y con el tiempo todo esto mejorará una barbaridad, claro. Sin duda. Sin duda. Sobre todo ya cuando tengamos Gemini. Bueno, después podemos hablar del futuro. Pero el futuro puede ser muy interesante. Vamos a poner la tercera demo que tiene nombre de lavadora, ¿no? ¿Cómo es? Ally. Ally. Antes de que veamos Ally, me gustaría, bueno, primero, Envision Ally es una aplicación que está en beta. Es una beta pública. Es de la compañía Envision. Y están desarrollando esto para ponerlo en sus gafas. Las gafas de Envision. Sus gafas inteligentes. De hecho, ya está. Para las personas que tengan las gafas de Envision, ya se puede utilizar esto en las gafas. Y vamos a ver que funciona un poco diferente. En cuanto a Gemini y ChangeGPT, vimos que nos están dando respuestas prácticamente en tiempo real. Estamos moviendo la cámara. Están hablando. Están teniendo acceso al flujo de imágenes del video. Ally, que es un proyecto que empezó hace tiempo, funciona de manera un poco diferente. Envision Ally no utiliza video en tiempo real. Lo que hace es tomar fotos. Según sea necesario durante la interacción. Imaginemos que estamos usando VimEyeEyes y haciendo fotos, pero en vez de hacer la foto haciendo doble tab, hay un botón que se llama tomar foto. El asistente de manera proactiva, cuando es necesario, está haciendo fotos y las está describiendo. Vamos a ver cómo funciona en la práctica o en relación con las demás. Hola. Hola. ¿Cómo está tu día? Está muy bien. Que hagamos una cosa. En el transcurso de esta conversación vamos a hablar solamente en español. Perfecto. Suena como un plan. ¿En qué estás pensando ahora? Algo interesante para compartir. Sí, interesantísimo. Necesito que me ayudes a encontrar un altavoz Bluetooth que está aquí en la cocina, pero no recuerdo dónde. Déjame ver. Ahí está, a la derecha, al lado de lo que parece ser un dispensador de papel de cocina. No creo que esté junto a un dispensador de papel de cocina. Ups, parece que mi visión me jugó una mala pasada. Démosle otra mirada. Hay que buscar objetos pequeños y oscuros, quizás cerca de otros gadgets electrónicos. Podría estar medio escondido detrás de algo como una jarra o un frutero. ¿Todo es posible? A ver, te voy a mostrar otra parte de la cocina. Ahí está. Justo al lado de la tostadora hay un objeto negro que parece ser el altavoz Bluetooth. Parece que lo encontraste. No, ese objeto negro no es el altavoz Bluetooth. ¡Vaya! Este altavoz juega bien al escondite. Te voy a mostrar la mesa, a ver si anda por encima de la mesa. Hola, ¿hay alguien? Estoy aquí. A ver, déjame revisar la imagen de la mesa. ¿Y entonces? ¡Bingo! ¡Encontrado! El altavoz está en la mesa, justo al lado de lo que parece ser un jarrón blanco. Ahí lo tienes. ¡Excelente! Dame más detalles para encontrarlo. ¿Cómo es ese jarrón blanco? O sea, dame detalles, referencias táctiles. ¡Claro! Imagínate que estás tocando la mesa y te vas al centro. A la izquierda sentirás un objeto más alto y cilíndrico que es el jarrón blanco. Desde ahí, si mueves tu mano hacia la derecha unos centímetros, deberías encontrar el altavoz. Es más pequeño y tiene una textura diferente, más como de goma o plástico. ¿Lo sientes? Todavía no porque no estoy tocando nada, pero ¿hay algún otro objeto cerca? ¿Algún detalle más que me pueda ser útil? Además del jarrón, parece que hay una cesta de frutas no muy lejos, hacia la derecha del altavoz. Si pasas tu mano desde la cesta hacia el jarrón, el altavoz debería estar más o menos en esa línea, entre ambos. Espero que eso ayude a dar con él. O sea, ¿mis auriculares son unas cestas de frutas? Sí, parece. Si necesitas más ayuda rastreando cosas dentro de la casa, ya sabes dónde estoy. Sí, ya sé dónde estás. Trataré de no mirar en esa dirección. ¡Muchas gracias! Pues nada. Y yo quisiera comentar que aquí edité mucho. ¡Pero mucho! Porque es lentísima la interacción con... Bueno, yo le hago a mi amiga Ali, pero... Las pausas son enormes. En esta parte donde yo digo, ¿hay alguien? Pues porque nos tiramos un rato a ver cuánto duraba aquello y hasta que me alcancé... Y cada vez que responde, ahí está. Antes de eso, ha habido tranquilamente dos minutos de pausa. Claro, eso tendrán que mejorarlo. Pero ¿sabéis quién está detrás? Si está Llamas, si está OpenAI... Yo no he seguido la pista. No sé qué están usando a día de hoy esta gente del Visual. Probablemente sea OpenAI. Yo sé que hubo un tiempo en el que estuvieron experimentando con Lama, pero me parece que no tuvieron muy buenos resultados. Entre otras cosas por las limitaciones que tiene Lama con los filtros de contenido tan fuertes que tiene para describir personas y demás. Entonces creo que ya no están usando eso. Pero no lo sé. Mira, puede que tengas razón simplemente por la voz. A mí la voz no me desagrada. Sé que está montada sobre una voz americana, pero en cambio es muy expresiva. Realmente no es una mala voz. Yo no sé si esas voces son de Eleven Labs, la verdad. Puede que sí. Bueno, no sé cómo las veis vosotros. Yo veo una buena voz. Tiene un acento bastante marcado. Sí. Pero muy expresiva, muy agradable y tiene buen sentido de humor. No me negarás que es expresivo. No se lo puede ganar a Gemini cuando nos vio en realidad. ¡Oh! Así es verdad. Ganó Gemini. Sí, sí. Además Gemini te dice, cuando te lo he dicho, que está encima de la mesa. Pesado. Me ha faltado el pesado. Sí, sí. Está encima de la mesa. Sí, sí. Puede que estemos al lado. Pero déjame hablar. Sí, sí. ¡Déjame ayudarte! Sí, Alay, yo lo veo muy verde. Es mi impresión particular. Creo que es un concepto muy interesante, sobre todo cuando se empezó a hacer. A día de hoy, honestamente, no sé qué va a ser en Vision. Yo creo, yo no sé si cuando logran estabilizar completamente esto ya va a estar obsoleto. Porque con todas estas APIs de Vision en tiempo real. Es que la velocidad de respuesta a la latencia es increíblemente menor. Pero además, Alay alucina que es una barbaridad. Yo no sé si por la resolución de las fotos otra vez. No sé cómo lo están haciendo. Probablemente estén usando modelos mini también. Para ahorrar, no sé. Pero los niveles de alucinación de Alay son altos. Y yo no sé por qué. Tengo la sensación de que en Vision no está poniendo ningún énfasis en hacer que describa como lo haría para una persona ciega. Pues error. Porque encima de que el hardware está obsoleto y es caro. Y si no tienen este plus de que tengan un asistente que funcione mejor que los demás. No saludos menos tienes de Alay. Bueno, a mí particularmente, tengo la misma impresión que tú y no me gusta. De hecho, probablemente me guste aún menos porque conozco los otros. Entonces, me inquieta mucho ver que es tan sumamente torpe, lento. Y sí que de verdad que alucina. De todas formas, yo no puedo ser muy objetivo tampoco. Porque llevo casi semana y media o dos semanas sin probarlo. En los principios era caótico. Ahora he visto que está un poco mejor por la demostración. Pero bueno, si me dices que lo has editado, pues ya no sé yo qué pensar. No, no, eso está muy editado. Yo no uso eso en la práctica. A mí no me parece útil. Yo ni me planteo siquiera instalármelo. O sea, no. Tendría que mejorar, pero de una manera drástica. Pero de momento ni lo considero. Y con vuestras Ray-Ban Meta y Meta Eye con función de visión. ¿Las utilizáis diariamente? ¿Utilizáis las gafas a lo largo del día? Yo ahora mismo las tengo aquí. Yo tengo acceso a Live AI como parte del programa de acceso temprano. De vez en cuando lo pruebo. Te diría que si la comparamos con Gemini y JGPT es la peor de las tres con diferencia. Tiene los mismos problemas que tiene Meta cuando intentas hacer fotos con la función de Look and Tell. Mira y describe. Que hay muchos tipos de información que sencillamente se niega a dar. Por supuesto, cuando usas la inteligencia en vivo. O sea, la AI en vivo. Las respuestas son súper rápidas. Así como Gemini y JGPT. La interacción es muy fluida. Es muy conversacional. Pero la retroalimentación visual es bastante mala. Cuesta mucho trabajo que describa de una manera útil. Todas estas IA, incluido Meta AI, tienen grandes problemas en la localización espacial de las cosas. Es un problema serio. Y Meta AI es mucho más notable. Le dices que tengo delante y lo mismo puede ser algo que tienes, no sé, un poco a la izquierda. Y quizás para una pregunta muy concreta puede estar bien. Pero yo no la encuentro muy útil. Sobre todo, o en parte también. Porque cuando estás usando la inteligencia en vivo, no puedes usar VoiceOver. ¿Sabes por qué? Saques el audio de VoiceOver antes. Por otro lado, porque es como cuando se está en una videollamada. De hecho, es lo mismo. Cuando tú dices la palabra clave, que es Start Live AI. Él inicia algo que podría ser como una videollamada con la AI en vivo. Y a partir de ahí no puedes usar otra cosa. No tiene memoria, con lo cual no puedes preparar el escenario. Por ejemplo, una de las cosas que hago mucho con ShareGPT es... Y en ese sentido la verdad que me ha resultado un diferenciador enorme. El tema de elegir ropa. Seleccionar ropa para lo que sea. Porque es muy fácil, sobre todo ahora con la AI en vivo. Yo sencillamente activo la AI en vivo, enfoco la ropa y ya ShareGPT sabe lo que yo quiero hacer. Y sabe qué tipo de información quiero. Ya no se va a poner a decirme que si la ropa está en un perchero y que si el perchero es de tal color. O que si hay un armario. No. Directamente, ah, vas a elegir ropa para tal cosa. Bueno, tienes esto, esto, aquello. Esto coordina con esto. El estilo es tal, qué sé yo. Es muy concreta. Eso no lo puedes hacer con... No, lo puedes hacer con Geminis. Te tomas el trabajo de escribir un prompt específico para eso. Con Live AI. Tienes que explicárselo. Si lo quieres hacer, tienes que explicárselo cada vez. No sé yo si lo haría bien. Es porque no me supiera, no lo he intentado. No me funciona lo suficientemente bien, la verdad. Yo tampoco uso Live AI. Las gafas, sí, mucho. Sí, las gafas son geniales. Pero mucho. Otra vez, para mí, como una persona con una sola mano, es una pasada poder tener un manos libre como ese. Pero Live AI no. Y la, bueno, comentaba Roberto antes que todo se lo posicionaba a la izquierda. Probablemente es porque solo hay una cámara que está en la patilla izquierda, ¿no? O derecha, ¿no? No sé, no recuerdo bien dónde. En la izquierda, ¿no? Por delante, en el ángulo. Sí, en el ángulo de la izquierda. Curiosamente, la función de Lugantel es bastante más efectiva en decirte lo que tienes delante. Vale. Sería lo que es captura de imagen y descripción. Eso sí. Y eso lo utilizáis mucho en el día a día para reconocer, bueno, un medicamento, un cosmético, en la cocina, en la nevera. Todo eso lo utilizáis. Para reconocer, por ejemplo, si llegas a un sitio nuevo. Imagínate que estás buscando un número específico de oficina, de consulta del médico, lo que sea, en un pasillo lleno de puertas. Pues, vas buscando el número que necesitas. O referencias específicas. Bueno, recuerdo una vez que salimos del aeropuerto de Orlando y estábamos en el parking esperando por un Uber que nos recogiera. Y le pregunté, o sea, le di la información del tipo de carro que estábamos, el auto que estábamos esperando. Y me dijo exactamente en la posición que estaba con respecto a mí. Incluso recuerdo que le dije, ¿qué tengo que hacer? ¿Camino recto? ¿Tengo que doblar un poco? Me dijo, no, no, no. Sigue adelante unos tres pies y vas a encontrar la puerta. Y así fue. Qué bien. Yo lo uso mucho para organizar la correspondencia. Recojo la correspondencia y directamente le digo a la casa, look and read. Enfoco el sobre, look and read. Y con la información que me da, ya me da para saber si es propaganda, si es un anuncio, si es una oferta de alguien que me quiere vender algo. Más o menos para esa primera descartar lo que no es interesante. Es muy rápido y muy cómodo. Agarro el sobre, enfoco, look and read. Y ya está. Y si eso hago una pregunta de seguimiento, no sé, ¿quién la envía? ¿Cuál es la dirección de envío? La gran ventaja de Meta es la comodidad respecto a las otras. Aunque a lo mejor en cuanto a calidad de descripción sea un poco inferior. Pero es que llevarlo encima y de forma instantánea, inmediata, mencionarla, invocarla y que te conteste. Es la gran diferencia respecto a las demás. Sí, pero claro, Meta con respecto a usarla en la Ray-Ban Glasses. El gadget como tal. Sí. Decir que estas ya en vivo todas son muy malas leyendo texto. Pero malas. No son OCRs. No son OCRs. Pero bueno, aún sin ser OCR tú tiras una foto con Be My Eyes o incluso hasta cierto punto con Meta. Y es posible, es bastante probable que te diga, que te dé información útil. Sobre todo con Be My Eyes, sin ser un OCR. Ahora las inteligencias en vivo, funcionando en modo tiempo real. A mí me recuerdan mucho. Todas ellas. Me recuerdan mucho a GPT-4 en sus inicios, la verdad. Cuando alucinaba que era una barbaridad. Cuando lo enredaba todo. Me recuerdan mucho a eso. Y una de las cosas que pasaba al principio con GPT-4 es que la lectura de texto era muy, muy, muy mala. Alucinaba muchísimo. No veía el texto donde se había. La lectura integral y continua. Porque bajo demanda, si vas preguntando, escucha bastante bien. Exacto. Pero si estás usando la cámara en tiempo real, se inventan unas historias. También es cierto que con las gafas de Meta, de Raiden, aquí nosotros disfrutamos del beneficio del poder usar Be My Eyes y Aira. A través de las gafas. Y la verdad es que eso es una funcionalidad con una utilidad impresionante. Eso es brutal. Andar por la calle con un agente de Aira. Y más que ahora ya usar GPS. Diciéndote exactamente dónde doblar. Por ejemplo, el otro día que estábamos medio perdidos en un área de parking bastante grande. Donde había varios edificios y no sabíamos exactamente en qué dirección ir. Y donde estaba la entrada del edificio que estábamos buscando. Llamamos a un agente de Aira. Que además tiene acceso a GPS. Está viendo el mapa. Está viendo el sitio. Y dónde estás. Y te está ubicando. Es una maravilla. Eso es increíble. Por eso me acuerdo que iba caminando. Y me dice el agente. No sé qué distancia. Tienes la puerta. Sigue recto. Tienes el handle. Tienes la manilla a la altura del codo. Y otra vez. Eso para mí es un salvavidas. Normalmente las personas ciegas. Vamos por la vida con una mano menos. Ostras. Una mano menos. Porque llevas un bastón. O llevas el handle de tu perro guía. O lo que sea. En mi caso. Literalmente me quedo sin ninguna. Porque ya tengo una menos. Con lo cual. En lo que agarro el bastón. No sería funcional para mí sacar el móvil. Llamar a Aira. Eso para mí es sencillamente un game changer. Es que no tener que andar con el teléfono en la mano. Tratando de mantenerlo estable. De que no se te incline. Para que la gente tenga la vista de lo que tienes delante. Eso es muy cansado. Sí. Explicamos un poco para la gente que no esté familiarizada con términos. Aunque Roberto ya explicó en el episodio de Ray-Ban lo que era Aira. Pues Aira es un servicio profesional de asistentes. Que están formados en cuestiones de movilidad y rehabilitación. Y entonces ese servicio se ha integrado en las gafas Ray-Ban Meta. O pueden utilizar su cámara. Entiendo que es esto. Y a partir de ahí los solicitar. Creo que tienes que contratarlos. Tienes que tener algún tipo de suscripción con ellos. Puedes invocarlos, llamarles. Y a partir de ahí ellos te asisten. Y lógicamente lo que habéis comentado ahora. Que tanto están viendo lo que tenéis delante. Como disponen de un GPS a la vez para saber la posición y todo. Exacto. Ellos a día de hoy no tienen integración con Meta. Como lo que sería Be My Eyes. Lo que están haciendo es usando WhatsApp. O sea, tú inicias una llamada con Aira. A través de la aplicación de ellos. Y el agente te envía un enlace a una llamada de WhatsApp. Te unes con ese enlace a la llamada. Entonces como claro. WhatsApp tiene integración con las gafas. A partir de ahí ya puedes usar las gafas como interfaz. Genial. Pero claro que eso vale para orientarse. Pero también te puede valer. Yo qué sé. Para que te ayuden a armar un mueble. No sé. Las aplicaciones son múltiples. ¿Vosotros utilizáis vuestros servicios indistintamente? Be My Eyes que también tiene servicios de voluntariado no formado. ¿Lo utilizáis también o siempre recurrís a Aira? No, los dos. Los dos. Depende también de la situación, digamos. Pero para algo así muy específico como orientación en la calle, en espacios abiertos, con ciertos riesgos, etc. Yo no tengo ninguna duda. Aira. Además, ahora Aira lo ha puesto muy fácil porque tienen un servicio que si tú autorizas el uso de la llamada para entrenar de ahí, te dan 10 minutos gratis. Y la verdad es que hay un montón de cosas que requieren menos de 10 minutos. Entonces, en general, por supuesto, el servicio de Aira es mucho mejor. Son agentes entrenados. La verdad es que desde que pusieron Build AI, que es como se llama esa oferta, yo prácticamente no uso Be My Eyes. Porque es que para el tipo de cosas que yo usaría Be My Eyes, necesito menos de 10 minutos seguro. Porque son cosas muy sencillas casi siempre. Y si tengo un servicio gratuito de Aira, a mí no me importa que usen la llamada para entrenar de ahí, porque de hecho yo soy bastante cuidadoso con lo que les enseño. En cualquier caso, si quiero algo confidencial, pues mira, tienes la opción de no usar Build AI. De todas maneras, Aira, aunque no uses Build AI, tienes derecho a 5 minutos de llamada gratis diario. Exacto. Sí, eso es lo que hace extenderlo. En vez de 5, son 10 en cada llamada. O sea, en cada llamada que aceptes la oferta de Build AI. Y si está disponible, no siempre lo está. Pero cuando lo está, si lo aceptas, tienes 10 minutos gratis. Bueno, le hemos puesto todos los dientes largos a la gente de aquí, de Europa, de España. Y este servicio solo está en Estados Unidos, ¿no? No, está en varios países. Está en el Reino Unido. ¿Ah, sí? Vale, vale, vale. En Nueva Zelanda. Ah, bueno. En Canadá también, por supuesto. ¿Seguro? Sí. Si os parece, podemos dar algún consejo práctico, alguna recomendación, algún tip. Yo, por ejemplo, recomendaría en la de Gemini, utilizar el prompt que Roberto compartió, que con eso pues también mejora, ¿no? Es más específico y nos da más información. No sé, ¿algún otro consejo que se os ocurra? Con Gemini, tener en cuenta, no porque lo diga yo, sino porque lo dicen sus términos y condiciones. Es un entorno de experimentación y todos esos datos se van a utilizar para entrenar al modelo. O sea, no es que podrían utilizarse. Es que, o sea, no es una especulación. Está en sus términos y condiciones. Tu voz se va a usar para entrenar al modelo. Lo que le enseñas con la cámara se va a usar. Si alguien tiene alguna preocupación con eso, pues que lo use con ese entendimiento. Por ejemplo, mucho cuidado con mostrar imágenes confidenciales o imágenes que puedan ser de contenido explícito, porque existe una probabilidad de que después el modelo reproduzca esas imágenes. Yo creo que eso valdría para cualquiera en general, de todas maneras. Sí. En Hashtag FPT, por ejemplo, tienes una opción para activamente decidir que no se usen tus datos para entrenar al modelo. Si lo usan después o no, ya no puedo. Ahí no me voy a meter. En general, en general, con todas estas herramientas, ser muy cuidadoso con lo que se envía y mucho más con algo como Gemini Live, donde expresamente la intención es colectar datos de entrenamiento, ya sea para evaluación de servicios como para entrenar. Y sobre todo, tener en cuenta todo lo que dijimos antes. No usar estas herramientas en una situación donde la fiabilidad sea esencial, excepto que se tenga un método adicional de verificación. Sobre todo se me ocurre identificación de medicamentos. Mucho cuidado con esto, porque si te dijera que no lo identifica, muy bien, pero es que te puede inventar un medicamento o decirte que es otro medicamento que tengas también. O confundir la dosis. Y no, definitivamente no. Si es por una cuestión de verificación o de, no sé, de algo que es fácilmente verificable de otra manera, pero por conveniencia, vas a utilizar la herramienta quizás o por experimentar. Pero en situaciones donde la fiabilidad sea importante, no. Definitivamente en la calle, no. Salvo que sea por experimentar. Uno quiere saber cómo funciona y demás. Muy bien. O que tengas un backup. O sea, un entorno que tienes muy controlado. Exacto. Simplemente por experimentación. Pero en una situación donde realmente necesitemos guía, donde necesitemos ayuda, no debería usarse una herramienta de esta manera. Esto de los medicamentos es interesante. Entonces, vosotros descartáis todas estas guías que hemos estado hablando ahora, ¿cuál es la mejor manera de buscarse? ¿Y qué tecnología estáis utilizando para reconocer con fiabilidad un medicamento? La función de texto corto, de CNI, es muy fiable para esto. Sí, es mi go-to. Es OCR tradicional. Lo peor que puede pasar es que no te encuentra el texto, pero si te lo lee, se lo va a leer bien. Y si no se puede hacer con CNI, pues mira, se puede llamar a un Be My Eyes, se puede llamar a un agente de aire. También en CNI hay una de las aplicaciones que tiene, es reconocer productos. Y eso yo lo he usado muchas veces. Y te encuentra, si eres capaz de encontrar el código en el recipiente o lo que sea que estés chequeando, pues encuentras la información. Y eso es muy útil también. Muy bien. ¿Y para cosas críticas en tiempo real, como un semáforo de la calle o cosas de esas? Pues tampoco. Ni pensarlo. No, no, no. Definitivamente no. Para eso supuestamente, hablando de ese futuro, quizás con Glide. No, hay una aplicación que se llama OCO. Tenemos que probar eso. Sí, no la hemos probado, pero la está usando mucha gente. Ahora es de pago, antes era gratis. Es para identificar semáforos. Igual, como también funciona con IA, pues bueno, funciona, pero con muchas reservas. Porque si hay varios semáforos, cerca, en un cruce y demás, pues... Yo no sé cómo funciona. No sé si te dirá la calle concreta. Bueno, ahora han implementado esto. Yo no lo he utilizado. Yo sí que lo he utilizado como reconocedor de color, de semáforo, y eso lo hace bien. Si no te equivocas y enfocas al semáforo, que no es lógico. Ahí está el peligro. En una calle muy ancha que tiene dos tramos de semáforos, a lo mejor te reconoce el cercano o el que está más lejos. No te diferencia cuál es. Entonces hay que tener cuidado. O se cruza una persona por medio. No solo que son enormes las calles, sino que la densidad de tráfico es salvaje. Es muy alta. Y yo no me fío, porque además estás en unos entornos de ruido, etc. Y bueno, en la pregunta del futuro, yo creo que en este caso creo que merece la pena, porque todo lo que podemos imaginar nos vamos a quedar cortos posiblemente. Esto puede cambiar. Y además el futuro puede ser en una semana. Esto puede cambiar muchísimo en poco tiempo. O la última que ha salido de China, o en cualquier momento sale una ya que revoluciona todo. Es posible. Yo diría que es bastante menos probable que revolucione todo. No ocurren ese tipo de grandes cambios a menudo. Lo que sí sabemos con certeza es que este es el año en que todo el mundo quiere sacar agentes. Ya estamos hablando no solo de una IA capaz de entender las imágenes o de comunicarse con el usuario, sino de realizar ciertas acciones en nombre del usuario. Por ejemplo, no solo una IA que te dice lo que está en la pantalla, sino que es capaz de interactuar con los elementos que están en la pantalla. Ya OpenAI de hecho sacó su operador, que es un agente, que es capaz de abrir una sesión en un navegador remoto y completar tareas, hacer vuelos, o incluso desplegar una aplicación web. Tareas bastante complejas. Google tiene el proyecto Marinette que es como una extensión para Chrome. También es capaz de realizar acciones en un navegador. Del mismo modo en que el año pasado vimos aparecer, primero con el anuncio de OpenAI en marzo y finalmente en diciembre, todo esto de la IA en vivo, creo que este año vamos a ver la IA en vivo desarrollarse más hasta un punto donde sea mucho más útil de lo que es hoy. Y eso creo que lo vamos a ver bastante antes de que termine el año. Vamos a ver agentes que quizás no de manera inmediata, pero que a mediano-largo plazo vamos a poder utilizar quizás para simplificar cosas que ahora tenemos que hacer a mano y que quizás los agentes puedan hacer. Y vamos a ver, estoy seguro, más allá de... Vamos a ver aplicaciones para ciegos específicamente implementando variantes de esta inteligencia en vivo, quizás no exactamente como lo estamos viendo ahora, pero variantes de esta misma tecnología. Yo creo que todas estas cosas las vamos a ver este año. Qué bien. Ojalá sea así. El tema del precio actualmente, por ejemplo, para utilizar el servicio de visión o el servicio multimodal de ChatGPT con la suscripción de 20 dólares creo que... Es un tiempo muy restringido el que puedes utilizarlo. Te da una hora diaria para modo de voz este y las sesiones de video son más cortas de una hora pero puedes volver a empezar. Eso va variando, también lo van ajustando. No sé si son 25 minutos, 20 minutos. No recuerdo. ¿Pero tú crees que es suficiente? A día de hoy probablemente sí porque no creo que estas tecnologías funcionen lo suficientemente bien para que se justifique usarlas más que eso. Yo por lo menos no necesito más porque para lo que son útiles se hace en periodos bastante más cortos que una hora. Cuando empiecen a ser más útiles no sé, eso va a depender mucho de cuánta ayuda visual una persona necesite. Yo no uso ni Aira ni Vimaya. Bueno, un día por una situación muy concreta puede que más de una hora incluso. Salvo, por ejemplo, tenemos un amigo, Aira funciona gratuitamente aquí en varias locaciones digamos, en muchos de los aeropuertos de las grandes ciudades, en cadenas de hoteleras específicas, en todo South Miami Beach es gratis. Es Walmart. Y entonces tenemos un amigo que hizo toda la compra para Thanksgiving, para la cena de Thanksgiving en Walmart, con sus gafas y Aira. Claro, ahí requiere bastante más que 25 minutos. Sí, eso me refiero. Hay tareas muy concretas que requieren más tiempo pero ninguna de estas tecnologías está a día de hoy al nivel donde se pueden usar hasta 10 minutos por sesión ya sea para compartir pantalla o para mirar a través de la cámara. La función de compartir pantalla funciona, yo sé que funciona en escritorio, sé, pero no me consta si funciona, no me consta que funcione en móvil. Por lo menos en iOS no, en Android no lo he probado. Sólo se puede usar en escritorio a través de Chrome. ¿Alai todavía está un poco en versión alfa? Yo diría que sí. Yo le doy poca... Yo no le veo futuro claro a eso. Y lo lamento porque me parece que Envision es una compañía interesante que en su momento tuvo un producto muy interesante que fue las gafas con la especie de lector de pantalla que se inventaron para manejarla. Creo que es el tipo de empresa que a mí me encantaría que tuviera éxito. Yo no sé. Yo veo el futuro de esa aplicación específicamente y de esa tecnología que ellos están usando no lo veo claro. Bueno, y luego está la China que es más barata pero todavía no tiene función multimodal y todavía está empezando. Sí tienen un modelo multimodal. ¿Sabes algo de él? ¿Nos puedes hablar? No, lo he probado. No está disponible en las versiones gratuitas estas que tenemos. No es una IA en vivo. Es sencillamente como lo que podría ser GPT-4 que es capaz también de código abierto. No sé ahora mismo si está en holding face o en los espacios donde se comparten este tipo de modelos, pero sé que está. Sé que tienen un modelo multimodal. Además es open source, es código abierto. Es un modelo interesante. Es un modelo súper interesante porque es muy barato de ejecutar. Es muy barato de entrenar y vamos a ver. La verdad, Microsoft lo está incluyendo como parte de la oferta de modelos disponibles en su plataforma de Azure AI, lo cual quiere decir que los desarrolladores ya pueden desarrollar. No el de visión. El de visión no está, pero el que todo el mundo está usando de texto sí está en Azure AI, como también están las versiones de Lama. Yo creo que vamos a ver más y más modelos de código abierto, más baratos de ejecutar, más rápidos, con mejor rendimiento. Vamos a ver si eso continuará. DeepSeek es ahora mismo un fenómeno que está Not as trending. Está as trending. Tiró a las acciones de Nvidia, tiene a todo el mundo ya diciendo que porque cada vez que pasa algo como esto, todo el mundo piensa que es la gran revolución y que es el todo el mundo anuncia grandes cosas, pero en la práctica hemos visto que no necesariamente tiene que ser así. Hay demasiada, en inglés le llamamos DeepSeek, pero hay demasiada excitación con la IA. Demasiada humo, demasiada desinformación y demasiados intereses. Y un poco de guerra fría, también de las IAs. Sí. No, yo creo que está ardiente. Sí, sí, sí. Muchas expectativas, un poco de marketing, un poco de política, se junta un poco de todo. Sí, ok, DeepSeek está muy bien. No sea el último modelo. Ni de los chinos, ni de Meta, ni de nadie. Todavía vamos a ver cuando Meta saque el AMA 4, qué es lo que nos da. Esto continúa. DeepSeek es solo un modelo más. Muy relevante porque logró topar a OpenAI con sus modelos super caros en los benchmarks, pero eso no significa necesariamente que en la práctica le sea útil a la gente. Hay mucho ruido con los benchmarks y te dicen que tienen un 77% en generación de código. Pero eso no necesariamente refleja los usos reales que se le da a los modelos. Y todavía lleva muy poco tiempo. Todavía la gente no lo ha usado lo suficiente. Y saldrán más porque todos estos modelos de código abierto separan uno sobre los hombros del otro. Pero casi con total seguridad usando LAMA y usando OpenAI. O sea, no se hizo de cero. Como otros modelos también se van a hacer apoyándose en lo que se han sacado los chinos con DeepSeek. Esto continúa. Más que continúa, creo que está comenzando. Oh, sí. De todas formas, somos unos privilegiados y queremos verlo así porque en un futuro muy futuro la gente utilizará la IA para hablar ni conversar sobre ella porque no conoce su evolución. Nosotros es muy excitante el estar viendo los cambios minuto a minuto. Y como somos actores dentro de esta como usuarios, vamos, no como nada más. Pero sí que es verdad que, bueno, fijaros que es lo que supone hoy la inteligencia artificial y todos los avances dentro de lo que es nuestra forma de relacionarnos y de nuestras conversaciones y demás. Realmente está en trending todo lo que es la información de cabecera. Y es un hecho, pues, bueno, un hecho que nos toca vivir a nosotros porque esa tecnología comienza ahora sí. Muy interesante que digas eso porque yo siempre he dicho, wow, leyendo historias de los principios de Internet y demás, y siempre he pensado, wow, qué interesante tiene que haber sido estar en ese momento, en un sitio donde fuera posible acceder a cosas y experimentar toda esa tecnología. Y lo que estamos experimentando ahora, si se quiere, es mucho más. Está moviendo el suelo mucho más y mucho más rápido de lo que en su momento fue los inicios de Internet. Creo que sí, que es un momento. Yo, como una persona que le gusta mucho la tecnología y que yo estoy disfrutando mucho todo este proceso en cuanto a probar cosas, la oportunidad de estar, eso lo disfruto muchísimo, en algunos casos, en el centro de ciertos desarrollos y de poder, no por tener acceso antes porque eso no vale para nada, pero sí acceso a cosas que están surgiendo sencillamente porque es un momento interesante. La mayoría de las veces vemos productos que ya están terminados y no tenemos la oportunidad de ver cómo surgen, que para mí, toda esta revolución, por decir algo, toda esta ola que llegó como de repente, lo que más me llama la atención de todo es el impacto que tiene, el impacto potencial que tiene sobre la vida de las personas. Para bien o para mal, y para gente como nosotros, el potencial de empoderamiento como individuos capaces, como individuos autónomos. Es probablemente imprecedente y creo que es algo que no todo el mundo está observando y de lo que no se está hablando lo suficiente. Para las personas con discapacidad, no solo visual, porque para gente con dificultades del habla, por ejemplo, es también muy, muy interesante y de eso quizás no se esté hablando lo suficiente. Con tanto ruido y con tanto marketing, eso se soslaya, yo creo, en los espacios donde se habla de ellas. Bueno, pues, muchísimas gracias, Danai y Roberto y gracias por explicarlo también todo y bueno, estamos, igual que vosotros, muy impactados y encantados de ser testigos de esta tecnología y de vivirla y de vivirla también como personas ciegas y de todo lo que nos aporta y del potencial que tiene, por supuesto. Así que, muchísimas gracias, os esperamos próximamente. Muchas gracias, porque esto da para seguir hablando muchos días, así que seguiremos. Seguro. Hasta pronto. Adiós. Nuestros medios de contacto, Ricardo. gafotas@cegatos.es o a través de WhatsApp en el más 34 Y como siempre decimos, gracias por acompañarnos hasta aquí. Hasta el próximo episodio. Chao. Adiós. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Podcast. Este hombre es el creador de ARPANET, que todos conoceremos porque parece ser que es la precursora en parte de internet y luego también dentro de la historia de la conspiración pues es la que nos controla y nos vigila a todos, pero bueno, esto lo voy a dejar porque no es importante. Vamos a escuchar a Arturo. ¿Y tú, Arturo, qué haces? Aquí, escuchándonos. Muy interesante. ¿Qué haces con la inteligencia artificial? Y grabarnos, que es peor que el de ARPANET. Bueno, esperemos. OK. Excelente. Muchísimas gracias. Eso es todo. Muy buen trabajo. No, gracias. Eso es todo. Bueno, pues, aquí llega nuestra pérdida. Aquí hay una irrupción de... Muy bien. Yo creo que, más que resumir todo lo que hemos hablado, que creo que, bueno, que prácticamente hemos hablado muchas veces de... Fuera. No he dicho nada. He hecho un lío. Nos quedan dos minutos. Quedan dos minutos. No, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no, no,
Gafotas, cegatos y sus aparatos #10
Fecha: domingo, 2 de febrero de 2025, a las 00:00:00
Con el título "Sílbame que no te veo: De la tablilla de arcilla a la Tablet digital", contamos de nuevo con Jonathan Chacón, reconocido experto en accesibilidad tecnológica, para adentrarnos en el interesante mundo de la comunicación humana a lo largo de la historia.
En este décimo episodio, viajamos desde las primeras formas de escritura en tablillas de arcilla hasta las herramientas digitales más avanzadas, analizando cómo los sistemas de lectoescritura han evolucionado para adaptarse a las necesidades de las personas en cada época.
También exploramos las tecnologías actuales que facilitan la comunicación y el acceso al conocimiento para quienes enfrentan limitaciones sensoriales, cognitivas o físicas. Jonathan nos comparte ejemplos prácticos de dispositivos y recursos que están marcando una diferencia, así como anécdotas que nos invitan a reflexionar sobre el impacto de estos avances.
Este episodio es un recorrido trepidante y ameno por la evolución del lenguaje, la escritura y la tecnología, y cómo estas herramientas han moldeado nuestra forma de expresarnos y conectar con el mundo.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Comunicación no verbal y supervivencia, un terrible experimento – 20 minutos.
Los inicios de la Escritura a través de los primeros signos - Tipos con carácter.
Louis Braille, inventor del sistema de puntos en relieve – ONCE.
Alfabeto manual o dactilológico — Fundación ONCE para la Atención de Personas con Sordoceguera.
¿Cómo funciona la tecnología que le permitía hablar a Stephen Hawking? - BBC News Mundo.
Créditos:
Duración: 01:34:13
Descripción detallada del logo de Episodio 10. Sílbame que no te veo: de la tablilla de arcilla a la Tablet digital.
La imagen muestra una escena con una estética retro-futurista y un estilo de cómic vintage con tonos cálidos y contrastes marcados. Dos personajes, un hombre con aire de académico, parecido al personaje del logo de este podcast, y una androide de apariencia elegante y sofisticada, están sentados en una mesa analizando una tablilla con símbolos enigmáticos, rodeados de varias piedras talladas con inscripciones similares. Descripción de los personajes: 1. Hombre con gafas y auriculares: o Viste un traje marrón con camisa blanca y corbata azul, lo que le da un aire distinguido, como un investigador o arqueólogo de una época alternativa. o Tiene el cabello oscuro, bien peinado hacia atrás, y luce una barba espesa y bien recortada, lo que refuerza su imagen intelectual. o Sus gafas de cristales oscuros y redondos le dan un aspecto misterioso, como si estuviera inmerso en un mundo de secretos y conocimiento oculto. o Lleva unos auriculares voluminosos de estilo retro. o Sostiene una tablilla de arcilla rectangular con inscripciones extrañas, examinándola con atención y un gesto de concentración. 2. Androide femenina con auriculares: o Su diseño es una combinación de tecnología avanzada y un aire retro-futurista. o Su rostro es humanoide pero con un tono metálico sutil y detalles mecánicos en el cuello y los brazos. o Luce gafas similares a las del hombre, pero con un marco más integrado a su diseño robótico. o Su cabello, de un tono rojizo con reflejos metálicos, está peinado con ondas bien definidas, lo que refuerza su apariencia estilizada. o Su vestimenta parece una armadura elegante con detalles circulares y un diseño aerodinámico. o Tiene un micrófono integrado cerca de la boca. o Un brazo mecánico articulado, posiblemente una extensión de su propio cuerpo, parece ayudarle en su tarea de análisis. Elementos en la escena: • La tablilla de arcilla con inscripciones: o Está hecha de un material que parece arcilla o piedra envejecida o Los símbolos en ella son de un alfabeto desconocido, lo que podría indicar que los personajes están descifrando un lenguaje antiguo. • Tablillas talladas sobre la mesa: o Varias piedras planas con inscripciones similares están dispuestas sobre la mesa. o Algunas tienen formas más redondeadas, mientras que otras son más angulares. o Esto sugiere que forman parte de un rompecabezas lingüístico o de una colección de artefactos de una civilización perdida. • El fondo y la iluminación: o Un degradado cálido con tonos naranjas y marrones enfatiza el ambiente clásico y la iluminación tenue, con sombras bien marcadas. o El estilo de ilustración recuerda a los cómics pulp de ciencia ficción de los años 50 y 60, con líneas gruesas y texturas detalladas. La escena en su conjunto transmite una mezcla de arqueología, ciencia ficción y misterio, como si los personajes estuvieran en medio de una investigación sobre conocimientos ocultos o la historia de una civilización perdida.
Transcripción de Episodio 10. Sílbame que no te veo: de la tablilla de arcilla a la Tablet digital.
Bienvenidos al décimo episodio de tu podcast favorito. ¿Qué tal estás Ricardo? Pues muy bien Arturo, una alegría escucharte y también saber que estamos ya en el aire y nuestros oyentes nos escucharán a nosotros también, así que un saludo a todos, bienvenidos. Ahí estamos un episodio más contando cosas interesantes y bueno pues hoy queremos pensar un poco sobre el tema de la comunicación, es algo que muchas veces damos por sentado pero es muy curioso que pues para que ahora mismo estemos aquí y pues yo estoy hablando con Ricardo hay un mínimo común que tenemos que ponernos de acuerdo en el vocabulario, en el idioma, en lo que yo estoy diciendo y Ricardo pues pueda entenderlo, es muy curioso. Sí, sí, de hecho los grupos se convierten en sociedades y en su conjunto en civilización gracias a esa comunicación. Y gracias también a dejar un legado de lo que van descubriendo y van compartiendo y bueno van heredándolos conforme pasan las distintas generaciones, entonces todo eso es comunicación. Yo creo que el sistema de comunicación que se utilice pues es el que al final nos hace personas, pues incluso puede modelar el carácter, puede la personalidad que tenemos. Pues depende muchas veces, yo creo que en una grandísima medida de la comunicación, del lenguaje que se utilice. ¿Y tú cuál crees que es el mejor de todos? ¿Hay algún lenguaje que está por encima? ¿Cuál es el bueno bueno? Yo creo que hay una mezcla de lenguajes, por lo menos en los humanos, que es el lenguaje emotivo-afectivo, que sería la parte física y luego el verbal. Para los humanos el lenguaje verbal y generar relatos y vender relatos es un lenguaje que se utiliza en la comunicación, pero en la comunicación es un lenguaje que se utiliza en la comunicación. Y compartirlo y todo esto pues hace de ellos una forma de relación y prácticamente de vida, ¿no? Tanto para lo positivo como para lo negativo, como para que nos vendan ilusiones a base de palabras y vivamos en esa irrealidad que hoy en día es muy común y le suelen llamar fake. ¿Y de los lenguajes verbales, del lenguaje oral, cuál sería así como el más importante o primoginio? ¿Cuál sería el que prevalece por encima de los demás? ¿Cuál sería el que salvaríamos así de forma nativa si no nos enseñara el otro? Bueno, sobre esto hay una historia que no sé si la conocerás, es muy famosa. Bueno, no sabemos si es historia, es leyenda urbana y tiene que ver con el emperador y por tres veces rey, Federico II. ¿Tú la conoces, Arturo? Pues un poco me quiere sonar, cuéntanos. Bueno, pues Federico II, que era conocido como Estupor Mundi. Y realmente le conocían con este nombre porque generaba estupefacción entre las personas de su entorno. Era un hombre muy sabio, un investigador nato, además de ejercer su papel de gobernante y siempre estaba realizando investigaciones. Y entre todas, hay una de ellas que trascendió, no se sabe bien si por sus detractores, porque no lo pone en buen lugar. Y entonces, bueno, pues la voy a comentar, tiene que ver con la comunicación. Con lo cual es muy adecuada para el episodio de hoy. Parece ser que este hombre quería conocer cuál era el idioma originario, el que se hablaría en el Edén o el que traían los ángeles a la Tierra. Hay que recordar que este hombre era rey de Sicilia, rey de Alemania, era también rey de Jerusalén y emperador del santo imperio germánico cristiano. Entonces, el planteamiento de este experimento fue aislar en un cuarto, en una habitación. Y en ese cuarto, el hombre se fue a la habitación a varios neonatos, niños recién nacidos. Y dio la siguiente indicación. Los niños tenían que ser alimentados e higienizados, es decir, los tenían que limpiar y demás. Pero no podían tener ningún tipo de contacto con ellos. Pero vamos, ni tocarlos afectivamente, ni en cuanto a los mismos, ni tampoco... No podían tener ningún tipo de contacto con ellos. El visitaba mucho lo que era aquellas salas de experimentación. Y recorría en silencio y veía la evolución de todo. Y aunque los niños nunca los dejaron de nutrir, nunca los dejaron de limpiar, al cabo de unos meses todos comenzaron a enfermar y murieron. Esto lo que viene a contar es la importancia de la comunicación en el ser humano. Comunicación, como decíamos antes, es todo. Es la... Es la... Son las palabras, son los abrazos, son los afectos. Y realmente es el, por lo menos para los humanos, y yo supongo que para la mayor parte de los mamíferos, es el sostén, ¿no? El sostén de la propia vida. Este contacto y esta comunicación. Y esto es lo que quería comentar. ¿Qué te parece? Me parece una historia, bueno, interesante y un poco trágica. Pero sí, esto demuestra que la base del ser humano es la comunicación, ¿no? Desde los albores, pues siempre nos hemos comunicado visualmente. Por señales de humo, por sonidos con el tam-tam o por el tacto. Bueno, hay muchas formas y muy variadas para podernos comunicar. Y para eso hoy tenemos a un invitado con nosotros que nos va a contar y nos va a hablar de todas ellas. Muy buenas, Jonathan. Buenas, Arturo. Buenas, Ricardo. Buenas a todas y todos. ¿Qué tal, Jonathan? Ya no es un nuevo invitado, ya es la segunda vez que pasas por esta parroquia y te lo agradecemos un montón. Un placer y un tema un poco controvertido porque aunque hay muchos estudios antropológicos de la comunicación, también hay muchos estudios de sociólogos, psicólogos y en muchos casos pocos se ponen de acuerdo. La comunicación entre animales, entre comillas, superiores, en el caso del hombre, pues en un origen se dio la comunicación inmediata a corta distancia. Bien sea por gruñidos, lenguaje corporal, mezcla de ambos, evolucionó al habla rudimentaria, a un lenguaje basado en expresar conceptos, luego a un lenguaje con una gramática para expresar primero la acción, luego el... el elemento que va a ser accionado y luego el sujeto, luego al revés, principalmente en construcciones imperativas o construcciones descriptivas. Y luego pasamos a una comunicación a larga distancia, como puede ser el clásico de te pego dos voces en medio del monte y se escucha bastante lejos, o al silbo canario. ¿Pero por qué? Porque el ser humano necesitó pasar a un lenguaje escrito, porque esa necesidad de dejar una comunicación escrita, bien sea en el suelo, bien sea en una piedra, bien sea una señal en el tronco de un árbol, porque a diferencia del lenguaje inmediato o el lenguaje a distancia, el lenguaje escrito permite que el mensaje sea persistente, sea... imperecedero. Tenga una permanencia, se mueva en esa dimensión del tiempo. Yo, para hablar con Ricardo, puedo hablar con Ricardo ahora. Puedo utilizar un lenguaje hablado inmediato o incluso ponerme a pegar voces, que yo estoy en Sevilla y digo, Ricardo a Málaga, si cojo un megáfono lo suficientemente fuerte, pues a lo mejor le llega. Pero si Ricardo no estuviese conectado ahora, mi única manera de mandarle un mensaje a Ricardo es utilizar un mecanismo más persistente en el tiempo. ¿Veis? Sí. Sí. Sí. Sí. Sí. Sí. Le dejo una nota en braille o le dejo un mensaje en papel o le grabo una tablilla de arcilla o de cera. Por eso esa necesidad de dejar mensajes no tienen por qué ser escritos, también pueden ser tallados, dibujados, pero de ahí nace todo el concepto de lectoescritura, de dejar esa comunicación. Antes has nombrado el silbo canario y sí que me gustaría que nos explicaras un poco, para la gente que no lo pudiera conocer, porque para nosotros supongo que aquí los españoles es algo muy conocido, pero es una circunstancia que es muy pintoresca y que probablemente venga determinada por la orografía de la isla de la Gomera, que es donde viene el silbo, ¿no? Así es. Los gomeros necesitaban comunicarse entre montes. Estamos hablando de distancia de entre uno a cinco kilómetros. Y para ello, pues, idearon un sistema basado en el mecanismo con el que pastoreaban al ganado, que era mediante silbidos. Y por reducirlo un poco, porque el silbo es un lenguaje bastante rico y ahora, desde el 2015 para acá, se está promocionando e intentando proteger, porque estuvo a punto de extinguirse por completo y ahora... El patrimonio de la humanidad. Sí, sí, sí. Pues se está recuperando poco a poco. Y consiste principalmente en silbar e imitas las vocales del mensaje que quieres transmitir. Para evitar ciertas confusiones, pues, se limitan a ciertos vocabularios. Cuando la palabra no está dentro del vocabulario inicial, o sea, el mensaje que quieres transmitir no es compatible con el silbo, lo que se hace es indicar... Bueno, es un poco muy complicado. Y vamos, ¿qué dicen otorrinolaringólogos? Dicen el del oído, ¿no? Ahí está, totalmente. Entonces, hacen una adaptación y básicamente consiste en silbar las vocales. Y ya con eso tú te construyes. Por ejemplo, la casa está rota, pues, a-a-a-e-a-o-a. Y eso lo silban. Y, por cierto, hablabas de que cuando dejamos... Bueno, cuando dejamos esto registrado y trasciende en el tiempo, que se llama escritura, ¿no? Bueno, esto no me dirás que fueron los sumerios también los primeros que dejaron en constancia de algo escrito. O eso ya está. Pues, te pensaba y se ha defendido esa idea de los sumerios fueron los primeros en todo. Y hay mucha controversia porque hay datación escrita de... La misma época, incluso se sospecha de anteriores. Ten en cuenta que cuando vemos unas marcas en una piedra, podemos pensar que simplemente era un oso cavernario que venía ahí a rascarse las pardas. Pero cuando, investigando con las herramientas que tenemos ahora, vemos ciertos patrones y cierta tecnología a la hora de definir esas longitudes, dices tú, esto no es un azar. Esto no... Se están descubriendo cosas muy interesantes. Y luego volvemos al tema de que Europa no es el ombligo del mundo. O sea, no todo va a ser el origen del Mediterráneo. Es más, recientemente se sabe que la especie humana actual proviene de una extinción de primates donde quedaron menos de 20.000 ejemplares del sur de África. O sea, que muchos de los posibles... Entonces, en labones perdidos, que ya no se habla de ese concepto de labón perdido entre el Homo sapiens y lo que había antes, estamos aquí de casualidad y con mucha suerte. Y en realidad todo se origina del sur de África, de un hominido que aprendió que como hubo un problema climático grave, en vez de comer plantas, que las plantas no estaban disponibles, pues empezaron a comer plantas. Y empezaron a comer mariscos y a comer pescado. Y de ahí venimos. Y ahí ya se comunicaban, a partir de gruñidos y demás. Y pensar que de un homínido arborícola somos omnívoros por necesidad, porque nos hemos adaptado a comer de todo, porque empezamos siendo forrajeadores. O sea, nos movíamos en manada forrajeando, comiendo. Enceptos, vegetales, algún animal pequeño. Y cuando fuimos evolucionando empezamos a cazar cosas más grandes. O sea, el movimiento de forrajeamiento consiste en que llevas uno o dos vigías o scouts que van explorando la zona y los de atrás van acumulando. Entonces, ¿cómo se establece la comunicación? Imagínate que tú vas por un camino y se bifurca. ¿Cómo establece? Esa comunicación para los que vienen de atrás. Lo menos productivo, lo más seguro, es tú esperas a que el pelotón de atrás te alcance. Pero entonces la ventaja de los forrajeadores o los scouts se pierde. Solución. Pintas una flechita indicando por aquí. Ya tenemos un lenguaje escrito. Entonces, de la marca de glifos o señalización, de rutas, procedimientos de forrajeo y caza, fue evolucionando el lenguaje, tanto el hablado como el escrito, porque el escrito se va actualizando según la evolución del lenguaje hablado. Porque la gente tiene que dejar mensajes cada vez más complejos. Porque al principio lo típico de las tres Fs, de alimentar los otros y los otros. Vamos a verlo. De eso pasamos a tablillas de arcilla, donde te pactan entre comunidades qué quieres decir. Y entonces ahí aparecen tres formas de transformación. Están los logogramas, que son traducciones de los conceptos que se quieren comunicar en una runa o figura que transmite, ese concepto. Por ejemplo, un triángulo isósceles sin la base, con un cuadrado, transmite la idea de hogar, casa. Un círculo con una línea diagonal, transmite el concepto de grupo cerrado, que actualmente es un cero. Pero bueno, ya los árabes cambiaron muchas cosas. Un... Un símbolo de una flecha hacia abajo es el aquí, el artículo de lugar. Entonces son conceptos que misteriosamente coinciden en las runas nórdicas, las runas mesopotámicas, las runas precolombinas. Son figuras que aparecen en... ¿En todos los sitios runas son piedras pintadas con símbolos? No, son los símbolos que se pintan. Vale, vale, vale. Lo que pasa es que la piedra era, junto con la arcilla, el medio donde dejarlo. ¿Qué pasa? ¿Por qué no nos han quedado apenas tablillas? Porque la arcilla es muy perecedera. La piedra dura más. Correcto. Y una cuestión, Jonathan. Un glifo, aparte de que en Asia puede ser el instrumento canilla que lo abres y sale agua, ¿qué es exactamente? Que lo has nombrado antes. Un glifo es... Un conjunto de runas que transmiten un concepto más complejo. Transmiten un mensaje más completo. Entonces, el glifo, por ejemplo, los hay pentagonales, los hay en espiral, los hay lineales. Cuando es lineal puede ser tanto en vertical como en horizontal, que a partir de la escritura de glifos tenemos las escrituras de por qué escribimos de izquierda a derecha o de arriba a abajo, o de izquierda a izquierda, o de izquierda a izquierda, como en lengua norafricana. ¿Y el soporte de los glifos? ¿Qué suele ser? Dependiendo de si querías mantener un mensaje mucho tiempo o poco tiempo. Por ejemplo, si querías decir, yo he ido para la derecha porque he visto un mamut de 4 toneladas y parecía que estaba herido, pues ahí pones 4 o 5 glifos, pero eso a los 3 días va a desaparecer. Pero si quieres poner, aquí se venden mejor estos faros, y si quieres poner un cuadro de mamut alrededor de todo este bosque, pues coges una tabla y lo pintas con sangre seca de lo bicho que sea. También con la evolución de los logogramas pasamos a la necesidad de pactar que mi concepto de glifo o de runa de mañana va a llover o a 5 días de camino de aquí hay un rebaño de ñoques, a lo mejor la comunidad de al lado no compartía ese concepto, ese logograma, ese significado. Entonces evoluciona a que si ambos utilicemos el mismo lenguaje hablado, pero no tenemos la misma escritura, cambiamos de los logogramas de escribir o dibujar conceptos a escribir lo que hablamos. Entonces ahí tenemos los alfabetos, que es escribir cada sonido que pronunciamos o escribir las sílabas que pronunciamos, que son los silabarios. Están los alfabetos, que es escribir todas las consonantes y vocales que pronunciamos o las que podemos pronunciar, ya que hay lenguajes donde se emiten sonidos que no son producidos por la musculatura de la lengua y de los labios, por ejemplo, chasquidos, que se producen en ciertos dialectos centroafricanos o también de sudamericano, de carácter indígena. Entonces ahí los alfabetos no son apropiados, entonces se utilizan silabarios. Porque no es lo mismo el ac del jaj del caj, pues esa es la diferencia. Si pronunci Champions, por ejemplo, el árabe clásico, el farsi, tiene algunas pronunciaciones que son guturales. Entonces, ahí el árabe actualmente, utiliza un alfabeto, pero para el farsi sí hay un silabario. Y volviendo al tema de los escritos, de las tablillas de arcilla, donde dejábamos por ejemplo el tablón de álcool, que es de tipo químico, por ejemplo, contratos de yo te doy 30 vacas y tú me das 50 corderos y dos vírgenes, pues empezaron a escribir en maderas, en construcciones y demás, y ahí empezó la publicidad. Se sabe que uno de los escritos más antiguos del que tenemos constancia y se conserva era un cartel publicitario del Antiguo Egipto, antes de los grandes faraones. Se conserva, después de traducirlo, de un señor, no me acuerdo si vendía telas o vendía ánforas de vino, pero se tiene ahí, o sea, se utilizaba el lenguaje escrito para hacer publicidad. ¿Por qué? Porque el lenguaje estaba pactado y todas las comunidades de alrededor escribían de la misma manera. Podíamos hablar un poquito diferente, pero a la hora de escribir sí se mantenía ese pacto de... compartir el significado. Serían jeroglíficos, ¿no? Sí. Lo que utilizaban los egipcios. Un alfabeto, porque lo que se escribía es cómo se pronunciaba, pero la forma de escribir cada alfabeto, pues, por ejemplo, el que tenemos nosotros es una evolución del alfabeto griego que pasó al romano y a Europa. En el mundo occidental, Estados Unidos y Latinoamérica, principalmente se utiliza un alfabeto latino. Si te vas a Europa del Este, Rusia y gran parte de los países que acaban en Están, pues, utilizan un alfabeto cirílico. Casi todas las lenguas que se hablan en Europa y en la India occidental, Oriente Medio y Oriente Sur, Oriente Próximo, vienen del endoeuropeo. Vale, que ya ahí se pierden en el principio de los tiempos. Ya ahí no me voy a meter porque no soy lingüista. El endoeuropeo, que es de la parte de India y de la parte de Europa. Sí, esa parte de esa región, porque había mucho movimiento. Por la zona que Alejandro Magno y todo eso, ¿no? Pues, más o menos... Sí, tanto de los Carpatos para la derecha hasta la península de Beria. Y cómo puede influir la complejidad en el lenguaje y, por tanto, en las sociedades. Porque no todos los sistemas de comunicación tienen la misma complejidad. Hay sistemas, incluso eso con dibujillos, otros que tienen declinaciones, otros que son... Bueno, hay más complejos, hay menos complejos. Los esquimales tienen un mogollón de palabras. Para referirse al hielo, nosotros con una sola nos apañamos. Claro, pero ahí hay un tema de la necesidad. ¿Cómo modela las sociedades? O sea, si tú vives en una zona donde el principal conflicto es encontrar agua porque vives en un desierto, tu sociedad evoluciona a favor de solucionar esa necesidad lo antes posible. Tanto el almacenaje como la localización y la extracción de agua. En cambio, si tú lo que tienes para orientarte son dunas de nieve, tu forma de comunicarte se especializa en explicarle a la otra persona que no es esa duna de nieve, que es el color FAAFAFA, sino que es el color FFFFF, por poner un código hasta decimal. Porque, volviendo al tema de los esquimales, tienen, creo que son 20 palabras para el color blanco, para definir matices de blanco. Entonces, el entorno, la evolución de esa sociedad, la forma de convivir y de comerciar. Por ejemplo, si tu sociedad se ha especializado no en comerciar pacíficamente, sino en una sociedad de conquistadores o de esclavizadores, pues es más probable que tengan más vocabulario relacionado con la guerra que con el comercio. Entonces, la forma también de organizarse, la gramática del lenguaje, también viene muy forjada por si el lenguaje se ha extraído o se ha analizado a la hora de convertirlo en escritura de forma, entre comillas, igualitaria entre pobres y ricos, o solo podían escribir unos cuantos. Entonces, las reglas a la hora de definir la escritura, por ejemplo, en la Europa medieval, solo los escribais los monjes, podían modificar la forma de escribir. Por ejemplo, las mayúsculas que tenemos actualmente, o los signos de puntuación, pues están a la necesidad de aquellas personas que sí tenían acceso a la escritura. Y no lo hacían por un beneficio de toda la comunidad, sino un beneficio propio, porque el escriba era un trabajo arduo y cansado. Música Se puede decir que un sistema de comunicación es el reflejo de lo más o menos avancada que está una sociedad. Así es. Y esa sociedad por dónde ha venido, por dónde ha evolucionado, por dónde ha crecido, por dónde se ha cambiado twill, por qué va a cambiar, provide married couples. Por ejemplo, tú observas lenguajes asiáticos, aunque todos provenimos de los mismos simios, hemos evolucionado de forma muy distinta. Las necesidades orográficas a la hora de encontrar cobijo, a la hora de encontrar comida o a la hora de encontrar agua eran muy distintas en el norte de Europa que en las estepas siberianas, que es en las mesetas chinas. Entonces, ahí tenemos muchas diferencias de cómo nos comunicamos. Por ejemplo, se sabe que el español gramaticalmente es mucho más complejo que muchas lenguas nórdicas. Nuestra gramática es compleja, pero a la hora de pronunciar es mucho más sencillo. ¿Por qué? Porque no hemos diseminado mucho. Entonces, ese pacto, ese contrato social para comunicarte con otras personas... Nos ha forzado a que escribimos tal como pronunciamos. También tú te vas a una lengua como el anglo o el celta y tú escribes building y pronuncias building. Entonces, ahí hay una separación entre lo que hablas y lo que escribes. ¿Por qué? Porque ahí hubo más control y más separación de lo que hablaba la gente en la calle que lo que se escribía. Ahí se puede hablar mucho de historia y de evolución de sociedades y no tiene mucho que ver con el lenguaje escrito. ¿Incluso hay lenguajes o sistemas de comunicación propios de las personas con discapacidad? Pues, de la necesidad surge la solución. La necesidad de comunicarse entre personas, en muchos casos, se crean barreras porque el lenguaje hablado no deja... Fuera a personas ciegas o personas con problemas de motricidad, pero sí deja fuera, en principio, a personas sordas. Porque carecen de acceso a esa comunicación sonora. En el caso del lenguaje escrito, pues las personas ciegas quedan fuera porque el canal de comunicación es la visión. Pero también deja fuera a las personas que no tenían capacidad de la motriz porque no podían tallar, no podían mover la caña o la pluma. Para dejar el mensaje. Entonces, de esa necesidad de yo también me quiero comunicar. Y recordemos que en las comunidades de personas con discapacidad. Y ahora son un poco endogámicas, por decirlo de alguna manera. Las personas ciegas se suelen juntar con personas ciegas. Las personas en silla de ruedas se juntan en club de la rueda o en club de la silla, que también los hay por ahí. Entonces, de ahí surgen soluciones para comunicarse entre ellos. En el caso de personas sordas está la lengua de signos, que ya es un idioma reconocido y protegido en muchos países. Lo que pasa es que el sistema de lengua de signos que hablan, por ejemplo, en España, no es el mismo español que hablan en algunos países de Latinoamérica. En otros sí. Porque se ha importado o se ha exportado. Pero es que incluso hay diferencias de lengua de signos de lo que pueden hablar en el norte de España que en el sur de España. ¿Que se van a poder comunicar? Sí, porque hay un poco de lengua de signos, entre comillas, internacional. El sistema de lengua de signos es un sistema de comunicación muy interesante porque mezcla lo que serían logogramas con alfabetos. Porque tú tienes signos para transmitir conceptos. Y también... También tienes signos para transmitir letras. Entonces, a veces, por ejemplo, cuando tú no tienes un signo para transmitir el concepto de casa, porque no estás hablando de una casa, si no estás hablando de una Kelly, pues la persona sorda puede signar K-E-L-L-Y o como quiera que escriban Kelly. Y entonces tiene esa flexibilidad a la hora de comunicarse. ¿Qué pasa? Que también hay personas sordas que pueden leer los labios. Entonces, para los idiomas hablados donde esté claramente marcado y tenga especial presencia la vocalización, como ocurre con el español o ocurre con el francés, las lenguas romance principalmente sí tienen esa facilidad para ser interpretadas con la lectura de labios. En cambio, hay otras... Lenguas como el cantonés o vietnamita que son más complejas porque parte de la comunicación se hace con los labios y la lengua, pero también con la entonación. Cuando el lenguaje, la entonación con la que transmite ese mensaje da información, la entonación no se puede interpretar con la postura o la posición de labios y lengua. Entonces, ahí sí es necesario... Un apoyo o una identificación más clara de lo que está queriendo decir la persona que emite ese mensaje. Entonces, la persona que lee los labios no puede recibir todos los matices de lo que se está hablando. Tenemos los ciegos. No solo del braille vive el ciego. Teníamos la escritura en relieve, pero había muchos tipos de relieve. Principalmente tenemos mucha información del siglo XVII en adelante. Parece ser que antes los ciegos no escribían. O no hay mucha datación de lo que había antes, o se perdió, o la Edad Oscura no nos dejó mucho espacio. Pero principalmente... No memorizaban, ¿no? Cantaban sus pliegos de cordel. Era más bien romanzas y romances memorizados y por transmisión vocal, como la mayoría de la transmisión que había. Los jugulares, ¿no? Había jugulares ciegos. Claro, pero entonces no había un lenguaje escrito adaptado a la necesidad de la persona ciega. Fue ya en el siglo XVII donde empiezan a, gracias con la imprenta, y a partir del invento de la imprenta, empiezan a derivarse otras tecnologías. Fue ya en el siglo XVII donde empiezan a, gracias con la imprenta, y a partir del invento de la imprenta, empiezan a derivarse otras tecnologías. Para hacer sobre relieves de pequeño tamaño. Porque los sobre relieves de gran tamaño, por ejemplo, tallar con un escoplo o un cincel, pues no era lo apropiado. Un sobre relieve se identifica mejor que un bajo relieve. Recordemos, sobre relieve es que sobresale hacia arriba. Imaginemos una loseta o azulejo y tenemos algo que tiene un volumen hacia afuera. Eso es un sobre relieve. Si el azulejo está perforado, eso es un bajo relieve. El sobre relieve siempre se identifica mejor al tacto y facilita una lectura de mayor calidad y mayor velocidad. Pues había varios tipos de escrituras en relieve. Algunas basadas en tejer o dar forma, como el que escribe con un hilo grueso. O algún tipo de metal candente o algún tipo de material que se solidificaba con el tiempo. Pero imitando la grafía o las formas de las letras, los visuales, ¿no? Sí, sí. Y aquello no había facilidad para entender algunas mayúsculas, pero las minúsculas que suelen encadenarse unas con otras para transmitir el concepto de que todas esas letras, forman una palabra, pues ahí había complicaciones. Y entonces se fueron explorando distintos mecanismos de hacer ese sobre relieve. Porque sí se vio claro que lo ideal es un sobre relieve para que la persona ciega pueda entender que se ha escrito ahí. Estaba el sistema de Valentín Agüi, que es un francés ya del siglo XVIII, que utilizaba en lugar de un hilo, para hacer el sobre relieve utilizaba un sistema de punteado, de elevaciones del papel. Es como una semiperferuación, ¿no? Que no acaba, pero que punteas por detrás, ¿no? Claro que levantabas un poco, lo que pasa que no era con una aguja fina, sino era con una especie de elevación. Bueno, pues el sistema de Valentín Agüi nos daba unos sobre relieves. No muy definidos y entonces se transmitía información, pero costaba mucho trabajo entender qué se quería decir. Y seguíamos intentando dibujar letras de tinta en relieve. Y entonces ocupaba mucho espacio. Entonces evolucionó al sistema de escritura de púas de John William Klein. Y este alemán lo que hacía era utilizar unas pequeñas agujas en un formato similar a los cajines, de la impresora de Gutenberg, que perforaba parcialmente el papel grueso por detrás y hacía un sobre relieve del trazo de una letra, pero con un grosor mínimo y bastante identificable con el tacto. Ahí vieron que en lugar de hacer un sobre relieve continuo, utilizar perforaciones que transmitiesen la forma de la letra, ahí se, por ejemplo, en lugar de poner los puntos muy cercanos para transmitir esa curva de una O, separándolos más, una O, por ejemplo, con seis, ocho puntos con la forma de un círculo, era suficiente para que el ciego viese la forma circular. Entonces ahí se exploró mucho más del sistema de escritura de púas. Incluso tenemos un español... De Pedro Llorens, de un sistema de relieve continuo, que era con las elevaciones por púas, pero más cercanas, para que no hubiera demasiado espacio interpunto de separación. Y la sonografía de Charles Barbier, que se utilizó inicialmente para la comunicación escrita de militares en la noche, y que se utilizó para la comunicación escrita de militares en la noche, Luis Braille, lo tomó para crear su sistema de letra de escritura Braille. Y se basó en un cajetín de seis puntos, tres en vertical, dos en horizontal, una matriz, que con 64 combinaciones y utilizando prefijos, sufijos, unas reglas de escritura bastante sencillas en principio, pues tenemos sistemas para escribir matemáticas, para escribir música, para escribir música, química, física... Y es el que tuvo más éxito. Y viene a dar una realidad, que es que la solución hecha por una persona ciega es la más satisfactoria para el resto de ciegos, porque el resto de sistemas de lecto escritura adaptados a ciegos, en la mayoría de casos, eran por gente no ciega, que sí que tenía contacto con personas ciegas, pero no tenía esa sensación de que era el que se iba a encontrar, y que no tenía esa sensación de que era el que se iba a encontrar. necesidad imperiosa de comunicarse. Entonces, pues, es un claro ejemplo de que muchas de las soluciones de accesibilidad más satisfactorias vienen originadas por personas que necesitan esa solución. A mí en este caso siempre me llamó mucho la atención la importancia que tiene el sentido en el que percibimos las cosas. Lógicamente, la morfología de una letra, la grafía, que se conoce, esa forma que ha trascendido y que está en todos los alfabetos, tiene un impacto visual que nos hace reconocerla nada más la vemos. Lógicamente, ese recorrido, hacerlo por el tacto, de forma áptica, es decir, hacer ese mismo recorrido que en la visión es un impacto, pues, para tocarlo tienes que hacer todo el recorrido de la línea que forma la letra. Entonces, la solución de Braille me parece genial por eso, porque lógicamente, era el sentido del tacto lo que se comprometía. O sea, la yema del dedo la que tenía que ser estimulada para percibir lo que es la letra en sí. Y, lógicamente, es algo con vértice, algo agudo, algo con punta pero redondeado, lo que va a generar en esa yema del dedo una impresión que te va a transmitir una forma. Que luego ya, en tu cerebro, será una imagen, pero a priori esa es la forma más eficiente. Y tampoco hay que olvidar el desplazamiento horizontal, que en el caso nuestro es de izquierda a derecha, que no reconocemos los seis puntos Braille a la vez al poner el dedo encima de la celda Braille, sino que hacemos una lectura lateral y vamos reconociendo y montando el cajetín Braille en nuestra mente. Y la simplicidad, porque también visualmente los caracteres no siempre son iguales. Una A mayúscula las hay de muchos tipos, formas, tamaños, colores. Serif, sans serif, como son menos rabitos en los extremos. Bueno, dentro del Braille también tenemos diversidad, porque el cajetín Braille japonés, por ejemplo, es más pequeño, más reducido. El espacio interpunto es mucho menor que el occidental europeo. Dentro de los Estados Unidos de Norteamérica, en Canadá, tienen dos tipos de cajetines. El estándar europeo que tenemos aquí es el que usan también ellos, pero también tienen un cajetín un poco más grande con el punto más gordo, que es el que se utiliza para la impresión industrial. Por ejemplo, los botes de refresco o algunos medicamentos o algunas cajas que vienen con un Braille que no respetan el estándar de cajetín Braille es un poquito más grande, un poquito más grueso, porque también el moldear ese punto con esa precisión de tamaño pequeño del cajetín oficial es muy costoso. Entonces, ¿qué se hace? Se pone un poco más burdo, más grueso y a baratas costes. No necesitas tanta precisión en el moldeado del contenedor. Pero es por esos motivos, no es porque haya un Braille Serif o Sans Serif o Helvética o cosas de estas. Esto es monoespacial. Claro, pero es lo que te digo, que por ejemplo, el mandarín utiliza dos cajetines Braille porque son logogramas. O sea, tú con 64 combinaciones no puedes transmitir un concepto. Entonces, ellos utilizan dos cajetines que son 64 por 64 posibilidades. Entonces, transmites ahí el logograma. La cursiva, la reglita. Sí, exactamente. Esto, sí, visualmente, tiene su sentido y te están indicando que esto es un estándar. ¿Y en Braille? ¿Y en Braille? ¿Cómo lo haces? Pues utilizas prefijos de entrada y salida para delimitar el espacio en que está en cursiva. Igual que tenemos signos de puntuación de apertura y cierre de afirmación o de interrogación, en Braille tenemos símbolos para indicar el comienzo y finalización de una bastardilla, de una inclinada, de una enfatización, de un entrecomillado. Incluso en matemáticas tenemos paréntesis, llaves, corchetes y sobrecorchetes. ¿En programación? Ahí en programación no utilizamos un cajetín principalmente de 6, sino de 8. Es lo que llamamos Braille computerizado porque al ser 8 puntos, que podemos quitar y poner, tenemos 256 posibilidades que coinciden misteriosamente con el alfabeto ASCII. Entonces, es muy fácil tener un solo símbolo para todos los caracteres ASCII, que no ANSI. No me voy a meter en las diferencias entre ASCII y ANSI, pero la gente que entienda que dentro del mundo de la informática, mientras que nosotros tenemos en un lenguaje normal letras desde la A a la Z, dentro de la informática tenemos letras desde el espacio hasta el tierra corchete. Todos son letras para el ordenador, incluso los números. También nosotros distinguimos entre letras y números, pues para ellos son todos caracteres y son tablas de caracteres, tan ASCII, ANSI, LATINISO, QTF, UNICODE, bueno, un montón. El Braille computerizado son 8 puntos y entonces eso permite que por ejemplo, tú tengas acceso a ciertos símbolos que no hay traducción en Braille. No todo se puede escribir con Braille de 6 puntos y por eso hay Brailles especializados para química o para matemática, donde tú haces conversiones, por ejemplo, el símbolo de integral, integral matemática, son dos cajetines Braille, porque no hay combinaciones libres dentro del Braille matemático estándar para transmitir el símbolo de integral. Nos quedamos sin símbolos. O por ejemplo, en física, para definir ciertas magnitudes, mientras que en un lenguaje escrito visual, tú con un símbolo lo haces porque utilizas una letra griega, un sigma, un omega, un alfa, en Braille tú utilizas un conjunto de siglas para transmitir esa unidad o esa magnitud. Es que 6 puntitos solo dan para 64 combinaciones y con 64 combinaciones es que no hay suficiente ni siquiera para las mayúsculas, que hace falta dos cajetines, los números, también hace falta dos cajetines y 64 combinaciones son muy pocas. También hay otras versiones, otras adaptaciones por ejemplo para sordociegos. Que los sordociegos también leen Braille pero a la hora de comunicarse no pueden escuchar lo que se habla, entonces hay una adaptación de la lengua de signos que es para personas sordociegas, que se llama datilológico. Lenguaje datilológico, que es en la palma de la mano, tú vas forzando formas con tus dedos y con el dorso de tu mano para transmitir letras o conceptos. Es parecido a la lengua de signos de las personas sordas, que puedes transmitir letras o conceptos, pues eso mismo pero en la palma de la mano. Aunque yo he visto personas sordas que lo hacían en el brazo o en la espalda y también lo leían, o sea, ya eso es nivel experto. Sí, en la espalda también, en cualquier parte del cuerpo se puede interpretar. Esto lógicamente es porque al no ver al interlocutor también sordo haciendo los gestos, necesitan el contacto físico con las manos. Este sistema datilológico que es muy interesante el que se haya desarrollado y vamos, yo he tenido la ocasión y fortuna de conocer a mucha gente con sordoceguera y he estado en eventos donde han participado en tipos de actividades y verlos comunicarse es una pasada. Es decir, es una situación además a mí me reconcilia con la humanidad, ¿no? Porque el intentar ya buscar la comunicación ante la dificultad por encima de todo es magnífico y creedme que, vamos, que la comunicación era fluida, normal, con su humor, sus risas y bueno, genial. Yo reconozco que mi datilológico lo tengo muy oxidado porque hace muchos años ya que no participo en eventos y congresos con personas sordocegas, aunque conozco a varios, pero si hay de reconocer su paciencia infinita cuando tú querías hablarle y tu datilológico era muy lento. Yo he llegado a contar el chiste de Batman y la monja y nos hemos reído todo, pero un chiste que hablando lo cuentas en 20 segundos, yo estuve como dos minutos ahí con el datilológico y bien, bien, bien. Yo aprendí a decir hola y entonces yo supongo que me dirían, mira, el tonto lo hola, ¿no? Porque siempre decía hola. Era así como ponías los dos como una escuadra, ¿no? El índice y el pulgar, ¿no? Luego hacías como un círculo para la O, ¿no? Era la H que era hacer una especie de L con el pulgar y el índice, la O que era cerrar el pulgar con el índice en círculo, quitando el resto de dedos, la E haciendo una especie, de puños separando las falanges un poco para dejar parte de la palma libre y la L pues era con el dorso de la parte del meñique, como el que va a cortar algo con la mano haciendo karate. Sí, señor, está muy bien, muy ilustrativo. Así era, pues el tonto de Lola hacía exactamente eso. Cuando alguien decía hola y no decía nada más, decía, anda, mira, Ricardo. Mira, yo recuerdo que a mí me tenían como trabajaba también, ellos eran usuarios, ¿no? del sitio donde yo estaba trabajando, en aquel momento, para identificarme a mí, cuando hablaban de mí entre ellos, cogían un trozo de mechón de pelo desde la parte de atrás, ¿sabes? Y lo agitaban. Y ese era mi nombre en clave. Claro, es que ahí tenemos un tema de lo que se llama la subjetividad de la comunicación, o sea, mientras que todas las personas tenemos un nombre oficial pactado, que en algunas culturas el nombre real, nunca se daba, eso solo lo sabía tu padre, tu madre y tú, por temas de superchería, cultura religiosa o temas de supersticiones, tenemos un nombre oficial registrado en el registro civil por tu partido de nacimiento, dentro de tanto la lengua de signos como en el datilológico, la comunicación de personas sordas con algún otro perfil de discapacidad o solo con el perfil de sordera, cada individuo se identifica, se identifica con un símbolo que esa misma persona se atribuye o que la comunidad le atribuye. Eso a mí cuando me lo explicaron unos compañeros sordos, pero yo puedo elegir porque claro, a mí si me dejan elegir, yo elijo el saludo treki para mí. No, no, te lo ponen ellos. Sí, sí, o sea, tiene que ser un pacto, pero la comunidad gana sobre la identificación del individuo. O sea, tú puedes proponer, poner uno y a lo mejor dices no, ese no es para ti. Entonces es muy divertido. Pero yo nunca pregunté por qué el cogerte un mechón de pelo de atrás y agitarlo era mi nombre, porque eso con Ricardo no tiene nada que que ver, pero bueno. No, no, no, no, es la experiencia que se tiene con ese individuo. Entonces la comunidad busca algo similar que transmita. Te recuerdo que la lengua de signos principalmente son logogramas, o sea, transmiten conceptos con los símbolos que signan. Pues el datirológico también es similar. A lo mejor tú eras el pesado del cogote que estaba allí siempre, pues te cogeas el pelo por detrás, por poner una explicación que no es cierto. Sí, sí, pero no la comparto. ¿Y las personas con discapacidad física tienen alguna peculiaridad respecto a la comunicación? Principalmente a la hora de escribir y a la hora de pronunciar. Entonces ahí, en la comunidad, hay que tener un poco de cuidado con lo que se dice. Y eso es lo que yo creo que es lo que es lo que se dice. Y eso es lo que se dice. Y eso es lo que se dice. Y eso es lo que se dice. Y eso es lo que se dice. Entonces ahí ya entramos en los tableros de comunicación no aumentativa, que ahora explicaremos después qué es la comunicación aumentativa. Entonces son tableros de comunicación donde podemos tener una matriz, una rejilla, una cuadrícula con las letras del alfabeto, algunos números y unos cajetines que pongan sí, no, ni de coña. Y mediante algún sistema, bien sea una varilla, bien sea una pelotita, bien sea un barredor. Un barredor es algún utensilio que lo que hace es permitirte mover de izquierda a derecha. Cuando llega al final de la línea esa, vuelve justo en la línea de abajo por la izquierda. Vas barriendo las posibles letras. Hoy en día se sigue utilizando, sobre todo porque las personas mayores no se tecnifican, un sistema que se basa en el deletreo mediante timbre. O sea, tú le pones a la letra, te pone el número, te pone el nombre de la persona mayor que solo puede mover una mano y entonces tú vas a B, C, hasta que llega la H y entonces hace clin, dice vale, la H. Empezamos otra vez. A, B, C y hasta que llega la O, H, O, venga, A, B, hasta la L. Y dices tú, ah, coño, que es Ricardo que me está diciendo. Pues sí. Entonces es un sistema que es el más adecuado. Pero dices tú, jo, qué paciencia que tenés. No, es que se puede optimizar porque, por ejemplo, empezamos con filas y tú le dices, fila, y hace clank, clank, clank. Dice, vale, me voy a la tercera fila. En vez de empezar por la A, empiezo a lo mejor por la J. Ya estamos optimizando. Y es cuando decía un compañero, nos metemos los ingenieros en lo que habla la gente. Ahí ya empezamos a optimizar la comunicación. Y de ahí empieza la tecnología que, por ejemplo, tenemos sistemas de tableros de comunicación basados en el movimiento de los ojos, en el movimiento de partes móviles que tenga el cuerpo. Por ejemplo, Stephen Hawking solo tenía en las últimas etapas de su vida movimiento en un párpado y en la mejilla y en parte de un dedo anular. O sea, la. La. Lo dejó paralítico, parapléjico hasta el 99,9%. Y con esa posibilidad de movimiento de su cuerpo se comunicaba. Tenía un sistema de lectura de ese movimiento que lo traducía mediante un barredor en lo que él quería escribir. ¿Qué pasa? Que ahí ya se utiliza sistemas de aprendizaje a profundo del lenguaje, sistema de inteligencia artificial, porque tú ya empiezas a escribir. H, O, dice el sistema. Este es Ricardo, porque me va a poner una R, seguro. Entonces ya te rellena la palabra que iba a decir. Normalmente cuando se utiliza un sistema de barredor no se utilizan los espacios o no se ponen signos de puntuación para transmitir el mensaje de la forma más apropiada, porque suelen ser personas que tienen problemas para moverse. Encima le va a obligar a poner espacios. Sí, la forma más económica que no malgasten. Sí, sí, sí. Claro. Y eso. Para las personas con problemas de movilidad o motricidad. Y personas con problemas cognitivos. Ahí ya entramos en los tableros de comunicación aumentativos, que cambiamos las letras por glifos, por pictogramas. Que un pictograma es un dibujito que transmite un concepto. Por ejemplo, tú pones un dibujito de un cubo de la basura, pues eso tiene más importancia. Tiene mucho significado. Pero si yo le pregunto a Ricardo, oye Ricardo, ¿qué opinas sobre un guiso de cucarachas con chimichurri? Ricardo puede señalar al pictograma del cubo de la basura y sabemos su opinión al respecto. Se puede interpretar de esa manera. Entonces, la comunicación aumentativa no usa letras, no usa caracteres, sino que usa conceptos. Volvemos al tema. Volvemos al tema de los logogramas. Con eso, una persona con trastorno autista de espectro 2 o espectro 1, bueno, el espectro 1 puede utilizar el lenguaje habitual, no me gusta decirlo de lenguaje normal. Ya espectro 2 y quizás alguno de nivel 3 de autismo, tableros de comunicación aumentativa, también personas con problemas prolocutivos, que también entran dentro de la discapacidad cognitiva. Esto es más interesante porque, hablando de los negócios y los ????ías, tuvimos a la gente claudio en encuentros metaphásicos que se plantean cuando se habla, hay que pactar. Cuando se habla dentro del psychoterapia, una persona puede int inspir mRNA o loyaltyiii. Tiene que a heckler strikesili end majes, que llega a virtually cualquier tipo de per oriented, ??? que sea que sea directo el principio de una sense. Este triple contacto o partái de no belong. Esto lo kindunda todos y todos los görepros del skae ahora que pertenece cualquier bit. Bueno, este es un?r Board. Vamos a más. Básicos entre otros. Busca unemployment counteract social. Lo que?am rede??çar. Bueno, tipo de ásperes profundos, trastorno autista o TDAH. Entonces tienen problemas prolocutivos, tienen problemas para relacionarse socialmente en una comunicación fluida. No identifican esas reglas de comunicación o bien no las pueden interpretar. O sea, la conocen, pero no saben cuándo pueden hablar. Entonces necesitas una comunicación más selectiva de oye Ricardo, ¿qué opinas de todo lo que le estoy contando a Arturo? O sea, te estoy implicando directamente en la conversación. Entonces la persona que tiene problemas prolocutivos sabe que es su turno de hablar en cuanto yo me calle. Curiosamente estabas comentando esto y recordaba el tema de la dislexia que no se le ha hecho mucho caso, por lo menos en la época en la que yo estudiaba. Ahora sí. Ahora empieza a tener su importancia. Y bueno, para los que no lo sepan, son personas o somos personas. Yo cuando veía, porque yo soy disléxico, ¿no? Entonces son las típicas personas que aparentemente muchos conceptos escritos no acaban de asimilarlos. Es decir, porque... Y en cambio, todo lo que les he locutado, todo lo que escuchan, oyen, por ejemplo, el profesor en clase, todo lo retienen. Entonces, antes no se sabía muy bien por qué ocurría exactamente esto. Y ya se sabe que es así. De hecho, hay adaptaciones para personas disléxicas que estaban teniendo algún tipo de retraso dentro de su currículo. Sí. ¿No? Sí, sí, sí. Comentándolo tú, Jonathan. Sí, pues se utilizan cierto tipo de fuentes de letras. Por ejemplo, las serifas son útiles. El principal problema dentro de la dislexia, que es un cajón muy grande, hablamos de dislexia, pero en realidad hay distintos tipos, por reducirlo un poco, es que cuando tú visualmente pintas ciertas letras que tienen una asimetría, no son simétricas como puede ser la A y la V, que tienen una simetría horizontal. O sea, tú giras la A horizontalmente y se dibuja de izquierda a derecha, se dibuja igual que de derecha a izquierda. Lo mismo que la V o la M. Pero verticalmente no. Por ejemplo, hay letras que se pueden confundir. Por ejemplo, tú una E mayúscula las giras horizontalmente y se convierte en un 3. O una C las giras 90 grados y se convierte en una N. O si la giras 90 grados para el otro lado, es una U. Entonces, digamos que mentalmente a la persona disléxica las letras le bailan. ¿De esto qué es? ¿U? ¿Una C o una N? Entonces, el mensaje escrito, el acto de leer, es algo que desde pequeñito nos cuesta mucho trabajo y de tanto ejercitarlo, llega a crear unos enlaces en nuestro cerebro que ya lo hacemos de forma automatizada siendo adulto. ¿Qué pasa? Que la persona disléxica conoce tanto la palabra una como uva como hula, pero en su cerebro dice, no sé qué estoy leyendo. O sea, hay una desconexión y ese desgaste mental, porque es un sobresfuerzo, provoca esa falta de atención, ese fracaso educativo, también que los sistemas pedagógicos de hace 20, 30 años eran muy particulares. Todo el sistema educativo que tenemos actualmente es una herencia de una adaptación curricular educativa de todo el mundo occidental a la necesidad de la revolución industrial. Necesitamos peones especialistas en poner, un tornillo. Entonces, el sistema educativo se basa en algo que se pueda evaluar de forma rápida. Todos los niños tienen que aprender lo mismo memorizando y si no cumple con los requisitos de aprendizaje, tu examen no supera un 5 de 10, es que no vales, eres tonto o tienes un retraso. Entonces, fracasa ese educativo. Y seguimos con esa herencia. Una curiosidad, no tiene que ver estrictamente con la comunicación en sentido estricto, pero bueno, un poco en sentido ampliado, ¿no? Hay personas que identifican, por ejemplo, los colores con diferentes notas musicales. Sinestesia. Incluso con olores. Yo tengo un colega que cada vez que ve números pares, dice, es que me huele a mar. Y yo, los pares y los impares. Te voy a poner, cuando ves números pares consecutivos, dice que huele a mar. Pero como le dije yo de coño, un día de estos te voy a poner números primos aleatorios. A ver qué pasa. Entonces, esas personas que tienen sinestesia, para leer patrones o identificar patrones, por ejemplo, en una pantalla llena de números, pues esas personas, tú ves los números pintados y esas personas ven un... Colores o... Un... Una especie de tapiz de colores, de formas, de relieves, de olores. Eso es un tema de cómo está cableado nuestra mente. El cerebro humano sigue siendo uno de los mayores misterios, junto con las profundidades del planeta. ¿Qué hacemos con las personas que no ven y necesitan comunicación aumentativa? Porque lo mismo que hay personas sordos ciegas o personas ciegas, también hay personas ciegas con otros perfiles de discapacidad cognitiva, o incluso, por desgracia, conozco a personas sordos ciegas de carácter congénito, o sea, nacen con sordos ciegas, y por esa incapacidad de acceso a su entorno, a comunicarse con su entorno, adquieren una discapacidad cognitiva. O sea, no tienen vocabulario, no tienen capacidad, porque si una persona nace sordo ciega y no tiene concepto de comunicación, ¿cómo le enseñas a hablar? Gracias a investigaciones de personas sordos ciegas, congénitas, se han hecho muchos avances de cómo fueron los lenguajes de comunicación iniciales de la humanidad. Curioso que viendo personas con discapacidad desde la autoridad, podemos comprender cómo vivíamos cuando estábamos limitados intelectualmente. Pues, para este tipo de perfiles de discapacidad, tenemos tableros de comunicación aumentativa, donde no se utilizan letras pintadas, sino que se utilizan texturas, se utilizan formas, se utilizan objetos. A mí hace unos años me presentaron un tablero de comunicación aumentativa para una persona sordo ciega en específico, y era una especie de bandeja de 30 por 30 centímetros, donde había un trocito de tela, un recipiente de barro, dos varillas de metal, un trozo como de piel de naranja sintética, había distintos objetos. Y con eso, la persona podía transmitir de quiero dormir, tengo hambre, tengo sed, quiero ir al baño, no me gusta estar aquí, me gusta estar aquí. O sea, conceptos muy básicos, pero que la persona que apoyaba a esa persona sordo ciega, pues, podía interpretar, porque la persona sordo ciega lo que hacía era coger la mano de la persona que la asistía y la llevaba a la zona donde ella quería comunicar. Y cuando la persona que asistía a la persona sordo ciega cogía la mano de la persona sordo ciega, la llevaba a un sitio, era una pregunta. Tú fíjate en la comunicación. La persona sordo ciega impera o afirma y la persona que asiste solo pregunta. ¿Sabes lo que es lo difícil de todo esto? Lo bueno, muy complejo, probablemente por mi propia ignorancia, el pacto previo, el pacto para pactar, que cada cosa significa cómo llega a comprenderlo la persona. Eso es convivencia, convivencia. Normalmente las personas que asisten a las personas sordo ciegas suelen ser padres, hermanos, y es la convivencia, prueba y error, ensayo, paciencia... Para que la asociación se produce, ¿no? Sí, de cuando esta persona está muy cansada. Y muchas veces, como me explicaron, ese trozo de tela en realidad era el trozo de tela de una antigua almohada. Entonces asocia esa textura a quiero mi almohada porque quiero dormir. Vale. Hay algo que hace clic entre la persona asistida y la persona que asiste y es un vínculo. Y bueno, dentro de las comunicaciones aumentativas, comunicaciones correctas, cognitivas y demás, ya entramos en tecnología. ¿Cómo podemos solucionar con tecnología la accesibilidad? Ah, es verdad. La lectura es fácil. Para personas que solo tienen discapacidad cognitiva, pero tienen problemas en entender las reglas gramaticales, la regla de significado de las palabras, porque hay palabras complejas. Por ejemplo, si nos metemos en una página de términos de uso de cualquier servicio de streaming que tenemos en... a nuestra disposición, léete ese texto. Incluso a nosotros que somos entre, muy comilladamente, personas sin discapacidad cognitiva, yo soy más de la opinión de Sigmund Freud de que todos tenemos neurosis, o sea, todos estamos mentalmente estropeados, la cordura no existe, simplemente tenemos distintos grados de locura. Pero bueno, vamos a dejar ese tema aparte. Pues para esas personas que no entienden, no solo esos términos, sino que tú le estás diciendo, oye, mira, debido a que has cometido una agresión a esa persona por un acto de ira y demás, vas a ser reducido y además restringido a tu libertad en un establecimiento donde no podrás ejercer tu derecho a moverte libremente. O sea, te voy a meter en la trena porque has agredido a alguien. Y eso es lo que nos está diciendo. No has agredido a alguien. Sí. El lenguaje normativo y legislativo es muy complejo, pero es complejo para todos. Imagínate para una persona que tenga... Claro, no, no, pero te digo que cuando tú tienes una discapacidad cognitiva, incluso de, oye, no puedes irte a Pepite y meterte dos hostias porque te apetezca, porque te ha mirado mal, porque hay que ver no sé qué, el por qué, por qué, por qué, hace una estructura gramatical compleja. Cuando tú empiezas a utilizar frases subordinadas, frases condicionales, una complejidad gramatical en el significado de, por ejemplo, en el andaluz occidental, principalmente desde Sevilla, de la provincia de Sevilla, tenemos la triple negación, que es una afirmación completa e incondicional. Tenemos el no ni na. Eso Lázaro Carreter decía que era una expresión sublime del lenguaje claro, explícito y directo. Cuando tú le quieres decir a la persona de no tienes razón, yo tengo la absoluta realidad, es no ni na. Así es. Entonces, para esta persona que el lenguaje común, debido a su discapacidad cognitiva, no pueden comprender de forma clara y explícita sin ambigüedades, necesitan una simplificación gramatical, evitar sinónimos, hacer una lectura donde las frases, siendo de carácter simple, pueden encadenarse de una persona es libre cuando cumple la ley, no cumples la ley cuando haces un acto delictivo. Un acto delictivo es un delito. Un delito es pegar a alguien. Pegar a alguien es provocar daño. A otra persona es que no se le ocurre cómo reducir, provocar, perdón. Pero causar daño o hacer daño. O sea, estás utilizando una simplificación continua y evitas construcciones complejas. Y eso, por ejemplo, precisamente el día que grabamos este podcast, la European Disability Forum, que es un organismo del Gobierno de la Unión Europea, que representa a las personas con discapacidad, y la Unión Europea dentro de su normativa 3.1 del marco legal que entra en vigor en julio del 2025, en principio solo se iba a apoyar en accesibilidad digital la normativa de WCAG 2.1, 2.2, pero han hecho un pequeño guiño de, oye, no nos olvidemos de la lectura fácil, porque en el 2040 vamos a tener más del 35% de la población con más de 65 años o con discapacidad. Y la gente no está entendiendo en absoluto mensajes que consideramos de uso común y se están perdiendo en el lenguaje. Cualquier persona de más de 55 años en la actualidad, generalizando muchísimo, sabe que es un youtuber, porque lo dicen en televisión, en las noticias, pero no sabe que es un streamer, incluso la palabra gamer puede sonar rara, es probable que no sepa que es una pasarela de pago o la autenticación en dos pasos. Y ya costó trabajo explicar de qué era un número PIN, con lo fácil que era decir la contraseña de tu móvil, no, pues decíamos el número PIN, Personal Identification Number. Y encadenándolo con esto, sacando un poco la bola de cristal, uniendo la comunicación con la tecnología, ¿cómo ves el futuro y cómo va a evolucionar? Comunicación cerebro-máquina es el objetivo final. O sea, en cuanto podamos comunicarlo con un cerebro humano sano mediante una máquina, personas con trastornos de la comunicación pueden tener una ayuda, porque lo que va a hacer la tecnología es traducir. O sea, una persona con trastorno de la comunicación, una persona con problemas prolocutivos, va a tener una especie de pepito grullo tecnológico de habla ahora, no digas a eso que no es políticamente correcto. O sea, le va a asistir para que se comunique de forma fluida con su entorno, con las personas que le rodean, sin cometer esos deslices. Mucha gente identifica que las personas con trastornos autistas son maleducados y no entienden qué es que no entienden las reglas sociales de la comunicación. No es que sean maleducados, es que no pueden ser educados en un concepto, en un conjunto de criterios que no son naturales. Recordemos que... Son convención, sí, sí, sí. Sí, recordemos que todas las reglas sociales actuales no son reales. O sea, son pactos en los que coincidimos y apostamos por ello. Por ejemplo, no existen los derechos humanos. Es una invención. La sociedad moderna. Ahí no nos podemos meter en temas de filosofía, pero vamos a dejarlo. Bueno, y antes de la comunicación hombre-máquina, pues estamos teniendo comunicación aumentativa en tiempo real asistida gracias a la tecnología. Esos traductores en tiempo real de que entre una persona japonesa y una persona española ponemos en medio un teléfono móvil que escucha a los dos y va traduciendo en tiempo real lo que dice uno al otro y lo que dice el otro al uno. Eso ya lo tenemos hoy en día y eso abre muchas vías de mejora. Luego tenemos la comunicación de traducir lo visual a lo auditivo, como pueden hacer gafas con cámara, pueden hacer teléfonos móviles con cámara. Mediante la inteligencia artificial hace esa interpretación del contenido visual, lo traduce al lenguaje escrito. Ese lenguaje escrito se traduce al lenguaje hablado. Fíjate cuántas traducciones estamos haciendo ahí. Simplemente para que el ciego sepa que lo que está viendo es un anuncio de que se ha rebajado al 30%. La lengua de signos también se puede leer. Sí, la lengua de signos es uno de los primeros requerimientos que se utilizaron con la red de neurointerpretación visual porque, como decía un compañero que estaba en uno de esos proyectos, de ahí los dos sordos se ponen a hablar y tú no te enteras y los investigadores, por desgracia, somos muy cotillos. Entonces, es una forma de... Sí, sí. Es una forma de ayudar a esa comunicación. Es la parte humana de, digamos, de bondad de la persona. La lengua de signos va a hablar como le es más cómodo, más fluido y yo voy a tener con unas gafas un subtítulo de lo que me está diciendo. Que yo luego le hablo y esa persona en lengua de signos puede leer un avatar, una representación sintética de una persona que está asignándole. Que eso luego hay una controversia porque muchas personas sordas que utilizan la lengua de signos no les gustan los avatares digitales porque dicen que no transmiten gran parte de la información emotiva o enfática del lenguaje, que yo no entiendo. Pero también ellos tienen que entender que estamos en los primeros pasitos de esa tecnología de la sintetización del lenguaje corporal. Es como la voz sintetizada. Claro. En los años 80 teníamos una síntesis que daba pena y ahora tenemos voces que es muy complicado distinguir de una voz humana real. Es lo mismo, hay que tener paciencia. La tecnología avanza pero quizás no avanza lo rápido que nos gustaría a todos. Los programas estos software para jugar a fútbol, el FIFA, que es muy conocido. Bueno, hay otros también, ¿no? De Shocker. Inicialmente eran como, bueno, con unos movimientos típicos, toscos y realmente poco creíbles. Yo no lo he llegado ya a ver lo que hay ahora, pero por lo que me comentan mis sobrinos, prácticamente los movimientos de los jugadores son casi humanos. Es decir, esto mismo, es decir, que transmiten sensaciones. Es decir, en el control de la jugada y todo esto. Lo comento por el tema de la lengua de signos, que es visual también. Es decir, de estar hoy por hoy transmitiendo simplemente el signo, así un pictograma estático, ¿sabes? Hacer algo con sentimiento y después de lo que estamos escuchando en la creación musical por inteligencia artificial, con su no hay, audio y todo esto, que llega un momento que alucinas viendo como de algo que aparentemente no existía, has hecho una creación que hasta en algún momento transmite. Claro, sí, pero yo a lo que me refiero es que gran parte de la comunidad, de hablantes de lengua de signos, se niegan a colaborar con esos proyectos de avatares digitales. Entonces ahí estamos teniendo el problema de, señores, tenemos que pasar una época pasándolo mal para llegar a ese punto de perfección. Y bueno, hay otros temas también de falta de comunicación, colaboración con otros perfiles de la tecnología. Sí, claro. Y bueno, hay otras cosas que no se pueden hacer, pero bueno, en todos los lugares cocinabas, como suelen decir. Pero toda la gente con discapacidad y sin discapacidad tiene resistencia ante la nueva tecnología que viene y nosotros mismos, las personas ciegas, cuando surgió el octacón, que era, bueno, ahora si quieres lo comentas, Jonathan, pues no todo el mundo pasó por ese aro. Había gente que sí que lo utilizaba y se convirtieron en verdaderos maestros. El uso de este dispositivo, que fue el que nos llevó a la creación, de este dispositivo que fue de los primeros electrónicos, que tuvieron las personas ciegas como alternativa al braille, alternativa entre comillas. Y hubo un gran número, por no decir la mayoría, que nunca ni tan siquiera tuvo conocimiento de lo que era el octacón porque no tenía ningún interés. Ahí está el tema de la necesidad algodista del genio. Pero bueno, por explicar, el octacón era un sistema de replicación en relieve de figuras digitales. Los caracteres que se veían en una pantalla o las líneas y demás, a través de una superficie flexible, vibrante, una malla que vibraba, se transmitían formas y las personas ciegas con el dedito ahí, moviendo una cámara, pues podían interpretar las figuras que aparecían en una pantalla. Lo estoy simplificando muchísimo porque yo no he vivido la época del octacón. Yo me afilié en 1995. Entonces ya ahí había líneas braille de la gente de Baum y de Human Works. También había síntesis de Boh con el procesador, perdón, con el chip de Philips que llevaba el braille hablado, el Brenner Stick. Entonces, sí he utilizado octacón. Me costó muchísimo porque se suponía que ahí había una A, pero entre la vibración y la falta de resolución, y yo he visto que... Y a mí me costaba trabajo. La sensación era en el dedo, normalmente índice, era como unas cosquillitas, como si con una plumilla te hicieran una electricidad. Una vibración controlada. Para mí era muy complejo. Yo supongo que esto, como en todo, cuando se produce el momento ese de la automatización, que ya no estás pendiente de mira qué gracia las cosquillitas, que cómo están, y ya verdaderamente, te transmite la imagen, pues se convierte en algo útil. Pero era muy poca gente la que llegaba a ese punto de excelencia, de uso avanzado. Claro, ahí el tema de necesidad. La persona que lo necesitaba se implicaba y echaba horas. Y la persona que lo tomaba como curiosidad o tenía otra alternativa. Y ahí, por ejemplo, el braille, cuando aparecen las líneas braille, fíjate, que muchos de estos sistemas alternativos de ver las cosas en relieve, tienden a desutilizarse o abandonarse. El tacón muere porque aparecen las líneas braille y aparece la síntesis de voz. ¿Qué son las líneas braille? Las líneas braille es un dispositivo que permite mover unos segmentos de algún material, formando cajetines braille. Tú coordinas esos movimientos dentro de una matriz de celda braille y va formando mensajes. Entonces puedes transmitir un mensaje escrito en una pantalla en una línea de 20, 40, 60, 80 o 120 caracteres. Correcto. ¿Todo esto conectado a sistemas digitales como anotadores, PCs, no? Sí, sí. Teléfonos móviles, porque ahí tenemos líneas braille con conexión inalámbrica, bien sea Bluetooth, también por teléfono. Tenemos líneas braille desde comienzos de los 80. Por tener, tenemos hasta teclados braille virtuales en los teléfonos, ¿no? Sí, ahí hay una adaptación de la forma de escribir en braille en algunos teclados compactos. Por ejemplo, muchas personas ciegas conocen la máquina de escribir Perkins, del Instituto Perkins. Donde tenemos los puntos 3, 2, 1, espacio, 4, 5, 6 en línea. Recordemos que los cajetín braille estándar son seis puntos. El punto 1, 2, 3. Que si dibujamos un carácter braille son dos filas de puntos en vertical. El número 6 del dominó. Sí, pero en vertical, porque puedes tener el número 6 del dominó girado a la derecha. Sí, pero la composición es esa, ¿no? 3 a 3, ¿no? Sí, 3 a 3. Arriba a la izquierda el 1, abajo del 1 está el 2, abajo del 2 está el 3. Arriba a la derecha el 4, al centro a la derecha el 5 y abajo a la derecha el 6. ¿Te digo hola en numeritos braille? No, no, déjate, déjate. Y entonces, lo normal es tener ese teclado en línea. Porque es lo más económico y encima se aprovechaba la gente de Perkins y la gente que fabricaba otras máquinas de escribir en braille. Aprovechaban la mecánica de una máquina de escribir clásica, de esa percusión sobre una cinta de tinta para impresionar sobre el papel. Pues en lugar de impactar de arriba abajo, como hace todo el mundo, en el papel, en el papel, en el papel, en el papel, en el papel. Pues en lugar de impactar de arriba abajo, como hace todo el mundo, en el papel. Pues en lugar de impactar de arriba abajo, como hace todo el mundo, en el papel, en el papel, en el papel. Como hace una máquina de escribir estándar, lo hacían de abajo arriba para en lugar de impactar sobre una celda de calco de tinta, pues iban con un punzoncito cada tecla y cabalía a un punto del braille. Entonces eran punzones en distintas posiciones que al pulsarlos a la vez perforaba parcialmente en un papel grueso y ponía los puntos en alto relieve. Entonces hubo otros modelos de máquinas de escribir clásica. Entonces hubo otros modelos de máquinas de escribir clásica. Más de escribir braille en donde no tenían suficiente espacio porque las máquinas de crossover perking eran sus 6 kilos de peso, o 8 kilos incluso. Y eran bastante anchas. Las hicieron más compactas. No tenían tanto espacio. Entonces empezaron a aprovechar distintos ángulos para formar teclados más compactos. Donde doblando tu un poco las muñecas, terminabas escribiendo. Y de tanto doblar, pones una celda braille en vertical y con tres dedos de cada mano puedes pulsar formar un carácter braille en la pantalla táctil de un móvil y ahí tenemos un teclado en pantalla Tocas como un acordeonista ¿no? Sujeta con la palma de las manos los cantos cortos del teléfono te lo pones al pecho con la pantalla mirando hacia adelante y empiezas a teclear ¿y la velocidad? Muy bien, gracias yo escribo bastante rápido pero sí es cierto que no es una habilidad común en usuarios ciegos de teléfonos con pantalla táctil o sea, es algo relativamente nuevo eso está disponible, si no recuerdo más, desde el puede ser iOS 14 iOS 15 no, antes iOS 11 o 12 no recuerdo vale, vale entonces todavía hay mucho que evolucionar y mucho que mejorar ahí verás, hemos pasado de escribir en braille con un punzón sobre una regleta de guía para las líneas a pasar por las máquinas perking líneas braille y por ejemplo lo más chulo es escribir braille en el aire que es como escribir en una pantalla táctil pero lo único que hace es fijar la posición de las muñecas y mueve los dedos y eso con sistema de interpretación visual y con módulos expertos de inteligencia artificial interpretan tu movimiento de los dedos como las pulsaciones de una máquina perking y eso es tecnología futura pues yo creo que hemos dado un repaso bastante amplio creo que todos los sistemas de lectoescritura existentes si os parece hacemos un resumen muy rápido y vamos terminando pues resumen rápido del gruñido a recibir pensamientos de una máquina eso es la evolución que hemos llevado y la necesidad de comunicarnos somos bichos sociales con cada vez más con cada vez menos pelo nos tenemos que comunicar establecemos reglas de comunicación y como siempre que se establecen reglas y canales y se establecen formas de relacionarse siempre hay alguna persona que se queda fuera bien por su incapacidad o bien sea por la incapacidad de los demás de intentar amoldarse a las necesidades de una minoría así es y no hemos hablado de todos que hay gente que se comunica con los abanicos aparte de los locomía es un lenguaje y con las flores con ramos de flores también sí, también es cierto y con banderas y con luces y con morfe y no nos olvidemos del silbo canario y los gritos en el monte exactamente pues muchísimas gracias Jonathan hemos estado muy entretenidos y nada pues te agradecemos mucho que hayas compartido con nosotros este ratito y con nosotros y con todos los oyentes y te puedes ir de vacaciones si quieres muchas gracias pues justo empiezo en cuanto le dé a la pausa de esto un silbo de despedida para ti shiu shiu venga un saludo a todos y todas muchas gracias Jonathan y los medios de comunicación Ricardo gafotas arroba cgatos punto es es nuestro mail y y nuestro whatsapp en el más 34 644 640 792 pues mil gracias a todos por acompañarnos hasta aquí y os esperamos en el próximo episodio así que adiós chau chau o pero estuvo un experimento Estuvo un experimento, no sé si es leyenda urbana o experimento, no sé si tú lo conocerás. Es muy famoso y creo que está relacionado con el emperador y Terreinato, ¿no? Vuelvo, vuelvo. Pip, pip, pip, pip, pip. ¿Qué ha pasado? Nada, que he dicho Terreinato. Que salió, que salió. Un momentito. Ya he dicho pip, pip, pip, pip. Pues bueno, dicen que este hombre, a este hombre lo conocían como Estupor Mundi y era porque aparte de ser emperador y por otras veces rey, era un hombre muy sabio. En aquella época nosotros teníamos a nuestro Alfonso, que también era muy sabio. Los reyes, además, a ver si no penséis que siempre han sido tontos, que también los ha habido sabios. No lo digo por nadie, vamos. Y luego yo cortando trozos de audio, si es que vamos. Joder. Joder. Joder. Ay, Dios. Bueno, pues Federico II era conocido como Estupor Mundi. Y estupor era porque dejaba estupefacta a toda la gente cuando veía el... Estupor Mundi. Estupor Mundi. Estupor Mundi. Estupor Mundi. Va a dar por especial de temas falsas hoy, eh. Ay, Dios. Ay, me descojono. Va a dar por especial de temas falsas hoy. Hostia, hostia, perdona, eh, Arturo, porque te voy a hacer trabajar. Pero no, no, voy, voy. Estupor Mundi. Estupor Mundi. Por cierto, antes de que termine el teatrillo de la entrada, recordad que me tenéis que presentar. Yo estoy aquí esperando. Nos liamos, nos abrimos arriba y terminamos y chimpún. Es nuestro momento de gloria, si luego somos intrascendentes, simplemente acompañamos al cortejo y al carruaje. Vale, vale. Si Ricardo se despide en algún momento, pues tú nos das las gracias y ya está. Vale. Venga, me callo. Vamos. Emperador del Santo Imperio Germánico Cristiano. Casi nada. Bueno, pues... Estoy muy disperso hoy, eh. De todo esto. No, no, tú dale. Bueno, lo siento mucho. Vale. Eh... Bueno, voy a ver por dónde tiro y ya lo contaremos con Fea. Muy bien. Este, eh, Agui lo hizo para que se comunicaran los militares, ¿no? Por la noche. Eh... No, ese fue Barbier, creo. Es que estoy hablando de Memo. Pues vamos a consultarlo, espera. Yo tengo ahí que contar. Entonces... Muy bien, pues era el sistema de... El sistema de escritura nocturna de Barbier, creo que era. Vale, vale. Seguro que lo sabes tú más que yo. Y me he columpiado. Mi alemán no es suficiente para pronunciar lo de... Yo iba a hacer el chiste de Gutenberg y la imprenta. Digo que qué nombre... Lástima que lo utilizaran para la imprenta con el buen nombre de embutido. Es que en serio, digo yo, ¿cómo se pronuncia? ¿Cómo se pronuncia? ¿Cómo se pronuncia esto? Gutenberg. Stasel Frisch. ¿Lo habéis encontrado? ¿Eso? ¿Era Barbier o el otro pavo? Stasel Frisch. Sí, el que te he dicho yo, sí. ¿Sí? Vale. El de Barbier. Hombre, pues para esto hubo un experimento... Bueno, no se sabe si es leyenda urbana o experimento. No sé si tú lo conocerás. Es muy famoso. Y creo que, bueno, está relacionado con el emperador. Bueno, y...
Gafotas, cegatos y sus aparatos #9
Fecha: jueves, 23 de enero de 2025, a las 00:00:00
En este episodio, ya el número 9, , exploramos el fascinante mundo de la domótica con dos invitados de lujo: Jose María Ortiz, especialista en accesibilidad tecnológica, y Alberto Tardío, más conocido como Tito de Aguacatec, apasionado de las tecnologías “open source” y del desarrollo comunitario.
Descubrimos cómo la domótica transforma nuestros hogares, desde la comodidad y eficiencia energética hasta la accesibilidad para personas con discapacidad visual. Conversamos sobre soluciones comerciales, plataformas open source como Home Assistant, y los retos y ventajas de personalizar tu propio sistema domótico.
Además, desglosamos temas clave como:
¿Qué es un puente y por qué es esencial para la automatización?
Sistemas centralizados vs. descentralizados.
Ejemplos prácticos: desde persianas automatizadas hasta sensores que detectan nuestras necesidades diarias.
El impacto del código libre en la domótica y el futuro de los hogares inteligentes.
No te pierdas esta charla amena y práctica, donde tecnología y accesibilidad van de la mano para hacer de nuestros hogares lugares más inteligentes y conectados.
¡Dale al play y acompáñanos en esta tertulia tecnológica!
Intervienen:
Sitios referenciados en el episodio:
Sitio Web Oficial de Home Assistant (inglés).
Nabucasa, empresa patrocinadora de servicios en la nube para Home Assistant.
Open Home Foundation (inglés).
Links del Blog y de la comunidad Aguacatec “Home Assistant, domótica y tecnología en español”.
Únete al grupo de Aguacatec en Telegram.
Escucha el Podcast de Aguacatec.
Mando a distancia inteligente - Hue Dimmer switch - Philips Hue.
Termostato Conectado e Inteligente de Netatmo.
Créditos:
Duración: 01:40:43
Descripción detallada del logo de Episodio 9. Domótica, primeras pinceladas para convertir tu casa en un hogar inteligente.
La imagen es una ilustración en blanco y negro que muestra una escena en una sala de estar moderna con un enfoque en la tecnología y el estilo retro. El personaje principal es un hombre sentado en un sillón. Lleva gafas de sol redondas, auriculares grandes sobre sus orejas, y una bufanda gruesa alrededor del cuello. Su cabello está peinado hacia atrás de manera elegante. Viste un chaleco sobre una camisa de manga larga y pantalones formales. En su mano derecha sostiene un control remoto, y en su mano izquierda, un cigarro. Su postura es relajada, con una pierna cruzada sobre la otra. A la izquierda del hombre, hay una lámpara de pie con un diseño moderno y minimalista. Junto a la lámpara, hay una planta en una maceta colocada sobre una pequeña mesa o soporte. En el suelo, frente al sillón, hay un robot aspirador circular con un diseño futurista. Parece estar en funcionamiento, ya que hay líneas que sugieren movimiento. En la pared detrás del hombre, hay una gran pantalla plana que muestra una interfaz de usuario con varios iconos circulares. Esta pantalla parece ser parte de un sistema de entretenimiento o control del hogar inteligente. Debajo de la pantalla, hay una estantería con varios dispositivos electrónicos. En la parte superior de la estantería, hay tres dispositivos que podrían ser altavoces inteligentes o controles remotos adicionales. En el estante inferior, hay un dispositivo más grande que podría ser un subwoofer o un altavoz. En la pared, a la izquierda de la pantalla, hay dos cuadros o paneles decorativos. Uno de ellos tiene un diseño abstracto que parece una señal de Wi-Fi, y el otro tiene un diseño circular con varios círculos concéntricos. La relación entre los objetos sugiere un entorno de hogar inteligente, donde el hombre puede controlar varios dispositivos electrónicos desde su sillón usando el control remoto. La presencia del robot aspirador y los altavoces inteligentes refuerza la idea de un espacio altamente tecnológico y automatizado.
Transcripción de Episodio 9. Domótica, primeras pinceladas para convertir tu casa en un hogar inteligente.
Bienvenidos al noveno episodio. Este es tu podcast favorito. ¿Qué tal estás, Ricardo? Pues muy bien, Arturo. Encantado de escucharte y encantado de que nos esté escuchando a partir de este momento toda nuestra audiencia. Hola a todos. Bueno, pues acabas de bajar esa persiana domótica. ¿Cómo va eso? Bueno, ya sabes que la domótica y yo no nos llevamos excesivamente bien. No por ella, sino por mí, que he vivido un poco ajeno a la misma. Tengo información, pero no en mi casa prácticamente. Mira, compré tres conectores, tres enchufes domóticos de una promoción de Amazon, porque estaban a un precio interesante, aunque yo no sabía ni manejarlos, para una fuente Zen que tenía para que se encendiera y se apagara a través de un dispositivo Alexa. Y no fui capaz de configurarlo en aquel momento. Y luego nada. Luego ya, pues mira la persiana que he tenido que bajar por mando a distancia y no está tampoco domotizada. Así que necesito aprender mucho de esto. ¿Tú sabes algo más? Bueno, a lo mejor después de esta sesión te animas un poco más. Yo sí que me he animado. Estoy aquí un poco liado con muchos cacharritos, muchos sensores. Y bueno, ahí andamos con muchas cositas. Y por aquí los invitados que tenemos, mucho más todavía, ¿no? Tenemos por un lado a Jose María. Buenas, ¿qué tal? Hola, ¿qué tal? Muy buenas. Jose, hola, ¿qué tal? Y también tenemos a Alberto. Muy buenas. ¿Qué tal? ¿Cómo estáis? Arturo, Ricardo. Hola, ¿qué tal, Alberto? Bienvenido y encantado de que estéis aquí, sobre todo para instruirnos a un zoquete como yo, que de domótica sabe más bien poco. ¿Sabes? Hace... Sabéis, mejor dicho. En los años... A finales de los 90, principio del 2000, la domótica era, como es hoy, la inteligencia artificial, la casa inteligente domótica. Y en aquel momento hubo mucha información y, lógicamente, toda la gente amante de la tecnología, pues pusimos atención y estuvimos viendo qué es lo que se hacía. Lo que pasa es que en aquel momento no se veía la tecnología en nuestras casas. Sí en las publicaciones y demás. Hoy parece ser que eso ha cambiado, ¿no? Bueno, estamos ahí empezando. Yo creo que todavía estamos un poco en la época del Spectrum. Como ha mostrado, como Dori, que cada uno quiere llevar las cosas a su sardina y hay diferentes plataformas y diferentes estándares, pero yo creo que poco a poco irá mejorando. Yo creo que estamos en una buena época, que hay muchas cosas muy interesantes que ahora mismo se puede elegir y yo creo que es un muy buen momento, ¿no? Yo creo que sí. Como dice... Bueno, como decía... Bueno, antes de nada, llamadme Tito, por favor, para los chicos. Soy Tito, Alberto solo para la família y los jefes. Y bueno, como comenta Ricardo, sí, es verdad que hace años esto era más propio de edificios industriales o de casas muy futuristas, pero lo que comenta Arturo, sobre todo desde que empezaron las soluciones comerciales de Google, Alexa, etc., yo creo que ya llevan unos añitos que se van metiendo poco a poco en las casas y vemos más. Para empezar por el principio, para vosotros, ¿qué es la domótica, para vosotros, en vuestra experiencia? Buena pregunta. Bueno, pues, a ver, la definición formal, ¿no? No sé exactamente cómo vendrá en la Wikipedia, pero bueno, yo lo entiendo como la automatización del hogar, ¿no? Y podríamos hablar largo y tendido de todo lo que implica esta automatización, desde iluminación o, como comentaba Ricardo, enchufes, medición de consumo, automatización de rutina, seguridad, etc. Y bueno, realmente nos permite, en función de la plataforma que utilicemos, los dispositivos que tengamos conectados, pues, nos permite conectar unos con otros y crear muchas automatizaciones con los objetivos que cada uno tenga, ¿no? Pero bueno, luego ya también a nivel personal, pues, también pienso que es una afición, ¿no? Y antes, pues, ahí comentabas el tema del spectrum y tal, y creo que también es una pata muy importante, porque al final es algo que lo puedes tomar como un puro usuario que lo utiliza a nivel superficial, ¿no? Y entonces, en ese caso, para ti, quizás la domótica sea decirle a Alexa que te encienda una luz o que te apague un enchufe, pero si realmente es algo que te gusta, que no te importa dedicarle tiempo, que te gusta investigar plataformas más avanzadas, pues, puede ser desde un personal trainer, puede ser una lista de la compra automatizada para que te meta productos cada cierto tiempo o cuando se acaben, en fin, hasta donde llegue tu imaginación. Yo siempre digo que antes teníamos que optimizar el ordenador, ¿no? De vez en cuando había que reinstalar el Windows, había que hacerle limpieza, mantenimiento y tal. Luego pasamos a tener que hacerle mantenimiento al teléfono móvil, porque siempre se nos llena de un montón de WhatsApps, de mensajes, de vez en cuando hay que hacerle un poco de limpieza, ¿no? Y ahora también tenemos que hacerle mantenimiento a la casa. De vez en cuando alguna automatización que falla, alguna cosa que hay que mejorar, alguna cosa que tal. Esto, no sé, yo si quita o da trabajo, pero bueno. Y para Jose, ¿para ti qué es la domótica? ¿Qué te aporta, qué beneficios te da? Pues estoy muy de acuerdo con cómo ha definido el título la domótica, pero viéndola desde el punto de vista de personas con discapacidad o personas ciegas, la domótica nos puede facilitar mucho la vida en muchos aspectos, ¿no? A ver, está el aspecto friki, que nos tiene que gustar, está claro, como tú decías, Arturo, el mantener la casa. Pero, bueno, yo creo que para tema de control de iluminación, para tema de control de temperatura, para tema de control de persianas, a nosotros nos puede venir muy bien. Es verdad que tenemos nuestras aplicaciones móviles para saber si nos hemos dejado una luz encendida o no, pero bueno, si la casa lo puede hacer sola por nosotros y encargarse de apagar todas las luces, cerrar las puertas, bajar las persianas, controlar la temperatura y avisarnos, por ejemplo, si hay una fuga de agua, pues hombre, mejor será. Cuéntanos algún ejemplo práctico que tengas montado, alguna cosa... Bueno, yo, a ver, al final llevo ya unos años y he pasado por diferentes cosas. Yo empecé, recuerdo todavía un podcast que grabé con unos amigos que también están metidos en el mundo de la domótica, cuando yo grababa podcast en aquella época, hace ya muchos años, la verdad, que se llamaba La democratización de la domótica. Y era cuando empezaban a irrumpir Alexa, Google y este tipo de cosas en la vida de todos, que es verdad que parecía que nos iban a hacer las cosas muy fáciles. O sea, tú llegabas con tus bombillas, tus enchufes, tus cosas y se las conectabas a tus altavoces y te iban a solucionar la vida. Esto en algunos casos es verdad, pero en otros casos casi que te la complica, porque al final son enchufes, bombillas, interruptores de mil marcas que cada uno funciona de una forma que para vincularlos cada uno tienes que utilizar una aplicación que cuando al servidor de Alexa le da por fallar, pues se te va a tu la domótica, o cuando Apple cambia la aplicación te deja tirado. Al final es verdad que parece que es más fácil el gestionar la domótica centrándote en servidores de otro que montarte tu propia cosa, pero al final yo creo que si te gusta el tema merece la pena meter un poquito la cabeza. Cosas prácticas que yo tengo, pues ahora mismo, por ejemplo, yo tengo automatizadas las persianas de mi casa, están motorizadas y yo ya no me preocupo de las persianas. Se suben y se bajan solas a ciertas horas del día. En verano las tengo calculadas para que se vayan subiendo y se vayan bajando conforme va dando el sol en casa. Las tengo puestas con un sensor de lluvia para que se bajen cuando empiece a llover, para que no se ensucien los cristales. Tengo automatizadas las luces de casa para que se enciendan cuando está empezando a oscurecer y se apaguen cuando no solemos ir a la cama habitualmente. Tengo la calefacción de casa totalmente automatizada con respecto a nuestros horarios. Yo no toco el termostato de casa prácticamente nunca. Él sabe que se tiene que encender a tal hora para que cuando llegue la casa esté caliente, que durante tanto tiempo tiene que estar a tanta temperatura y que yo me voy a dormir habitualmente a esta hora y que me levanto a esta otra hora. Y yo no me preocupo de ese tipo de cosas. Y luego tengo sensores de movimiento, sensores de presencia en ciertas habitaciones para que se enciendan las luces automáticamente cuando entro o cuando me voy, la cerradura igual. Y me faltan muchas cosas, me faltan todavía muchas cosas porque no tengo el tiempo que me gustaría tener para dedicarle, pero a mí, por ejemplo, una de las cosas que me falta son sensores de inundación para cuando se me salga el agua de la lavadora, porque yo tengo claro que en algún momento va a pasar y el día que pase me acordaré de no haberlo puesto el sensor de inundación. Y, bueno, pues algunas otras cosas que todavía me faltan. Pero bueno, esos son algunos ejemplos, pero se pueden hacer virguerías. Una de las cosas que me acabo de acordar que tengo es un pronóstico del tiempo que me llegue a mi correo electrónico con una automatización que yo tengo puesta con unos datos que yo quiero que me dé exactamente. Me llega el pronóstico del tiempo todos los días a las 10 de la noche del día siguiente. Y, bueno, algunas otras cosas más que seguro que van saliendo. El límite es tu imaginación, ¿no? Toda la creatividad que uno pueda tener. Luego ya depende un poco de la plataforma. El límite es la imaginación y el tiempo que tengas para dedicarle a probar y a investigar. Estos sensores, os pregunto a todos, estos dispositivos de control, los procesos de automatización, todo, ¿esto lo instaláis vosotros o tenéis que llamar a gente que os lo instale? Pues hay de todo. En mi caso, yo soy ciego total. Mira, te cuento, por ejemplo, el tema de las persianas. Nosotros cambiamos las ventanas y las persianas el año pasado y yo dije que yo quería persianas motorizadas. Ellos me iban a poner el típico interruptor en la pared, de botón para arriba y botón para abajo. Yo les dije, vale, tú montame los cables como si me fueras a poner ese interruptor que tú dices, pero en vez de ponerme ese, me pones este otro que yo te doy. Y ese interruptor ya es domótico, con lo cual es lo que me han instalado ellos. El resto de cosas que tengo las he puesto yo porque yo tengo bombillas directamente, que algún día me gustaría cambiarlas por relé en los interruptores o en la caja de registro, que ahí sí hará falta llamar a alguien, aunque si uno sabe de electricidad, lo puede hacer el 90% de las cosas. Yo, personalmente, no, porque no sé, me encantaría aprender, pero yo sí que he llegado a cambiar algún interruptor, pero, por ejemplo, a lo mejor algún relé detrás de un interruptor sí me atrevo a meterlo, pero meterme ya en lo que es una caja de registro, no, ahí ya no me atrevo porque no tenemos cables. Hay que saber también dónde uno tiene los límites. Pero en mi caso personal, excepto esos interruptores, lo demás lo he puesto yo. Para ese tipo de cosas, ¿no? Hay otras cosas que se pueden hacer perfectamente. Poner un sensor de inundación en el suelo, eso lo puede hacer cualquiera. Exactamente. Un sensor de temperatura. ¿Qué es un sensor de inundación cuando hablamos de...? ¿Algún tipo de lámina, de papel, de chip? Bueno, hay diferentes tipos, diferentes versiones, pero el más típico es uno pequeñito, como una pastilla de jabón de las de hotel, de estas de las de hotel chiquititas, que dentro lleva una pila y ya está, nada más. Eso lo colocas en el suelo, una vez configurado, lo colocas en el suelo o en el sitio donde quieras comprobar que haya o no haya agua en esa zona, lo configuras y ya está. Cuando haya agua, te avisará el sistema que tengas previsto. Normalmente suele tener como dos conectores, no sé si técnicamente Tito lo podrá explicar mejor, son como dos conectores que cuando toca el agua hace que salten y es cuando te envía la señal. Hace un cierre. Sí, exacto. Básicamente, por lo que comentabas antes y por poner un poco en contexto, cualquier sistema domótico, sea una solución comercial o sea más sencilla o más avanzada, siempre hay como unos componentes o elementos comunes y uno es el coordinador, que es el núcleo del sistema, que digamos que es el que procesa toda la información y comunica todos los elementos del sistema domótico. Luego estarían los dispositivos finales, que es al final todos aquellos que, entre comillas, ejecutan una acción como puede ser una luz que se encienda o se apague. Y luego están los sensores, que los sensores no dejan de ser distintos tipos de dispositivos que realizan alguna medición del entorno. En este caso, por ejemplo, lo que estáis comentando, un sensor de inundación, pues efectivamente es un circuito que en función de cuando detecta una fuga de agua, se cierra y en este caso tendría un valor entre abierto y cerrado. Luego, como comentaban, tenemos sensores de, por ejemplo, de ventanas o puertas abiertas y cerradas, que son magnéticos, que en este caso es exactamente igual, el principio es el mismo, solo que en vez de ser el agua la que cierra el circuito, sería un campo magnético, que está compuesto de dos piezas y cuando están juntas se cierra. O un sensor de luminosidad, por ejemplo, que en este caso sí que sería gradual y dependiendo de la luz que detecta, pues da un valor, un sensor de temperatura, de humedad, etc. Entonces, digamos que cada uno de estos elementos cumple su función, el sensor, sea el tipo que sea, lo que hace es proporcionar al coordinador o al núcleo algún tipo de información y con esa información y las reglas que tú hayas predefinido, que serían esas automatizaciones que comentabas, pues mandamos a hacer acciones a los dispositivos finales u otros servicios que tengamos conectados. Por condicionales, ¿no? Si pasa esto, tienes que hacer esto, ¿no? Por ejemplo, sí, o como decía Jose, pues si es tal hora de tal día, se encienda la calefacción, o si el sensor de inundación detecta agua, mándame una notificación, o si se detecta que una ventana está abierta, pues, por ejemplo, apaga la calefacción. Una forma también de ahorrar energía. Yo creo que habría que empezar, primero, por contar las diferentes formas de conexión de la domótica, los diferentes protocolos, si quieres. Porque eso también, yo creo que, al principio, provoca mucha confusión y creo que la gente tiene que intentar tenerlo claro. Sobre todo, a ver, lo primero de todo es tener una central domótica, ¿vale? Y una central domótica puede ser, pues como hablamos antes, desde un altavoz de Amazon o de Google, a un Apple TV, un HomePod, o si nos vamos a dispositivos más específicos, pues un Home Assistant, ¿vale? Una vez tengas esa central domótica, que es, digamos, donde se gestiona todo lo que tú quieres que se gestione, empiezas con las diferentes formas de conexión de los dispositivos. Y yo aquí hablaría principalmente de dos, que es la Wi-Fi y ZigBee. Hay dispositivos que se conectan por Wi-Fi a esa central domótica y se envían tanto las actualizaciones de estado como las órdenes mediante Wi-Fi y otros que se conectan a través de ZigBee. Y a través de ZigBee, digamos, que sí que entra a formar parte de lo que se suele llamar el coordinador. Un poco así, ¿no? Por ejemplo, en mi caso, que yo utilizo ahora Home Assistant, todos mis dispositivos ZigBee están conectados a un coordinador y los dispositivos Wi-Fi van conectados por otra parte al mismo hardware, Home Assistant. Disculpa, Jose, ¿ZigBee es una señal de radiofrecuencia específica? Exacto, ZigBee es una señal de radiofrecuencia específica, diferente a la Wi-Fi. Como podía ser el Bluetooth, pero se llama ZigBee, ¿no? Exacto, eso es. Es como... Sí, es como otro elemento de domótica que yo creo que se utilizaba más antes. Aquí, Tito, me podrá corregir. Se utilizaba más antes que ahora, que era Z-Wave, por ejemplo. Hace unos años se utilizaba muchísimo Z-Wave y yo creo que ahora ha sido barrido básicamente por ZigBee. Sí, hay varios sistemas, incluso por cable. Hay Z-Wave, hay otros sistemas, pero yo creo que hoy en día quizás los más populares son el Wi-Fi y el ZigBee, son los más populares. Es decir, que han vencido los inalámbricos, ¿no? Sí. Bueno, sobre todo lo que decía antes Tito, de la domótica industrial en edificios y tal, yo no sé si se sigue haciendo mucho cableada. En su momento, sí. Además, también, aquí, claro, hay que tener en cuenta también cómo ha evolucionado la sociedad en general y la tecnología en particular, ¿no? Y es verdad que, por ejemplo, en el caso de que utilicemos cualquier dispositivo Wi-Fi, normalmente no necesitamos un puente adicional, un bridge adicional o etcétera, porque al final es el propio internet, el propio router, el que se encarga de gestionar esa comunicación. Sí que necesitaríamos un cerebro intermedio que conecte unos dispositivos con otros, como puede ser, por ejemplo, la aplicación de Google Home, ¿no? Pero, en ese caso, como ya tenemos el router y el Wi-Fi funcionando en nuestra casa, es un protocolo que, digamos, ya está funcionando en nuestro hogar, ¿vale? Pero, en caso de que utilicemos un protocolo alternativo, como puede ser ZigBee, que no es algo que, por lo general, la gente ni conoce, mucho menos tiene un coordinador, sí que tendríamos que añadir algo. Aunque, por ejemplo, a modo de curiosidad y también hablando un poco a la gente que nos ha iniciado, yo empecé la domótica con ZigBee y la empecé sin ningún coordinador, porque una particularidad que tiene es que puedes vincular directamente algún dispositivo sin necesidad de ningún coordinador. Eso sí, no te va a permitir hacer automatizaciones ni reglas complejas. Un ejemplo son los enchufes o bombillas que venden en Ikea con un pequeño interruptor o las persianas o algo de esto, que, al final, acabaría funcionando, no sé si como la persiana que tienes tú, Ricardo, con radiofrecuencia o algo así, pero, al final, no deja de ser un mando que específicamente actúa sobre un dispositivo y tú lo puedes vincular. Pero, de hecho, ya te digo, yo empecé así con la domótica y fue cuando me choqué con las limitaciones de, ostras, ¿no podría yo hacer que esto se encendiera solo a cierta hora o no podría hacer que si fuera una hora y pulsara el botón hiciera una cosa, pero a otra hora hiciera otra? Y ahí es cuando ya interesa pasarse a un coordinador más inteligente, empezar a crear reglas más complejas, conectar distintos dispositivos, etcétera. Pero, bueno, sí que se puede empezar por utilizar pocos dispositivos, sin puentes, sin protocolos complejos y, sobre todo, como decía Arturo, realmente, salvo temas de tocar cuadros eléctricos, cables, etcétera, la mayoría suelen ser pulsar un botoncito y automáticamente se vincula, por lo que yo creo que es algo bastante al alcance de cualquier persona sin conocimientos técnicos, ni de informática ni de electricidad. Otra cosa es ya cuando nos metemos en cambiar motores, cambiar relés y cosas de estas, que yo siempre recomiendo que si no has pelado cables, mejor que llames al de seguro o a Humanitas o de esto, porque no puede... Corres un riesgo. Sí, efectivamente, al final, ya no solo un riesgo inmediato, que puede ser porque estés cambiando un cable y a lo mejor se te ha olvidado bajar los plomos, ¿no?, como se suele decir. Y puedes dejar de fumar, ¿no? Exacto. Pues si no fumabas ya no hace falta. Efectivamente, te da... Sientes las chispas de la vida, ¿no? Pero, bueno, ya no solo eso, también hay que tener en cuenta, yo siempre lo digo, que al final, sobre todo cuando ya tienes un entorno maduro, con muchos dispositivos y tal, te gusta crear cosas automáticas, muchas pasan cuando tú no estás en casa o cuando están otras personas, pero no estás tú, que quizás eres el que tiene más conciencia de lo que has montado. Y a mí, bueno, pues siempre tengo en mente eso de que, cuando no esté yo, o esté durmiendo o duchándome o lo que sea, pues no quiero que pase nada que pueda provocar un incendio, una inundación. Correcto. Ha sonado eso, cuando no estoy yo, es cuando me muera. Oye, pues, poca tontería hace... Bueno, yo una de las cosas que hago es dar soporte a distintos usuarios a través de mi comunidad, etc. Y hace poquito, creo que hace apenas un mes, me escribió una mujer pidiéndome ayuda, porque me dijo, mira, es que hace un mes se ha muerto mi marido, él era el que había montado toda la domótica del hogar, con Home Assistant, que es esa plataforma que hemos comentado un poco por encima, que es más avanzada, o al menos no es algo que si no lo has montado tú en cinco minutos te enteres dónde están las cosas. Entonces, claro, la mujer tenía su casa automatizada totalmente, pero quien la había montado era su marido y ella no tenía ni idea. Entonces, claro, pues fue una cosa un poco compleja de hacer, ¿no? Y entonces, la verdad es que es algo que puede pasar. Yo, a día de hoy, ya no lo concibo de otra forma. La gracia de tener una central domótica es poder tener todo en el mismo sitio e interconectado también, ¿no? Pero yo creo que muchas personas, entre las que me incluyo, los primeros pasos que da en la domótica es, creo que antes lo comentaba Jose, es esa situación en la que tienes una aplicación para el termostato, una aplicación para las luces, una aplicación... Entonces, obviamente no es ni muchísimo menos lo ideal pero probablemente es con lo que comenzamos y precisamente ahí... Es que es lo más fácil, es que al final, por eso decía que cuando entraron Amazon, Google y a democratizar la domótica, por decirlo así, de alguna forma, nos lo vendieron todo de una forma muy sencilla, que muchos picamos, y luego te das cuenta de que realmente no es tan sencillo, o sea, realmente no es tan fácil porque tienes 25.000 marcas, muchas de ellas son lo mismo por dentro, con carcasas diferentes, 25.000 aplicaciones para configurar bombillas y al final te vuelves loco y no sabes ni lo que tienes ni lo que no tienes. Pero es una estrategia comercial, es decir, nosotros ponemos nuestro sistema, tú tienes que morir en nuestro ecosistema y comprar nuestros productos porque si te sales, mal asunto. No, porque al final no te creas, porque Amazon y Google se dedican a vender dispositivos domóticos, ellos no los venden. Pero nos venden sus altavoces. Sí, sí, claro, claro, eso sí, exacto, exacto. Yo siempre he pensado, por ejemplo, los de Amazon, los Alexa, considero que para lo que es la gama de productos que hay en general en el tema de la domótica, pienso que son bastante baratos y siempre eso siempre ha sido algo que me ha mosqueado, ¿no? Sí, sí, sí. Al final, cuando esto que se dice siempre, cuando algo es gratis y es que el productor es tú... Pues en este caso era así, lo que pasa es que no les salió bien. Realmente lo que querían hacer era un asistente de compra fácil, es decir, que tú tuvieras los Alexa para escuchar música, que sí, o radio, que sí, o lo que fuera, que sí. Ellos lo que querían es que tú pudieras comprar con facilidad y mantuvieras una relación con ellos con este tipo de dispositivos. Eso es cierto, eso es cierto y quizás esa estrategia por ahí no les fue bien, pero no nos olvidemos, y esto ya sería otra vertiente de la que se habla mucho en el tema de la domótica, que es toda la cuestión de la privacidad, de lo que se hace con tus datos, porque al final no olvidemos que esa parte de que tú estás controlando las luces, como decía Jose, el termostato sabe a qué hora llegas a trabajar, para qué caliente la casa, etcétera. Exactamente. Te hace un mapa de tu casa. Bueno, al final es un montón de información que al día de hoy que estamos en la nueva era de la inteligencia artificial que se alimenta de los datos que nosotros le damos. Sí, sí, esa big data es muy valiosa. Efectivamente, entonces nos han dado un altavoz por 20 euros y nosotros a cambio le hemos dado toda la información de nuestra casa, totalmente, y eso tiene mucho valor también. Sí, sí, totalmente de acuerdo. Así saben que necesitamos y saben que nos tienen que vender y en qué momento y cuándo y de qué manera, saben todo de nosotros. Pero es todo, porque el uso también de la inteligencia artificial ahora por 20 euros, 22 euros o 20 dólares, al final también estás compartiendo y dando un montón de información que a esta gente, bueno, ahora ya están subiendo los precios, pero todo lo que te estaba ofreciendo la IA parecía inaudito, es decir, cómo me lo están dando a este precio, porque estabas viendo que te daba resultados con todos los handicaps que tú le quieras poner. Al final es eso, que ellos nos han utilizado a nosotros como probadores para entrenarlo, ahí ya va parte del precio y la otra que nuestra información ya está alimentando su base de datos. Pues lo que comentabas antes, Tito, que al principio que entramos en la automótica pues empezamos con un poco como pollo sin cabeza, porque tampoco sabemos muy bien lo que queremos, no sabemos, bueno, voy a comprar un enchufe para encender y apagar la lamparita de piel en la sala y pues a ver este que me parece barato, es compatible con Alexa, no sé qué, y luego pues te compras otro, un sensor de temperatura, no sé qué, pero es compatible con HomeKit y al principio pues es normal, no sabemos lo que queremos, estamos en una cosa algo nueva, pero no deja de que... Y ojo que yo no lo critico, para mí es como que antes de andar hay que gatear. Sí, sí, totalmente. Entonces, a ver, yo estoy virgen en este sentido, yo soy un limitado en automótica. Es que creo que no tengo nada. Bueno, tengo a Alejandra y un icono, pero no va conectado a nada, con lo cual estoy out. Por otros, ¿qué me recomendaríais? Yo lo primero que pondría es el termostato, porque al final es un aparatito, bueno, un termostato inteligente, no es más que un termostato como los de toda la vida, con la particularidad de que lo puedes controlar desde el móvil. ¿Y por qué es lo primero que recomiendo? Bueno, aparte porque es muy cómodo el hecho de, por ejemplo, los que vivimos en sitios donde de vez en cuando hace frío, pues a lo mejor vas a llegar a casa de trabajar y la pones media hora antes para que se caliente. Entonces, te permite encender la distancia o, de la misma manera, si te la has dejado puesta y te has ido de casa y te acuerdas, pues no tienes que volver, la puedes apagar desde el móvil. Pero sobre todo, yo personalmente he comparado facturas con termostato inteligente y sin termostato inteligente y es que es algo que un termostato de calidad lo puedes comprar por más o menos 100 euros y en dos facturas lo has amortizado y a partir de ahí te genera un ahorro que yo creo que es muy interesante y que la calefacción. Estamos hablando de un ahorro de casi de 500-600 euros al año. Pues puede ser, sí, sí. No lo tengo calculado, pero no me parece nada descabellado. Yo, Ricardo, para que tú te hagas una idea, viviendo en Madrid, nunca he pagado al mes más de... o sea, nunca he tenido una factura de calefacción más alta de 40 euros. No la recuerdo. Eso es muy bajo en Madrid, eso es pagar un poco. Pero es que viendo... lo bueno que tienen estos termostatos es que al mes te mandan un reporte del número de horas que has puesto encendida tu calefacción y es que tú lo ves y la calefacción realmente, a lo mejor, en los meses más fríos, a lo mejor ha estado encendida cuatro horas al día, no más, porque sabe cuando tiene que encenderse y sabe cómo tiene que gestionar para mantenerse, ¿sabes? Entiendo que el termostato tiene sensores, sabe la temperatura que hace fuera, tiene una orden que a esta temperatura, ¿no? Exacto. Se potencia hasta que alcance tal temperatura. Claro, yo le digo que quiero, por ejemplo, yo en mi caso tengo en la casa... Este invierno, otros la hemos tenido a 20, este invierno está a 21. Pues yo creo que este invierno se está encendiendo menos veces que el resto de los inviernos. Claro, claro, claro. Entonces la tenemos a esa temperatura, ¿no? Yo, por ejemplo, te cuento las automatizaciones que yo tengo. Nosotros nos levantamos súper pronto porque entramos a trabajar muy temprano y nos levantamos a las seis menos cuarto. Pues yo le tengo puesto que a las cinco y media se ponga la calefacción a 21 grados. A las seis y media, que es cuando nos vamos de casa, se apague, se ponga a 17 para que no salte. A partir de las tres, que vuelva a estar a 21, hasta las diez y media de la noche y ya está. Esas son las automatizaciones que tengo. Y la de las cinco y media de la mañana la tengo puesta solamente de lunes a viernes y si estamos en casa, si no estoy en casa, no salta. Esas son las automatizaciones que yo tengo. No tengo más. Y ya sola se gestiona. Y lo que habéis comentado de controladores y conexión CIB y todo esto, en este caso, para comprar un termostato, ¿qué requisitos tendría para estar actualizado? O que fuera algo que me fuera a servir, no solo para ahora, sino para más adelante. En este caso que yo sepa, Tito, los termostatos van todos vía Wi-Fi. Todos Wi-Fi, ¿no? Hay algunos que no, pero bueno, sí es verdad que la mayoría y sobre todo aquellos que son más recomendados y más de calidad, son vía Wi-Fi. Son vía Wi-Fi porque se conectan con los servidores de ellos. Que ese es otro tema que luego, si queréis, podemos hablar. El tema de los datos, de dónde queréis que se gestione, si se gestione en local o si se gestione en los servidores de las empresas. En este caso, se gestiona, yo creo, que en los servidores de ellos. Sí, porque además también estamos hablando de esa primera fase de lo que comentábamos, donde acudes a una solución comercial, donde hay una empresa con sus servidores con tal que te gestionan todo, incluido, llamámoslo, salvaguarda de tu información. Pero bueno, que también en el caso del termostato, hay que tener en cuenta si tienes calefacción central, si tienes calefacción individual, si tienes solo radiantes. Un poco ahí, dependiendo del sistema que tenga cada uno, es algo que hay que comprobar previamente, pero independientemente de eso, es lo que comenta Jose, que la potencia está en que haya una cierta inteligencia o unas reglas que realmente te generan un ahorro. Correcto, y que los sistemas de calefacción, en este caso de refrigeración, sean sensibles a la orden. Es decir, puedan encenderse o apagarse cuando llegue esa orden. Porque mucha gente tendrá que comprar el termostato, pero si no tiene adaptados estos electrodomésticos, no sé cómo llamarles, pero no le funcionarían. Claro, es que depende. En este caso, en primer lugar, depende de tu sistema de calefacción. Si tienes calefacción central, te va a dar igual el termostato que uses. Normalmente no hay termostatos en calefacciones centrales. Pero sí que puedes abrir y cerrar válvulas. Pero para eso estaríamos hablando de válvulas termostáticas, que tienes que vincularlas con algo. Yo no sé si para las calefacciones centrales hay algo... Podría haberlo, pero no tiene sentido, porque al final vas a pagar igual. Entonces, lo que la gente tiene es 26 grados y abrir la ventana, porque al final vas a pagar igual. En las calefacciones centrales no tiene sentido. No era justo por economizar y pagar, sino por no achichar el reno de calor, que yo en Madrid he visto que hace un calor tremendo y no hay control cuando hay calefacción central. En mi caso sí que te hablaba de calefacción individual por gas. Pero fíjate que ahí, Ricardo, comentas... Bueno, aparte de la comodidad, que yo sí que le veo sentido. Por ejemplo, mi novia es supercalurosa y a ella, por ejemplo, no le gusta que el radiador del dormitorio esté encendido un rato antes de irnos a dormir, porque entonces no duerme. Entonces, como tú comentas y dices, Jose, sí que hay válvulas termostáticas que lo que hacen es abrir o cerrar un radiador, independientemente de que la calefacción esté encendida. Pero luego, aparte, hay otro tema, y esto ya me ha entrado un poco dentro de la conciencia de cada uno y de sus motivaciones, pero yo creo que también la domótica, ya hablando un poco en términos más generales, también no lo veo como algo superficial, sino que también ayuda al mundo, por ejemplo, no malgastar energía. Ya no es una cuestión de pagar menos que también, es una cuestión de, ¿realmente necesitamos gastar esa energía? Totalmente. Que haya alguien que esté poniendo la calefacción y, a la vez, abriendo la ventana. Luego también podríamos hablar de cómo la domótica te puede ayudar a obtener energía solar y a tu casa, etc. Bueno, que también puede ayudar en otro sentido. Bueno, en el caso de la calefacción central es que es un mundo aparte porque, aunque cierres el radiador, el consumo va a ser igual, no cambia nada, la caldera se va a encender igual. En la factura, sí. Y en el consumo de la caldera y todo, porque se va a encender para todo el bloque de vecinos, en ese caso. Pero la gracia de un termostato, sobre todo, es una calefacción individual y la gracia está en que haga cosas un poco, entre comillas, inteligentes. Que si abres las ventanas, para ventilar la casa, el termostato detecta que hay una bajada fuerte, un decremento fuerte de temperatura y apaga la válvula de ese radiador de esa habitación, por ejemplo. O con GPS o con... Tienes una aplicación extranjera móvil y te detecta cuando te vas de casa, automáticamente te pasa la temperatura, una temperatura de 15 grados para no malgastar, y si te acercas otra vez, te vuelve a subir a 21. Incluso por tu uso habitual, si sabe que a las 7 de la mañana te levantas, él se tiene que apañar para que a las 7 de la mañana la casa esté a 21 grados, por ejemplo. Día a día va aprendiendo cuánto tiempo tarda en pasar, por ejemplo, de 15 a 21, y si ve que son las 6 y media y la temperatura de la casa está a 16 grados, sabe cuánto tiempo necesita para subir hasta 21. Entonces, él ya va regulando para irse encendiendo a la hora que él necesita para que a la hora que tú quieras esté a la temperatura que tú desees. Es como la carga inteligente del iPhone, ¿no? Bueno, sí, pero bien. Bueno, vale, vale. Es ese mismo sistema automatizado, ¿no? Es decir, conoce hábitos, ¿no? O conoce en este caso datos, y con esos datos ya hace su programación, que es muy interesante. Bueno, pues solucionármelo de las luces, que realmente aquí sí que se utilizan luces, aunque haya mucha luz en el sur, ¿sabes? Y yo sea ciego y no las necesite, pero sí que sería interesante para mi entorno. Lo que tú has dicho, Tito te habla del termostato, yo te hablo del termostato también y del control del aire acondicionado, la verdad, antes de las luces, que también son importantes, ¿eh? Pero creo que para nosotros es también superimportante tener acceso al control del aire acondicionado, porque, bueno, al final son máquinas que no son accesibles, y a través de domótica, a través de sistemas Wi-Fi en los aires acondicionados, tú puedes controlar la temperatura y la velocidad de esos aires acondicionados. ¿Aunque mi máquina sea antigua? Pues probablemente sí, seguramente exista algún módulo Wi-Fi, o incluso si no, existen dispositivos que pueden clonar el mando de infrarrojo de tu máquina seguro. Incluso luego aquí también podríamos entrar en, como decía antes Arturo, en el mundo de la imaginación, yo hasta hace poquito estaba viviendo en una casa donde el aire acondicionado tiene creo que 15 años, algo más de 15 años, entonces ni Wi-Fi, no tenía ni mando, ni nada, lo que tenía era un controlador de sala que se llama este cacharrito que está en la pared y tiene un botón. Pues hay unos dispositivos que se llaman FingerBot para que os hagáis una idea es como un pequeño cubito de unos dos centímetros más o menos y de ese cubito sale un finger un dedo de plástico, de metal, de lo que sea y lo que hace es simular una pulsación. En ese momento yo dije quiero desmontizar este aire acondicionado pregunté al fabricante, me dijo que me podía mandar un módulo que costaba 300 euros, tenía que hacer una instalación y el cacharrito este me costó 20 euros y este funcionaba por bluetooth que también, aunque no es un protocolo muy extendido en domótica, pero bueno, también se puede utilizar para ciertas cosas y nada, pues lo pegué en el controlador y entonces cuando yo decía enciende el aire acondicionado él sacaba su bracito su dedo y pues bueno, fue una forma de hacerlo por 20 euros antes comentabas también Ricardo de si necesitamos para meternos en todo esto necesitamos tener electrodomésticos o máquinas como de última generación supercaras, pues para la mayoría de las cosas no porque por ejemplo fíjate que otra cosa que tenemos muchos hecho en casa es automatizar, yo tengo por ejemplo la lavadora y el lavavajillas que es de lo más práctico que he hecho y lo he hecho con un sensor de los que te decía antes de puerta y ventana abierta y bueno hay un enchufe inteligente que mide el consumo entonces básicamente lo que he hecho es la lavadora de toda la vida, en mi caso tendrá 7 años o así pero si tuviera 20 funcionaría igual está enchufada en vez de ir directamente a la corriente le he interpuesto un enchufe que mide el consumo entonces el enchufe me dice si la lavadora está funcionando o si no está funcionando en función de la potencia que le está demandando y luego aparte yo le he puesto un sensor de estos que se suelen poner para saber si la puerta está abierta o cerrada en la puerta de la lavadora entonces cuando el enchufe detecta que está demandando potencia sabe que ha pasado de apagada a lavando y cuando deja de tener demanda de potencia pasa de lavando a finalizado pero hasta que yo no abro la puerta y lo detecta ese sensor pues me está mandando una notificación cada 10 minutos diciendo que tiende a la ropa esto es un ejemplo práctico hablaremos de eso querido Tito cuando quieras eso también lo tengo yo eso mismo lo tengo con un enchufe domótico que va controlando el consumo instantáneo pues en que momento ha terminado de lavar y me avisa por los altavoces de Alexa pues me dice que ya puedo colgar la ropa y vuelvo a decir una barbaridad, el otro día escuché alguien que decía que utilizaba un sistema similar para saber si su cargador o sus sus pilas Arturo con un enchufe domótico igual cuando le tengo enchufado el cargador de pilas o un cargador que cargue cualquier aparato una powerbank o lo que sea las primeras veces hay que hacer un estudio previo de ver que consumo tiene cuando el dispositivo en cuestión está cargando porque hay veces que cuando llegan al 95% pues a lo mejor bajan ese consumo y cuando ha terminado de cargarse pues hay que ver en que en que consumo se queda porque hay veces que se quedan en un consumo residual de 0,30, 0,40 Hay que hacer un estudio previo ¿Cómo los obtienes Arturo? El enchufe inteligente te dice el consumo instantáneo que tiene ese aparato es lo que no sabía las primeras veces pues ves un poco a ver que consumo va teniendo y luego pues ya puedes crear una automatización una powerbank o las pilas o lo que sea están cargando a 3 vatios por decir algo y cuando han terminado de cargar pues se baja a 0,40 pues creas una automatización que cuando el consumo instantáneo esté por debajo de 0,50 durante 2 minutos por ejemplo pues que me mande una notificación al móvil y me avise por un altavoz inteligente de que ya ha terminado de cargar y además apague el enchufe inteligente para que no siga gastando ¿Eso produciría un ligero ahorro económico? ¿No? ¿Y al mismo tiempo protegería la pila? Lo más interesante yo creo que protegería la batería que no estaría ahí continuamente enchufada cargando Muy bien Lo que hicimos en todo esto lo más importante primero es saber qué es lo que queremos, a dónde queremos llegar para no ir como un pollo sin cabeza comprando cacharros de uno de otra marca, de uno de otro protocolo y que cada uno vaya conectado a una central distinta, un puente distinto porque al final todos se conectan una central a otra y al final acabamos con 20 centrales en casa con cacharros que son compatibles con Honky, otros con Alexa, otros por wifi, cada uno de su padre y su madre y lo peor es que no se pueden hablar entre sí que uno de Honky o no se pueda hablar con Alexa o no se pueda hablar con Honky por wifi, ¿no? Lo más bonito es que todos se puedan hablar entre sí entonces primero hay que saber a dónde queremos ir qué es lo que necesitamos y dependiendo de lo que necesitemos pues ya veremos qué es lo que podemos Pero o sea, tienes razón Arturo pero que no nos, o sea esto es como dicen los de Google, ¿no? No hay que tener miedo a equivocarse todos hemos pasado por ahí todos hemos comprado dispositivos que ahora ya no utilizamos y todos hemos cambiado nuestra filosofía de hacer la domótica o sea, si hay algo de lo que me arrepiento que en algún momento ahora lo estoy utilizando pero en algún momento me encantaría cambiar son las luces precisamente lo que tú contabas Ricardo Bueno, eso sí que tengo porque no tengo ni de acondicionado ni del otro pero bueno Yo ahora mismo tengo las luces de Hue de Philips porque en su momento son las que a mí mejor me venían porque vivía en una casa de alquiler porque yo quería que fueran compatibles con HomeKit y porque no tenía mucha idea de cómo iba el tema y porque es verdad es lo más fácil enroscas bombillas y tira y tira desde un puente y se acabó tiene sus inconvenientes porque si alguien te toca el interruptor te jode el invento pero bueno, claro eso es lo que pasa ahora es verdad que la tecnología ha avanzado y ahora existen unos dispositivos que se llaman relés que los puedes meter detrás del interruptor y que no necesitan una conexión neutra que en España no solemos tener en los interruptores de casa, ¿no? Yo ahora mismo tendría claro que no utilizaría ni bombillas domóticas ni interruptores domóticos, utilizaría mis interruptores normales de toda la vida, las bombillas que yo quisiera pero sí metería un relé detrás de ese interruptor un relé domótico que no lo ve nadie que no molesta a nadie y ahora ya no hacen falta que tengan conexión neutra pero sí o no, depende yo por ejemplo también empecé con las Hue por lo mismo porque también es lo más fácil de poner que las enroscas y luego pues ir a su puente de Hue y la app y ya está, es lo más sencillo yo cambié entre comillas los interruptores donde estaba el interruptor normal he puesto un interruptor de Hue, uno de estos que tiene los cuatro botoncitos lo que pasa es que te quedas también encerrado en el ecosistema de Hue exactamente porque todo eso, los interruptores de Hue, las bombillas de Hue van todos al puente de Hue y no puedes interactuar con otras cosas pero luego aquí está el salto que también quería dar, entre las soluciones comerciales que son cerradas y te quedas dentro de esa solución o otras soluciones como por ejemplo Home Assistant ahora todas las bombillas de Hue van a la central domótica, puente Hue, Hub o como queramos que se llame que en mi caso ahora es Home Assistant los interruptores también van a ese puente y ahora con los interruptores de Hue puedo encender y apagar un ventilador además de las bombillas puedo hacer que me diga cosas a través de Alexa o puedo hacer que interactúe con el resto de dispositivos que tengo en casa Toc, toc, toc, quiero preguntar Pues vamos a ver, cuando hablas de interruptor, que estáis hablando del pulsador, de la pared o del... Antes yo tenía el interruptor físico mecánico que hace que los cables dentro se junten o se separen que es el que hace al final que no se apague la bombilla y ahora eso no lo tengo, eso lo tengo puenteado y encima pues tengo puesto uno de Hue que es un interruptor inalámbrico ¿Y yo qué hago? Yo tengo aquí unos pulsadores que les doy y se enciende la bombilla. En tu caso yo lo tendría claro, no sé qué quería decirnos Tito pero yo en tu caso metería unos relés detrás de esos interruptores ¿Y esto también maneja si yo quiero darle distintas sonoridades, calor...? No, no No, solo encender y apagar. Ahí ya tienes que entrar en el mundo. Por eso depende lo que quieras. Vale, vale, vale. Yo os estoy escuchando y primero le doy toda la razón a Arturo pero estoy con Jose totalmente porque lo que dice Arturo es la voz de experiencia hablándole a un adolescente y diciéndole que no haga tonterías, ¿no? Yo lo veo así y todos, yo creo que todos hemos empezado con bombillas y aquí voy a lo que tú dices Ricardo porque como decía Jose es muy fácil es enroscar una bombilla y a funcionar entonces es muy fácil y creo que dentro de esto efectivamente como dice Arturo tienes que saber lo que quieres, lo que pasa que cuando estás empezando no puedes saber lo que quieres. No, exactamente. Porque necesitas un proceso de aprendizaje para llegar a saber lo que quieres. Por ejemplo la pregunta que tú acabas de hacer Ricardo, un relé es un interruptor electromagnético es decir, abre o cierra un circuito por un pulso magnético, ¿no? Entonces, esto únicamente permite encender o apagar, pero no te permite regular la intensidad o regular el color, ¿vale? O hacer otro tipo de efectos pero es que más allá de eso, por ejemplo te puedes encontrar nosotros te estamos aquí recomendando porque realmente es lo que ahora se recomienda instalar un relé, pero a lo mejor tú te compras el relé, el relé es como una pastillita de igual, pues de más o menos dos centímetros por dos o algo así, pero ¿qué pasa? que hay muchos que no caben en el cajetín pero no es lo mismo, por ejemplo, cuando ya una persona ya lleva un tiempo en la domántica y se compra una casa, hace obras, pues suele instalar cajetines con más profundidad para que entren este tipo de mecanismos sin problemas, para mí es que de hecho me ha pasado ayer que iba a poner un relé y no cabía en el cajetín, entonces bueno, tenía que hacer una solución ahí alternativa pero al final, en definitiva lo que quiero decir es un poco lo que comentaba Jose, lo que hay que hacer es probar y tirar un poco por tu necesidad inmediata tú ahora mismo que quieres encender esta luz y a lo mejor tiene justo donde trabajas tienes el interruptor en la otra punta de la habitación, pues a lo mejor a ti te va bien tener un bandito en tu escritorio donde puedas encender y apagar la luz sin tener que levantarte cuando se hace noche, ya está tú tira por ahí y en algún momento llegará un día que dirás, joder, y si pudiera hacer esto de tal manera entonces ahí empezarás a investigar y verás pues a lo mejor cosas que podías haber hecho de otra manera o cosas que puedes hacer ahora diferentes para gestionar eso. Y aquí quería enlazar un poco con lo que decía Arturo que para mí hay una cosa maravillosa que para mí es como una goma de borrar de errores y de home assistant ¿Por qué? Porque de la misma manera que a lo mejor tú puedes decir, joder, me compré una bombilla de no sé qué marca y yo que utilizo Apple para todo pues resulta que no es compatible pues home assistant como no es una solución comercial sino que es de código abierto permite la integración obviamente no del 100% de dispositivos del mundo mundial pero a lo mejor del 90 entonces la probabilidad de aunque tú hubieras comprado una cosa que sea china o que sea de IKEA o que sea de Philips o que sea de tal casi todo tú lo puedes integrar y comunicar unos con otros entonces yo me atrevería a decir que no ha habido nada que haya comprado ni siquiera cuando empecé con la domótica que no haya podido reaprovecharla de alguna manera fíjate por ejemplo por poner un caso concreto cuando yo empecé con las luces como he dicho con el mundo enroscando la bombilla pero luego empecé a utilizar enchufes en este caso eran por radio frecuencia que básicamente yo tenía un mandito y con ese mandito podía encender y apagar distintos enchufes en una habitación entonces a lo mejor tenía un estudio con el que encendía un ventilador, una impresora o lo que fuera todo en el mismo mandito pues cuando eso lo he llevado al mundo del home assistant evidentemente tengo enchufes inteligentes que pueden ir por wifi, por zippy pero también he podido utilizar todos estos viejos que tenía utilizando un emisor de radio frecuencia y eso incluso lo puedes utilizar con persianas viejas hasta con lucecitas de estas solares entonces bueno que al final la conclusión es que hay que empezar hay que tirar para adelante, hay que equivocarse y luego ya se encontrará la manera de solucionarlo, yo lo único que sí que recomiendo es que intenta en esos principios pues a lo mejor no gastarte 300€ o 500€ en algo pues empezar poco a poco ¿Primero qué es home assistant? porque a lo mejor de honking no suena, Alexa también porque son soluciones comerciales soluciones baratas que más que menos tienen un cacharrillo, he oído hablar de ello pero home assistant a lo mejor es un poco más raro ¿no? que es de hecho la mayoría de la gente no lo conoce, luego hay mucha gente que cree que lo conoce pero lo está confundiendo con Google Home eso me pasa muchas veces Sí, porque pone Google Assistant por ahí en algunos sitios en la app o algo así y a veces pues se confunde. Puede ser, puede ser mucha gente se confunde pero bueno por definirlo de alguna forma home assistant es un proyecto totalmente independiente de cualquier marca comercial no tiene ninguna asociación con Google Exa, Xiaomi, ni con nada es un proyecto que surge por una persona que lo empieza a desarrollar con el afán de crear automatizaciones y tal, es un proyecto que en un inicio además gusta mucho en la comunidad friki, por decirlo de alguna manera, gente con conocimientos técnicos porque obviamente en esa fase inicial no es algo amigable la interfaz y todo esto requiere en ese momento que tenga ciertos conocimientos y cada vez hay más gente que se va sumando y va pues aportando su granito de arena pues a lo mejor dice oye pues mira yo he conseguido desarrollar un código para integrar las bombillas de Philips y otro el robot aspirador de Xiaomi otro el altavoz de Alexa la cuestión es que es un movimiento de comunidad todo esto la gente que aporta lo hace por afición y entonces es un proyecto que va creciendo va creciendo y bueno a día de hoy está esponsorizado por una empresa que se llama Nougat Casa esponsorizado quiere decir que aunque patrocina este proyecto y obviamente hay gente ahí trabajando y que tiene un sueldo y todo esto y se dedica 24 horas a ello pero no es un proyecto que esté vinculado a resultados económicos ni nada de esto y bueno también pertenece este proyecto junto a otros está encuadrado dentro de una fundación que se llama la Open Home Foundation y bueno está adscrito a una serie de principios como privacidad accesibilidad aunque nos dejamos ahí peleando con ellos para que se pongan un poco las pilas bueno una serie de principios que en teoría garantizan que al estar dentro de esa fundación pues nunca van a a dejarse llevar por todas estas cosas que hacen las marcas comerciales entonces dentro de ese proyecto de código abierto que no pertenece a ninguna marca que se nutre de los aportes de la comunidad también llevan ya bastante tiempo realizando un esfuerzo para que cada vez sea menos algo para frikis y sea algo más accesible para todo el mundo ¿cómo? sobre todo a través de mejorar su interfaz de usuario es decir que sigues teniendo la posibilidad de escribir código como si fueras un programador siendo un programador el código que utilizan pero también pues con selectores, con campos como harías en cualquier aplicación como Google o Alexa entonces ya digo están intentando cada vez llevarlo más hacia ese mundillo para que bueno para que cada vez más gente se pueda animar a esto por ponerlo un poco en su sitio simplificando pues es un puente, un hub, una central domótica igual que tenemos HomeKit tenemos Alejandra tenemos pues por wifi pues podemos tener tuya o hay diferentes centrales domóticas donde todos los cacharros van conectados a esa central pues Home Assistant es otro de estos donde todos los diferentes dispositivos irán conectados a Home Assistant independientemente de la marca que sean y eso haría que todos puedan interactuar entre sí ¿no? simplificándolo mucho incluso por afinarlo un poquito más es un sistema operativo porque incluso te permite instalarlo hasta en tu propio ordenador tu portátil no necesita ni siquiera obviamente no es lo óptimo ni lo que acaba haciendo la gente pero si tú por ejemplo Ricardo hoy en tu casa al acabar el podcast lo quisieras probar podrías instalarlo en tu propio ordenador ese sistema operativo y verías como funciona Hay una cosa que me parece muy importante aunque no es al 100% porque hay bueno, conexiones o integraciones como se llaman en Home Assistant que sí que necesitan digamos contacto con el exterior hay una cosa que a mí me parece súper importante y que creo que hay que tenerla muy en cuenta y es que toda esa domótica con Home Assistant se gestiona de forma local en tu casa ¿vale? no es necesario que haya conexión a internet para que funcione esto es así pero tiene trampa por lo que digo ¿no? porque hay algunas integraciones algunas conexiones como por ejemplo la del termostato que sí que tienen que salir fuera de tu casa tienen que salir a internet pero por ejemplo en mi caso las persianas, en mi caso las luces y todo este tipo de cosas se gestionan de forma local no tienen que salir a internet para que funcionen y eso creo que es importante porque en otros sistemas domóticos sí que tienen que salir y utilizan los servidores de las diferentes marcas creo que eso es también una cosa muy buena de Home Assistant Sí, esta es una diferencia importante ¿no? que la inmensa mayoría de las empresas lo que quieren es conocer nuestros hábitos dentro de casa y para eso pues claro toda esta información tiene que ir a sus servidores así nos tienen ya fichados para poder realizar cualquier automotivación, cualquier cosa intenta basarse en hacer todo esto local claro, depende incluso del mismo dispositivo dependiendo de cómo lo conectes con Home Assistant puede que se conecte en local o no, o a través de internet si utilizas tu cuenta de usuario y contraseña que tienes en tu aplicación de Netatmo pues ese va a través de internet, en algunos casos existe incluso, bueno este ya pa nota se puede refactorizar el firmware del cacharro para que vaya en local ¿no? con un Tasmota o con una cosa de estas o hay varias versiones varias cosas que se puede reflasear para que se conecte, para decir al aparato no vayas a internet vete a Home Assistant que tienes aquí al lado Con lo que dice Arturo, una de las cosas que a mi me parece genial de Home Assistant es que también te da un abanico o sea, aunque ellos tienen sus principios como proyectos no creo que haya como una limitación o intolerancia a las preferencias de cada uno y al final, lo que dice Arturo aquí, si tu no te quieres complicar y lo tuyo no es programar ni nada de esto, pues oye, puedes conectar tirando la conexión con el servidor un montón de dispositivos ¿no? y en ese caso tu sabes que aunque lo tienes ahí integrado pues como dice Arturo, viajan los datos etcétera, pero también permite el otro abanico que yo lo quiero 100% local porque soy de los que llevo un gorrito de estos papel de aluminio porque satélite pues entonces tu puedes tenerlo todo 100% local además de lo que comentaban tiene otras ventajas como por ejemplo la velocidad exacto, si, no es lo mismo la velocidad de respuesta de cuando tu mandas una información que tiene que ir a un servidor de China y volver a algo que literalmente lo hace a un metro entonces hay muchísimas ventajas pero en Home Assistant tienes todo el abanico puedes hacerlo fácil, cediendo tu información y siendo consciente de ello o puedes complicarte incluso hacerte tus propios dispositivos que como dice Jose funcionan sin internet, funcionan totalmente local y hasta le puedes hacer la forma que tu quieras, las voces que tu quieras O si te quedas sin internet yo este fin de semana pasado tuve una avería con mi proveedor de internet que me dejó 4 días sin internet feliz, vamos volví casi a las cuevas de Promañón tu no, la tuvo el la avería no la tuviste tu con el, la tuvo el la tuvo el proveedor de internet pero el afectado fui yo si, si, 4 días Arturo, vives en, vamos en las cuevas estuve viviendo y una parte importante de la domotica seguía funcionando la parte que estaba en local seguía funcionando, un ejemplo son las bombillas de Philips que se conectan todas a través de su puente si tu integras el puente con Home Assistant que es la solución fácil todo eso va a ir a través de internet pero tienes todas las bombillas y dispositivos sensores de movimiento, interruptores todo del tirón, todo de una tacada pero todo a través de internet y la solución un poco más difícil es que cada uno de esos dispositivos cada bombilla, cada sensor de movimiento, cada interruptor la conectas directamente a tu Home Assistant y ya todo funciona en local, incluso te da más funcionalidades que las que tiene el propio dispositivo de serie por la marca como curiosidad, las bombillas de Philips cuando se encienden tienen ahí un delay tardan, no sé si es un segundo medio segundo, no pasan de 0 a 100 sino que van pasando por un degradado que da un efecto un poco más chulo a la hora de encenderse despacio, que es una característica de Philips que además es una característica de la marca y con Home Assistant la puedes saltar y puedes pasar de 0 a 100 instantáneamente, por ejemplo Yo sí que tenía varias preguntas que haceros respecto a Home Assistant son dudas, lo primero es uno tengo claro de que cuando comenzó todo esto era para gente con muchos conocimientos y muy frikis que la evolución por lo que está comentando Tito es abrirla y que cada vez hacerlo todo más sencillo y fácil para que sea más popular y lo utilice todos los usuarios que lo deseen, entonces sin ser friki, sin tener unos grandes conocimientos, ¿qué perfil básico debería tener una persona a nivel de conocimientos informáticos o de manejo de tecnología y que curva de aprendizaje precisaría para sacarle un funcionamiento también básico a este tipo de sistema? Ahora luego os pregunto otra cosa. Esto es muy interesante uff esto es muy interesante porque en las soluciones comerciales lo que supuestamente te venden es que es enchufar y listo, aunque en la práctica tampoco es tan así, porque muchas veces tienes enchufes, sensores, no sé qué, por ejemplo HomeKit y hay veces que deja de funcionar no sabes por qué, no sabes cómo solucionarlo, no sabes qué hacer y estás vendido porque a veces tampoco tienes un señor de Apple allá al lado para solucionarte los problemas porque es uno de los problemas que más se suele achacar a Home Assistant que el mantenimiento te lo tienes que hacer tú pero es que en el resto de plataformas comerciales también. Mira, yo creo que lo tengo clarísimo el único requisito que veo indispensable para que una persona pueda hacer funcionar Home Assistant es que tenga tiempo o tiempo que le quiera dedicar porque al final, obviamente si tú eres una persona que te manejas habitualmente con tecnología con... bueno en fin, si ya eres programador mejor todavía, vas a hacer virguería y esos son el tipo de personas que digamos crean desarrollos y crean funcionalidades pero el 90% de la gente no es ese perfil, el 90% de la gente es una persona pues que tú o vosotros quieren automatizar la calefacción, la ventana las luces, lo que sea y realmente lo único que requiere es tiempo eso sí es cierto porque no es algo que y aquí voy un poco con lo que dices de la curva de aprendizaje, no es algo difícil pero como todo tienes que entender que una automatización pues tiene un desencadenante tiene unas condiciones, tiene unas acciones tienes que ver en el menú cómo llegas a esas opciones normalmente para integrar, para conectar esos dispositivos pues probablemente vas a tener que acudir a alguna guía o algún vídeo explicativo o algo de esto entonces son cosas que por mi experiencia todo el mundo puede hacer siempre que le quieres dedicar un ratito porque no es algo que vayas a montar en media hora, en una tarde y no lo vayas a volver a hacer pues entonces, mira, me viene muy bien lo que me has dicho porque uno con la segunda pregunta, vale muy bien, yo tengo tiempo pongo este supuesto pero por ejemplo tengo barrera idiomática normalmente muchas veces encuentro los tutoriales en otro idioma y no dispongo también de contactos con los que compartir o una comunidad activa que me pueda solucionar problemas, ¿cómo se soluciona esto en Home Assistant? Te voy a meter un poco de spam ahora, no sé si me lo has puesto a huevo yo comencé con Home Assistant hace a lo mejor algo más de tres años no es mucho, aunque ha cambiado mucho en ese tiempo, pero es cierto que yo cuando empecé realmente me encontré con esa barrera entre comillas bueno, yo si más o menos me manejo con el inglés, pero si yo vi que todos los desarrolladores prácticamente todo el contenido estaba en inglés ¿qué pasa? que al final, bueno, esto está dirigido a un público más bien maduro, ¿no? porque al final alguien con 15 o 20 años no suele tener su casa o quizás su prioridad es en la vida no es ahorrar en la calefacción entonces la barrera del idioma es importante entonces cuando yo me di cuenta de esto, pues dije eso unido a que bueno, yo estaba unos cuantos años programando y me di cuenta que empezaba a hacer cosas que no veía en ningún sitio pues me planteé, oye, sería interesante que hubiera alguna página, una especie de Wikipedia, donde se pudieran ir reflejando todas esas guías de cómo hacer este tipo de instalaciones con esa filosofía, pues yo empecé un blog, que es aguacate.es y no empezó siendo más que una bitácora de las cosas que yo iba haciendo en mi casa no lo iba compartiendo con ninguna otra finalidad más que esa de hecho, todo el mundo me decía que por qué no hacía YouTube y tal y yo decía, bueno, simplemente porque esto lo estoy haciendo porque me gusta y a mí lo que me gusta es investigar y escribir y bueno pues con el tiempo fue creciendo el número de guías también creamos una comunidad en Telegram Telegram no es una de las plataformas más accesibles que Arturo ya la han sufrido, no sé si tú la conoces, en estos temas pues es donde más o menos se concentra la mayoría de la gente y además teniendo en cuenta que por lo general solemos ser personas que es raro que a nuestro alrededor haya, no sé, ahora me diréis Arturo y Jose si me equivoco, pero a mí por ejemplo, yo creo que solo tengo un amigo que tiene Home Assistant y a nivel básico como que no es normal conocer a alguien de primera mano, con quien comentes cómo hacer esto y tal, entonces estas comunidades bueno, aparte de que haya otro tipo de contenido como nosotros tenemos talleres de formación, charlas pero bueno, sobre todo es un punto de unión donde entra una persona y dice oye, estoy conectando las bombillas de Philips y me da un error que me dice no sé qué, alguien le ha pasado y esa persona o cualquier otra persona, porque la gracia es que hay mucha gente que ha tenido muchas experiencias y a lo mejor bueno, a lo mejor no, nadie sabe todo, pero muchos hacen un dono y entonces pues es la forma más rápida o más sencilla de encontrar ayuda, es como un soporte comunitario Aunque luego en las notas del episodio pondremos el enlace de Aguacatech dime exactamente cómo se escribe y cómo ahora alguien que está escuchando este podcast si teclea o se encontraría, es decir, simplemente poniendo dos palabras en el buscador sería, pues si pones Aguacatech Home Assistant saldría, es con c es como Aguacate pero acabado en tech de tecnología Exacto y Home Assistant aunque en general yo creo que ya a día de hoy por suerte si pones Aguacatech Tito, ¿y por qué Aguacatech? ¿se puede saber? ¿tiene historia? Pues mira me visualizo en el sofá diciendo qué nombre puedo ponerle yo a este blog y estaba mirando el ventilador de Zecotech y me pareció que tenía gancho para qué le voy a inventar otra cosa, no fue así me pareció que tenía gancho y el aguacate me gusta Estabas comiendo guacamole o algo Pensé que a mucha gente le gustaría y ya está Pues sí, sí, es un nombre con gancho, muy acertado A mí me gustaría contar cómo descubrí yo la comunidad, si me lo permitís porque es que estaba justo en el momento en el que decía Ricardo y bueno, luego Arturo también vino engañado una cosa así como además fue muy curioso, luego te contamos Yo empecé con Home Assistant pues creo que marzo, abril mayo de este año lo intenté con una Raspberry no tuve narices de instalarlo porque yo soy muy zote para ese tipo de cacharros e investigando descubrí lo que es el Home Assistant Green que es un dispositivo específico que ya te viene montado entonces, para torpes, pues mira para mí, directamente enchufar e instalar del tirón y es lo que tú dices es verdad que la curva de aprendizaje es muy alta y yo de domótica, bueno, pues ya tengo mis años de experiencia, yo ya sé lo que es una automatización, sé cómo funcionan los dispositivos cómo se vinculan, tal, tal, tal pero a mí personalmente la curva de aprendizaje de Home Assistant sí me parece muy alta, porque es es que es tan grande y se pueden hacer tantas cosas que hasta que tú empiezas a entender un poco cómo funciona es que la imaginación es, de verdad, no hay límite es increíble lo que se puede hacer entonces a mí me pasaba eso No sabía por dónde empezar. Y algo tan sencillo como conseguir que una automatización se repitiera diferentes días de semana a diferentes horas, eso se me hacía un mundo. O sea... Podía conseguir una automatización para todos los días a la misma hora. Pero digo que si quiero que la luz se apague los viernes más tarde, ¿cómo en leche hago que la del viernes se apague más tarde? Algo así tan sencillo. Pasé por varias etapas. Pasé contratando servicios de consultores, externos... Pasé, bueno, no tirando el dinero, porque alguna cosa aprendí, pero sin realmente aprender yo. Y buscando un día... Además, me acuerdo que fue por la mañana, mientras iba al curro, eran las seis, siete menos algo la mañana, buscando algo. Me encontré con un manual de este hombre y dije, va, esto será un video de YouTube como siempre o con capturas de pantalla y tal. Y cuando leí el manual, que no me acuerdo ya ni de qué era, he explicado, contexto todo de una forma que dices tú, ostras, lo entiendo. Y me dije automáticamente, digo, voy para adentro de esta comunidad. O sea, no es porque esté aquí delante ni porque ya tengamos relación de medio amistad, medio que me soporta, de muchas cosas. Pero es que, de verdad, tiene una forma de contar las cosas muy diferente a lo que hay en otros sitios. Y que, bueno, que a nosotros, personalmente, sin ver videos de YouTube y sin ver capturas de pantalla, nos viene muy bien. Qué bien. ¿Y tú, Arturo, por qué fuiste engañado? Por Jose. ¡Ja, ja, ja! ¡Ja, ja, ja! ¡Ja, ja, ja! ¿Qué le hizo? Porque también estaba en ese proceso de... Bueno, yo siempre... Bueno, llevaba mucho tiempo queriendo entrar en el mundo del home assistant, pero, por una cosa o por otra, acababa de decidirme, de dar el paso. Y, entre otras cosas, también por lo que decíamos, de estar ahí solo y hacerme los chichones yo solo, sin poder compartir con nadie. Y cuando te embuclas y te quedas ahí enganchado, pues... ¿Qué haces? ¿Para dónde tiras? ¿A quién recurres? ¿Tiras horas buscando por internet y tal? Y coincidió que Jose también estaba metiéndose en este mundo. Digo, mira, este puede ser el empujón que necesitaba para acabar de entrar aquí. Y, pues eso, justo acababa de conocer a Wacatec, me lo comentó y dije, pues, vaya, que voy también. Fue muy divertido porque Tito me mandó un WhatsApp de... Oye, que ha entrado otro chico ciego, no sé si lo conocerá, se llama Arturo... Digo, de algo me suena. ¡Ja, ja, ja! Me dije, mucha casualidad. ¡Ja, ja, ja! La verdad es que... Bueno, pues, tal cual lo han contado, ¿no? Y... Yo siempre les he dicho a ellos dos que, con toda sinceridad, yo empecé, como he dicho antes, escribiendo, porque es lo que me gusta hacer, y, bueno, quizás, como también he hecho, he dado muchas formaciones y tal, pues, quizás tengo más ese tinte como muy explicar las cosas para intentar que todo el mundo lo entienda, ¿no? Pero es verdad que, al entrar Jose y Arturo y comentarme cómo esto ayudaba, por ejemplo, para seguirlo con un lector de pantalla, dije, pues, no lo sabía y lo agradecí mucho. Y como hay veces que, simplemente por ir contra corriente, pues, oye, sin quererlo, ayudas a alguien más o vas más allá que, por ejemplo, la gente que hace YouTube, que, obviamente, todos consumimos YouTube y, a día de hoy, todo está en vídeo, pero hay veces que hay cosas que se quedan fuera, ¿no? Y, de hecho, también, a raíz de lo que fue Arturo, que me recomendó un curso de accesibilidad, muy bueno, por cierto, pues, realmente me abrieron los ojos del papel de la tecnología en general y de la domótica en particular y como lo importante que es la accesibilidad y la verdad que... ¿Has llegado a instalar un lector de pantalla, Tito? Pues, mira, no me lo he llegado a instalar, pero he tenido la fortuna de estar con Arturo y Jose tomando unas cañas... Y viendo cómo se comportaba. Me dejaron flipando. Sobre todo, me impresionaba... Supongo que es el hábito o la costumbre, pero me impresionaba que fueran capaces de gestionar toda esa información a la velocidad del lector de pantalla. Flipaba, vamos. Arturo, ¿qué curso le recomendaste? Lo recomendamos para otros investigadores, ingenieros y demás. Hay uno en la plataforma de... Udemy. Udemy, Udemy, Udemy. Udemy, que es de Sergio Luján Mora, que ya es un poco antiguo. Es de Alicante, ¿no? Sí, eso es. No está actualizado, pero aún así los conceptos básicos los explica muy bien, con libros y explica muchas cosas. Pondremos un enlace muy bien. Y yo creo que aquí también es importante lo que habéis comentado de la comunidad. Antes de conocer y entrar en todo esto de Home Assistant, ya teníamos un grupo de WhatsApp, también por el tema de accesibilidad, que a veces nos complica un poco más las cosas en general. Pues ya estamos ahí en un grupo de domótica accesible, porque muchas veces, y eso sin tener que ver con Home Assistant, el otro día un amigo que se compró unas placas, unas luces decorativas de Nanoleaf, que son compatibles con HomeKit, y no había narices de hacerlas funcionar. Pues que a veces las soluciones comerciales, que pensamos que esto es enchufar y listo, pues no siempre es así. Y a veces tenemos que buscar tutoriales, tenemos que buscar vídeos, alguien que nos eche una mano, lo que sea. Esto con Home Assistant es imprescindible, porque como Home Assistant es código libre, Open Source, todo esto, lo más importante quizás que tiene Home Assistant es la comunidad que hay detrás. Totalmente. Cuando todo esto de la domótica empezó, se creó un grupo de domótica, se llamaba Domotic Land, de un grupo de WhatsApp. Y hace dos semanas hemos creado un grupo específico de Home Assistant. En el que estamos siete personas, no estamos más. Pero los siete cabezotas, y ya está. Pero claro, porque necesitamos llorar entre nosotros. O sea, eso sí. Sí, sí. Sí, sí. Aunque a lo mejor el otro no sepa la solución, porque estás pegándote ahí con tu casarro de netazmo, y a lo mejor nadie más tiene netazmo, pero necesitas desahogarte con alguien. Es que si no... Yo creo que también está ese efecto analgésico. Sí, sí. Que sí, que sí. Porque también, aparte de tener tiempo, creo que también es importante tener un poco de tolerancia a la frustración. Porque también he conocido gente que ha empezado y en tres días lo ha dejado y ha dicho que esto no es para mí. Esto es importante. A mí me ha costado aprender eso, ¿eh? Me ha costado aprender eso, lo reconozco, porque es verdad que con la aplicación de casa de Apple, por ejemplo, las automatizaciones son muy sencillas, se hacen y funcionan y ya está. Y aquí, pues un día no funciona. Sí, claro. Porque si ayer sí. Y bueno, pero eso sí, a lo mejor luego estás cuatro meses sin acordarte de que tienes hecho algo. O sea, yo, es verdad que es el sistema que más quebraderos de cabeza me ha dado, pero también es verdad, sin duda ninguna, que es el sistema que más seguridad me está dando. Y más alegrías. Es que yo me olvido, me olvido de todo. Hasta que falla. Cuando falla, digo, hostia, ¿cómo me he atortado aquí? Un problema de la domotica es que no es tu móvil que te fastidia a ti solo. Claro. La domotica afecta al resto de miembros de la casa. Y aquí es muy importante que se suele conocer como el FAES, que es el factor de aceptación de la esposa. Claro. El día que todas las luces dejan de funcionar, pues ese día empiezas a sudar. En mi caso, la admin se queja más por la calefacción que por las luces, ¿sabes? La luz o la calefacción, cuando empiezas a tocar botones y esto no funciona como debería de funcionar, pues entonces empiezas a sudar. Esto no funciona. Yo la llamo la beta tester, porque cada vez que hago una automatización, meto un cacharro nuevo. Yo, claro, tú lo haces planificándolo. Sí, sí. Pulse aquí y va a hacer esto. Llega ella, se pone a tocar botones aquí sin tener ni idea, sin saber qué está tocando. No responde, pues toca otro y se lo carga. Entonces, te digo que cualquier cosa que publico ya ha pasado por el beta tester. Si ella... Si funciona con ella... Sí, sí, sí. Y esto es curioso. Decís que falla a veces. ¿Y cuando falla, para rastrearlo, hay algún log que podéis seguir y compartir? Sí. Ese es un día que tendríamos que hablar de... No sé si lo tienes publicado en el blog, Tito, porque no lo he encontrado o no me acuerdo. No tengo ninguna publicación específica, pero es verdad que sería interesante. Sí, yo creo que estaría... Porque saber interpretar las trazas de la... De la... De la... De la... De la... De la... De la... De la... De la... De la... De la... De las trazas de las automatizaciones también tiene lo suyo. Sí, es que... Claro, es que esto es lo que decía Jose, que al final es verdad que hay una curva de aprendizaje elevada porque... Porque, claro, o sea, una automatización o una regla o un dispositivo puede fallar por muchos motivos. O sea, puede ser... Por ejemplo, por decir algo tonto, porque se haya quedado sin pilas. Pero puede ser, si es una integración con la nube, que esté fallando la integración. Puede ser que hayas montado mal la automatización y, obviamente, una regla mal hecha no funciona. No sé, pueden ser muchísimas cosas. Entonces, hay distintos sitios donde mirar, distintos blogs o distintas opciones que te generan errores. También hay un panel de notificaciones que te lanza algunos avisos. Entonces, bueno, pues al final requiere un mantenimiento. Al final hay una cosa que es buena y mala a la vez y es que Home Assistant se actualiza mensualmente. Y cuando digo que se actualiza, no es como una aplicación que tienes en el móvil y a lo mejor cada seis meses han puesto esto que era verde, ahora lo han puesto azul. Suelen ser unas más y otras menos, pero suelen ser actualizaciones de peso y como es una herramienta en constante evolución, pues hay cosas que cambian. Entonces, pues a lo mejor hace un año funcionaba algo perfectamente y hoy no, porque lo has tenido que cambiar y a lo mejor no te has enterado, que también la comunidad también sirve para eso. Claro. Y mensualmente es actualización gorda, luego semanalmente son actualizaciones menores para ir corrigiendo errores de esas actualizaciones más gordas. Correcto. Pregunto desde la ignorancia. Escucho a Tito que dice puede ser que la pila de la batería pues haya dejado de funcionar. Es decir, no existe un control domótico de batería baja, no hay un aviso. Lo tienes que montar tú. Hay todo lo que tú quieras, pero tienes que hacerlo tú. Eso es. De una forma u otra, tienes que hacerlo tú. Digamos que si lo queremos ver de una forma muy, muy, muy básica, Home Assistant es una base de datos enorme donde tú conectas distintas entradas, cada dispositivo o servicio es una entrada que arroja unos datos. Datos que en Home Assistant se llaman entidades. Y una entidad puede ser un sensor, puede ser un sensor de batería o de humedad, de muchas cosas. Entonces, tú luego tienes que jugar con esa información creando reglas. Entonces, hay muchos dispositivos que te proporcionan esa entidad de batería y entonces tú, por ejemplo, puedes crear una automatización para que cuando cualquier dispositivo de tu entorno domótico, por ejemplo, baje por debajo del 10%, pues que te mande una notificación a móvil diciendo el sensor de humedad de la cocina, la bajas. Pero lo tienes que crear tú. Eso es. Hay plantillas que te pueden ayudar, pero el otro día me creo precisamente una automatización para esto a mano, uno por uno, preguntando por cada uno de los dispositivos que hay en materia, que si están menos del 10%, en mi caso, por uno de los altavoces, necesito que el feedback sea sonoro por uno de los altavoces, pues me diga la batería del sensor de movimiento del baño está al 5.5%. Y así con cada uno de los sensores, cuando está por debajo del 10%, que me avise. ¿Pero eso es una plantilla que te ofrece Home Assistant o es algún tipo de lenguaje o código? No, en mi caso me lo he hecho yo. Se puede hacer o bien con una automatización a través de la interfaz web, que esa es la forma fácil para los civiles, o luego se puede hacer con código. Yo me lo he hecho con código. ¿Y qué tipo de sintaxis utiliza? Se llama YAML. YAML. ¿Qué? YAML, sí. Digamos que todo lo que tú ves en una interfaz gráfica y lo que no, al final detrás lo que tienes está escrito en código en YAML, que es una librería de Python. O sea, al final de base, el lenguaje de programación que utiliza es Python. ¿Me lo podéis deletrear? Y-A-M-L, ¿no? Correcto, eso es. Puedes editarlo en los archivos con tu blog de notas y ahí directamente puedes poner lo que quieras. Arturo, ¿la plantilla que te has hecho, has tenido que meter todos los dispositivos a mano? Sí, como lo he hecho yo, sí, uno por uno. A cada uno le he puesto un IF. IF la batería de no sé qué menos del 10%, pues Alexa dice qué tal. Y otro TT, uno por uno. En este mundo de las plantillas, para mí hay, entre comillas, dos tipos de entender las plantillas. O sea, tú al final lo puedes hacer todo por la interfaz o tecleando tú a mano el código. O puedes coger el código que haya desarrollado alguien de la comunidad y, entre comillas, copiarlo y pegarlo, ¿vale? Aquí hay dos formas. Hay una que literalmente, eso sí que son plantillas configurables, se llaman Blueprints en Home Assistant. Y eso es una automatización que tú haces, solo que en lugar de decir a las 6 que se encienda la calefacción, lo que haces es que esos campos los dejas como una variable. Entonces tú dices a las X que se encienda Y. Entonces tú puedes montar una automatización donde luego haya un campo de entrada y pues Arturo puede poner a las 6, pero Jose pone a las 8. Vale. Y donde Arturo ha puesto la calefacción, Jose pone el aire acondicionado. Entonces eso se llama Blueprints y hay muchos en la comunidad, en Aguacate que hemos hecho unos cuantos. Y luego también está la versión inmediata, por decirlo de alguna manera, que no es tanto el Blueprint, sino que directamente, por ejemplo, si Arturo ahora quisiera compartir el código con Jose, pues lo puede copiar, pegarlo en un fichero, se lo manda Jose y Jose lo copia y lo pega. Lo malo es que tiene las entidades de los dispositivos de Arturo. Claro, ahí como es texto plano y no hay variables, como decíamos antes en los Blueprints, pues tú tendrías que ir revisando el código para donde tiene, por ejemplo, el termostato de Arturo, pues poner el termostato de Jose. Pero yo podría, por ejemplo, imagínate que yo no me acuerdo exactamente qué dispositivos míos tienen batería o cuáles la muestran, que no todos la muestran. Yo sí podría filtrar las entidades de la batería, ¿no? Claro, de hecho, aquí ya vamos un poco... Damos el siguiente paso. Sí, sí, ves, ya nos estamos metiendo. Al final, esto es imposible, no me jodas. Al final, como decíamos, todo esto se basa en Python, y es un lenguaje de programación. Y más allá de... Yo creo que cualquier entorno de domótica que permita crear automatizaciones sigue como la misma regla, ¿no? Cuando pasa algo, que es lo que se denomina trigger o desencadenante, opcionalmente puedes meter una condición, por ejemplo, lo que hablábamos antes de si estoy en casa o no estoy en casa, y, por último, que haya una acción. Entonces, al final, cualquier automatización es cuando pasa algo, sucede esta otra cosa. Eso es, por decirlo de alguna manera, el lenguaje mundial global de las automatizaciones. Pero en este caso, en lo que estamos hablando en cuanto a programación, tú puedes usar el código de... Propiamente hablando de programación. Entonces, por ejemplo, para lo que comenta Arturo, qué hizo él a mano, uno a uno, pues yo, por ejemplo, tengo una regla que lo que hace es que crea un bucle. Un bucle en programación es como una condición que tú pones para que una acción se repita hasta el infinito siempre y cuando se cumpla una condición. Entonces, yo lo que tengo es que va comprobando todos los dispositivos que tienen una entidad de batería y, entonces, hasta que no mira a todos, sigue mirando. Sigue mirando todos los dispositivos hasta que no encuentra a ninguno que tenga la batería. Y en caso de que alguno de esos tenga la batería baja, me avisa. O sea, es lo mismo que ha hecho Arturo, solo que en vez de poner... Pero más elegante. ...todos los dispositivos, le digo, mira a todos los que hay en... Pero por lo que ha dicho Jose, tienen que tener esa capacidad, esos dispositivos de comunicar el estado de la batería. Claro, claro. Al final, tú tienes que tener la información y luego trabajar con esa información. O sea, al final, cuando hablamos de integraciones, no dejan de ser de una u otra forma la manera de extraer información de un dispositivo o servicio y llevarla a Home Assistant. Y cuando yo compro un dispositivo domótico, ¿puedo preguntar si me va a dar esa información o eso...? Sí, de hecho, lo que... Bueno, perdón, normalmente no puedes preguntarlo a la marca no por poder, sino, bueno, primero, lógicamente, hay marcas que están más a favor de mundillo de Open Source y lo ponen fácil y hay otras que no. Lo que quieren es que tú sigas dentro de su ecosistema, que compres sus productos, entonces, muchísimo menos te van a ayudar a que los uses fueran. Pero yo, sobre todo, creo que la mayoría no tienen ni idea. Sí, efectivamente. Si vas a preguntarle algo... Básicamente, sí. Entonces, aquí volvemos al mundo de la comunidad. Nosotros, por ejemplo, tenemos un tema específico, que es el de dispositivos. Y cuando ya eres un poco friki, ya te has enamorado de Home Assistant, cada vez que te vas a comprar algo, lo primero que haces es comprobar si es integrable con Home Assistant. Creo yo que eso lo hacemos todos. Sí. Y para eso la comunidad está genial, ¿no? Sí, claro. Pero hay cosas que, por ejemplo, los sensores de puerta y ventana de Acara, que normalmente sus entidades son la batería y si está abierto o está cerrado, ¿no? Y se usa para eso. Pero dentro de Home Assistant tienes la entidad de temperatura. Tienen un termómetro dentro. Lo que pasa es que dentro del ecosistema de la propia Acara no puedes acceder a esa información. Y con Home Assistant, sí. Lo que pasa es que tiene su sentido, porque un termómetro ahí no tiene ningún sentido, porque normalmente lo pones en el marco de la ventana o de la puerta. No es un sitio donde normalmente miras la temperatura, ¿no? Y por eso no lo utilizan. Dentro de Acara no se utiliza. Pero está ahí y Home Assistant lo puedes ver y puedes hacer cosas con esa información. Bueno, pues para ir terminando, ¿os parece que hacemos un breve resumen de las cosas que hemos ido tocando? Y ya vamos cerrando por ahí. Perfecto. Pues hemos comenzado diciendo qué es la domótica y más o menos lo tenemos ya todos claros. ¿Qué más hemos hecho? Pues hablar de los puentes, de si son importantes o no qué es un puente, una central domótica o hub o coordinador, que, bueno, no es exactamente lo mismo, pero, bueno, entendéndolos como sinónimos, pues que al final todos los sensores y dispositivos necesitan conectarse a algún sitio, que es donde están las automatizaciones, las reglas, cómo funciona el sistema, que muchas veces empezamos teniendo varios y con el tiempo vamos aprendiendo pues un poco lo que queremos y hacia dónde ir. Y que los hay comerciales y los hay open source, ¿no? Dentro, cada uno tiene sus ventajas y sus inconvenientes. Hay varios dentro del mundo comercial y hay también varios dentro del mundo open source. Pero, bueno, nosotros hemos elegido Home Assistant porque probablemente sea el que más avanzado está y el que más posible esté hoy en día. Correcto. Habla también que en el ámbito doméstico lo que es la conexión inalámbrica al taque prima, hemos hablado de dos sistemas, el Wi-Fi y el Zigbee. ¿Lo he dicho bien? Dentro de los inalámbricos, el Wi-Fi y Zigbee es probablemente los más extendidos y popularizados hoy en día, aunque hay más inalámbricos y también hay otros cableados, pero, bueno, hoy en día es lo más utilizado. Como dice Arturo, hay muchas opciones, muchas soluciones, pero hay que probar y sin mera equivocarse porque te vas a equivocar, seguro, no hay otra forma de aprender. Pero, bueno, luego se arreglará de alguna forma y lo único que tienes que tener claro, sea una solución comercial o open source más compleja, es que es algo que tienes que dedicarle un mínimo de tiempo que va a ser proporcional a lo que quieras hacer, pero siempre va a haber un mínimo y que realmente el freno no son tus conocimientos, sino el tiempo que estés dispuesto a dedicarle. Muy bien. Muchas gracias, Jose y Tito. Pues muchas gracias a vosotros, ha sido un placer, la verdad. Gracias por invitarme y por la conversación, que ha estado muy amena. Muy bien, Tito. Jose, yo también he estado muy a gusto. Muchas gracias por acompañarnos y espero que sigáis contándonos de Home Assistant, ya no de domótica en general, que sí, pero de Home Assistant en particular, que para mí es interesante. Yo creo que al final, una vez que uno entra en este mundo, ya no sale, así que seguimos contando cosas. Una secta, lo que yo decía antes. Totalmente. Yo, mientras nos invites algún día a esa casa donde nunca hace frío ni hace falta calefacción... Bueno, ya está, lo hago públicamente, estáis invitados. Vosotros tres, ¿eh? Pues muy bien, vamos a ir dando nuestros datos de contacto. Comienzo con el correo electrónico, que es gafotas@cegatos.es. O a través de WhatsApp, para mensajes de audio o de texto en el más 34 644 640 792. Muy bien, que nos encanta recibir vuestras sugerencias, propuestas, comentarios y que a partir de ahí pues vamos proponiendo nuevos temas y tratándolos. Así que, bueno, estamos siempre dispuestos a leerlo. Gracias por acompañarnos hasta aquí y nada, que próximamente nos vemos en el episodio que viene. Adiós. Adiós. Saludos.
Gafotas, cegatos y sus aparatos #8
Fecha: lunes, 13 de enero de 2025, a las 00:00:00
En este octavo episodio contamos con Enrique Varela, pionero y referente en la tecnología de asistencia y “tecnólogo devocional”, , para adentrarnos en el fascinante mundo de los auriculares. Exploramos los distintos tipos, desde los clásicos con cable hasta los últimos modelos inalámbricos, pasando por diseños curiosos como los de conducción ósea y los vestibles. Además, analizamos los diferentes usos y tecnologías detrás de cada modelo, como la cancelación de ruido, los transductores dinámicos o electrostáticos, y las innovaciones en conectividad Bluetooth y USB-C.
A través de anécdotas históricas y ejemplos prácticos, descubrimos cómo elegir el auricular perfecto según necesidades, ya sea para música, deporte, gaming o descanso. En la reflexión final, debatimos sobre el futuro de esta tecnología y cómo está transformando la manera en que interactuamos con el sonido. Un episodio dinámico, repleto de información útil y consejos para los amantes del buen audio. ¡No te lo pierdas!
Intervienen:
Enlaces a Sitios referenciados en el episodio:
La historia de los auriculares: cuánto ha avanzado el sector del audio. - Sony Spain
Los auriculares blancos de Apple - Vanity Fair
¿Qué son los auriculares de conducción ósea? - Philips
Historia y todo lo que debes saber sobre los AirPods de Apple - Computer Hoy
La Barbería Virtual - Sonido Binaural.
EPOS Sennheiser PC 8 Auriculares Diadema – Amazon.
Hendari Auriculares Oreja Abierta, Auriculares Deportivos Bluetooth 5.3.
Nuance Audio, gafas con audífonos de Essilor-Luxottica.
Créditos:
Duración: 01:18:06
Descripción detallada del logo de Episodio 8. Sonido en la cabeza: explorando pasado, presente y futuro de los auriculares
La imagen es una ilustración de estilo retro que muestra a un grupo de personas caminando por una calle de la ciudad. En el centro, hay un hombre joven con gafas y auriculares grandes, vistiendo una chaqueta marrón y una camisa con un patrón de hojas. A su alrededor, hay varias personas, tanto hombres como mujeres, también usando auriculares. La escena tiene un aire vintage, con edificios altos y antiguos a los lados de la calle. Las personas están vestidas con ropa que parece de mediados del siglo XX, y el ambiente general es de una ciudad bulliciosa. Hay un letrero en uno de los edificios que dice "FESTI". El personaje central es un hombre joven que lleva puestos unos auriculares grandes sobre sus orejas. Tiene el cabello oscuro y peinado hacia atrás, y lleva gafas con cristal transparente de montura gruesa. Viste una chaqueta marrón que está abierta, revelando una camisa con un patrón de hojas en tonos claros y oscuros. La camisa está metida dentro de un pantalón azul de cintura alta, y lleva un cinturón negro. Sus manos están en los bolsillos del pantalón mientras camina por la calle. Su expresión es tranquila y parece estar concentrado en lo que escucha a través de los auriculares. En la imagen, además del personaje central, hay varias personas caminando por la calle, todas usando auriculares: A la izquierda, hay una mujer con gafas de montura gruesa. Lleva el cabello recogido y viste un vestido blanco con un cárdigan negro. Camina con paso decidido. Junto a ella, hay un hombre con un traje azul y una gorra plana. También lleva gafas y camina con las manos en los bolsillos. Detrás de ellos, hay un hombre con un traje marrón y un sombrero de ala corta. Lleva una corbata y sostiene un maletín en una mano. Más al fondo, hay un hombre con una camiseta con un diseño gráfico y pantalones casuales. Lleva gafas y camina con una postura relajada. A la derecha del personaje central, hay una mujer con el cabello suelto. Viste un vestido blanco con detalles oscuros y lleva un bolso grande en el brazo. Junto a ella, hay un hombre con un suéter gris sobre una camisa y pantalones marrones. Camina mirando hacia la mujer a su lado. Al fondo, hay otro hombre con un traje y una gorra, sosteniendo un maletín. Todos los personajes tienen un estilo de vestimenta que recuerda a mediados del siglo XX, y la escena tiene un aire de actividad urbana en una ciudad.
Transcripción de Episodio 8. Sonido en la cabeza: explorando pasado, presente y futuro de los auriculares
Muy buenas, lo que sean. Yo soy Arturo Fernández. Y yo soy Ricardo Abad. Y esto es Gafotas, Cegatos y sus aparatos podcast. Bienvenidos al octavo episodio de tu podcast favorito. Ricardo, ¿qué tal me oyes hoy? Pues mira, te escucho muy bien porque ya sabes que tengo unos auriculares muy básicos y sencillos, pero de una calidad extraordinaria. Son unos Sennheiser. ¿Sabes cuáles son? Los que utilizaba un influencer que se llama... Yo tuve el Choca, pero que se llamaban PC Chat o algo así. Pero bueno, son muy cómodos y tenía razón el muchacho. Estos son los ocho. Él comenzó a promocionarlos cuando era el tres. Y la verdad es que se escuchan muy bien. Muy sencillos, muy ligeros. Pues muy interesante esto de los auriculares. Es todo un mundo, ¿no? Yo lo he descubierto también recientemente que, por ejemplo, nuestro podcast no se escucha igual dependiendo de unos auriculares, de otros, de unos altavoces, de otros, de un dispositivo, en el móvil, en los altavoces de sobremesa. Es un mundo y es un mundo que realmente hoy por día tiene mucho predicamento dado que la gente utiliza más auriculares que nunca. Los auriculares no son muy antiguos. ¿Tú sabes de dónde viene el término auricular? Pues no, cuéntamelo. Pues viene como la mayoría de las palabras, en este caso del latín, podría ser del griego, pero del latín el término auris, que significa oreja, y aurícula, que sería orejita. Y dentro de lo que es la fisiología se referiría a todo lo que es la oreja externa. Y bueno, auricular significa justamente eso, ¿no? Un dispositivo que se ubica en ese lugar. Y bueno, es muy reciente, no es muy antiguo. Sí, es verdad que a veces pensamos que estas tecnologías que las hemos conocido de siempre, que llevan ahí desde la prehistoria, pero no, esta es del siglo pasado, tampoco hace tanto. Concretamente del principio del siglo XX y debemos este invento a un señor que era de Utah y se llamaba Nathaniel. ¿Nathanael en español? Sí, Nathaniel. Nathaniel, haría una TH ahí, ¿no? No sé, bueno. El señor Baldwin, que era un hijo de Utah, pero del estado americano, un hijo de Utah, perdón. Y como buen hijo de Utah, era mormón. ¿Tú lo sabías? Sí, y ¿cómo le dio por estas cosas a este hombre? Pues mira, te lo voy a explicar. Como era mormón y era un hombre que practicaba su fe hasta las últimas consecuencias, iba todos los domingos a escuchar al pastor su homilia en el templo, en el templo de la iglesia de Jesús de los Santos de los Últimos Días. Y entonces, pues bueno, estaba ahí Nathaniel y decía, bueno, por Dios, si es que a este hombre no se le entiende esta reverberación, ¿qué podría hacer yo para mejorar la calidad de sonido? Porque si no me voy a perder todas las homilías y la palabra de Dios, que eso sí que es grave, ¿no? No pueda escucharla. Y con esas tribulaciones, el hombre se fue a su casa y pensando, pensando, dijo, bueno, ya tengo la idea. Voy a hacer algo que canalice ese sonido, el sonido exterior hacia mis oídos. Y bueno, en la cocina de su casa, porque el hombre no tenía ninguna empresa ni nada, simplemente tenía pues su taller, un taller en una casa muy compartida porque era, practicaba la poligamia y estaba lleno de mujeres y niños como familia. Y allí, allí lo desarrolló. Y bueno, él era un hombre que tenía afán inventor de siempre y formación también, porque era ingeniero y trabajaba en la central eléctrica de, creo que era la de Mill Creek, ¿vale? Del cañón de Mill Creek. Y bueno, y compatibilizaba tanto lo que era su trabajo en su tiempo libre, pues desarrollaba los auriculares. Y dijo, bueno, ¿a quién le puede servir esto? Y pensó en la marina. Entonces escribió una carta con un prototipo de los primeros auriculares a un almirante de la marina. Por cierto, una carta escrita con tinta violeta sobre papel azul y rosa. Yo lo dejo ahí, no nada. Pero bueno, sí, sí, muy pintoresca la carta y el almirante lo leyó y le llamó la atención y dijo, bueno, voy a probar con uno de los auriculares. Y funcionó. Entonces hubo un primer encargo de la marina y le encargaron 100 auriculares que en esa cocina, mientras preparaba las cookies, las galletitas, al mismo tiempo iba preparando sus auriculares. Y bueno, tuvieron una salida muy buena dentro de lo que es el ejército y sobre todo la marina. Y montó una empresa y bueno, y luego a partir de ahí, pues ya el hombre, no le fue muy bien, pero voy a dejar de aquí ya la historia porque el otro ya es un poco jodilleo. De esos polvos terminamos en estos lodos con los auriculares del chocas. Pero bueno, hay muchos más, ¿no? Esto hay muchos tamaños, formas, colores, hay muchísima variedad. Hubo un desarrollo muy rápido en el siglo XX porque, primero por la cuestión de necesidad de este instrumento dentro de lo que es el ejército, ¿no? Eso hizo que hubiera dinero y que se desarrollara con mucha velocidad. Luego, al mismo tiempo, la radio y la televisión comienzan a imponerse como fórmulas de entretenimiento domésticas. Entonces ahí es cuando ya comienzan a empezar a desarrollar ya auriculares hechos para la población. Concretamente, John C. Cox fue el primero que en el año 58 hizo el primer par de auriculares estéreos y domésticos. Porque bueno, antes de entrar en las casas y demás, se utilizaba mucho, como he dicho, en la aviación para poder tener una mejor audición y también los audiófilos en los locales de grabación y locales de audición de música profesional. Pero este señor Cox fue el primero que hizo los SP3 Cox, que eran unos auriculares estéreos. Y a partir de ahí, bueno, ya fueron tomando otro tipo de diseño y yo creo que eso necesitaremos a algún experto que nos lo cuente porque es una cuestión ya más delicada. Empezaríamos en los años 70. Bueno, pero hoy tenemos también con nosotros un invitado para que nos cuente de todo esto, de los diferentes modelos, formas, colores que hay y sabores. Hoy tenemos con nosotros a Enrique. Muy buenas, ¿cómo estás? Hola, buenos días. Digo buenas, buenas, lo que sea, como dices, porque nunca se sabe. Nunca se sabe cuándo se puede escuchar esto. Es Enrique Varela y lo voy a presentar un poquito, para los que no lo conozcáis, que sobre todo será gente que no está relacionada con la tecnología de asistencia, tecnología para las personas y la Tiflotecnología que es la tecnología para ciegos. Bueno, Enrique es un referente y un pionero en este tipo de tecnologías. Realmente trajo a España una gran cantidad de dispositivos que luego fueron muy famosos, entre ellos el Braille hablado. Muchos software también que luego se implantó y sigue vigente, como puede ser Jaws for Windows. Estuvo trabajando dentro también de la unidad de investigación y desarrollo técnico de la ONCE, en aquel momento creo que se llamaba UTT. También visitando, supongo que muchos proveedores, viendo muchos inventos y demás. Y luego toda la vida la ha dedicado a la tecnología, en uno u otro lugar. Es que es tan extenso el currículum suyo que os invita a que lo visitéis en la descripción del episodio. Es que queremos información que vaya a las notas del programa, que tenemos unas notas muy chulas que también cuesta currárselas. Así que, quien quiera más información sobre los invitados, pues que vaya a las notas. Estamos muy contentos de tenerlo aquí, en Gafotas, Cegatos y Usaparatos. Así que, Enrique, cuéntanos. Yo de estar con vosotros, lo que pasa es que jamás me hubiera imaginado, como decían mis buenos amigos del grupo Lelitié, que me encanta. Supongo que mucha gente lo conocerá. Es un grupo de humor fino, fino y culto argentino. Cuando hablaban de su compositor favorito, Johann Sebastian Mastropiero, que estaban, iban a Nueva York, en barco y tal, y de repente comenta con el capitán acodado en cubierta. Dice, jamás hubiera imaginado así a Nueva York. Y le contesta el capitán, dice, naturalmente señor, estamos llegando a las Canarias. Jamás me hubiera imaginado hablar de auriculares. Tenéis la particularidad de pillar a gente que, bueno, más o menos sabemos de cosas, para que hablemos de lo que os dé la gana. Algo sabemos de esto, porque la verdad que, si para una persona que ve, pues los ojos, las gafas, cualquier cosa, los microscopios, los telescopios, son importantes. La verdad que, para una persona que no ve o que ve poco, todo el mundo del sonido, auriculares, altavoces, alta fidelidad, baja fidelidad, fidelidad media y medio pensionista, es muy importante también, porque a través de ellos oímos las cosas, y las personas, y la música, y la historia en definitiva. Pues cuéntanos tus inicios con los auriculares. Sí, al final un auricular no, bueno, está, me ha encantado la introducción que ha hecho Ricardo, que podríamos un poco también haber hecho paralela con la de los altavoces, porque un auricular no es más que un altavoz que no ha ido a la escuela, es decir, un altavoz pequeño, que no te revienta las orejas, porque los altavoces grandes que se hacían también en aquellos años, pues evidentemente generaban mucha potencia de sonido y eran muy potentes, pero bueno, esto se basa en los transductores, al final es una, yo quería contar el principio, para los que sois un poco frikis, el principio es magnético y eléctrico, vamos, cualquiera que tenga un timbre en casa, un ding dong de estos que le llamas el ding, cuando sueltas el botón hace dong, pues es una bobina de hilo de cobre, en cuyo núcleo, en el centro de esa bobina, hay un palito de metal con un muelle, entonces cuando se da al timbre, el magnetismo de la bobina lo atrae hacia un lado, que es justo donde choca con una plaquita que hace ding, y entonces cuando se suelta, el muelle ya se libera y hace dong y se tapa al otro lado, bueno, esto multiplicado por muchísimas frecuencias y bien hecho, y conectado en vez de a un palo de metal, a una membrana de cartón, de carbón, de cristal, de cualquier otra cosa, o a una membrana de cualquier tipo de metal que vibre, pues lo que hace es reproducir sonido, entonces hay diversos tamaños, modelos, estilos, formas, impedancias, los que suenan más alto, los que suenan más bajo, volviendo al principio de la cosa, un auricular no es más que un altavoz pequeño, y el más pequeño que yo conozco, aunque sea grande, lo cuento como anécdota, es un altavoz, no es un auricular, y ya enseguida vuelvo a los auriculares, es el gramófono, el gramófono, sabéis que grababan los sonidos en surcos, en microsurcos, en un disco con una espiral en el que se representan las vibraciones y los sonidos por elevaciones y bajadas del relieve del surco, ahí hay una aguja, como una punta de una aguja de hacer punto, y eso conecta con un, imaginaros, un papel albal redondo, muy estirado, una membrana, y esa membrana metida en un tubo que acaba en una bocina grande, como un megáfono grande, y eso lo amplificaba, pues sin ninguna clase de energía, que no sea la cuerda que le daban al disco para que girase, eso sonaba, y yo recuerdo en una empresa de cosas de ciegos, que fabricaban cosas de braille y demás, y de imprentas, en Alemania, que tenían un castillo, un salón enorme, un salón de reuniones del castillo, un gramófono lo llenaba, era un sonido no alto, no fuerte, no como meterse en un concierto de los Rolling Stones en el Whisting Center de Madrid, era toda pastilla, pero lo llenaba perfectamente, y al igual que eso, y con membranitas más pequeñas, se fueron haciendo los primeros auriculares, yo los primeros que tuve, desde luego eran de cable, y eran altavoces pequeñitos, el altavoz típico que si los habéis tocado alguna vez, es como un redondel, en el que hay un cartoncito, que en el centro de ese cartón es donde está la bobina que va rodeando al imán, que cuando se le manda corriente, pues aquello vibra, pero eran auriculares. ¿Qué tamaño podrían tener esos primeros que tuviste? Pues como los auriculares que tenemos ahora que cubren la oreja, pues eso, ese sería el redondel del altavoz, eso lo metían en una caja, como ahora, ahora tengo unos Bose QC45, que son de cancelación de ruido, de los que cubren la oreja alrededor, ahora los tratamos todos los tipos, y no tenían un tamaño distinto, era un altavoz como, imaginaos, que cubra la oreja, era un redondel, y esos eran los primeros. Pero bueno, por dividirlos y ordenarlos un poco si queréis, podemos dividirlos entre los de con cable y sin cable, o hacer una división así, grosso modo, al principio no había sin cable, claro, Bluetooth y todo esto son cosas posteriores, pero bueno, pero yo creo que aquí también van de, o sea, también hay cosas que afectan a los de cable y sin cable, pero yo diría que hay los in-ear, ahora mismo, y ya son muy antiguos, que son los que se clavan directamente en el pabellón auditivo, tenéis ejemplos miles, los primeros de iPhone, hay muchos que tienen como una puntita con silicona, con una puntita de silicona que tú te lo clavas ahí, hay gente que les molesta más y menos, estos tienen la ventaja de que se oye muy directo, que se puede hacer ahora cancelación de ruido, ya explicaremos lo que es más adelante, pero que quedan muy situados en el sitio que tienen que quedar, no se te mueven, pesan poquito, la oreja te queda por ahí libre al aire, pero te aíslan bastante el estereo porque están tapándote el conducto auditivo. Es que la experiencia es más incómoda, como que producen más calor, más erosidad y algo más de incomodidad a la larga, digo, en uso prolongado. Sí, sí, hay mucha gente que le molestan, de hecho, y hay gente incluso que les echa cremitas y cosas para que no te hagan daño en el conducto auditivo. Por eso también hay más tipos, por ejemplo, están ya los supraurales, que todos habréis visto, yo creo, según su aurícula es que es como lo que definíamos antes, una cosa redonda que casi te va a cubrir la oreja, pero plana, es decir, se apoyan en tu oreja, tienen una diadema, los in-ear no suelen tener, no tienen por qué, pueden tenerla, pero no tienen por qué tener diadema, de cada uno de ellos sale un cable que se junta en una Y, los dos cables se juntan en uno y ya ahí va el jack que lo enchufas al equipo que sea. Pues estos, para sujetarse, lógicamente, tienen que tener una diadema que apriete un poquito la cabeza, las orejas una contra otra, y estos se llevan una esponjita o cualquier cosa para que, cualquier cosa de este tipo que sea amable con la oreja, la cubren en el sentido, pero son planos, o sea, no aíslan, porque alrededor de la oreja no hay nada. Esto los popularizó Sony con el famoso Wallman, por allá por el 79, ¿no? Sí, yo creo que eran así, y también hay muchos modelos muy buenos de Sennheiser, yo he tenido que, ahora hablabais de los del Chocas, por cierto, tipo muy curioso, pero que siempre me llama la atención, porque no sé por qué se llamara así, porque Chocas, ahora que estoy en Galicia y mi gallego ancestral y tal, para mí, cuando decían que el agua estaba Chocas, que estaba podrida, no digo nada contra el tipo, que es muy peculiar, pero me gustaría saber la etimología de su mote, porque no sé de qué viene. Bueno, y había auriculares de Sennheiser de este tipo, los de Sony, como has dicho Arturo, los de los primeros Wallman, son muy confortables, incluso de estos hay una variante, que la cuento ahora, que son auriculares muy planos, que en vez de con diadema, van con una banda, como de las que se ponen para recoger el pelo los tenistas y eso, una banda que te va por la frente, no por arriba, y por detrás y te recoge el pelo y tal, y los dos auriculares caen en las orejas, entonces estos muy planos son muy buenos para dormir con ellos, se utilizan mucho para eso, para en la almohada, pues que te des vueltas y para que planches la oreja y sigas oyendo la música, y no ocurra nada, es una variante de los supraorales. Bueno, después estarían los over-ear, que ya son los que cubren, o sea, aparte de que efectivamente se pegan a la oreja, alrededor de la oreja hay una almohadilla de, pues, piel, sky, yo que sé, algo sintético, pero con relleno dentro, que te cubre, te rodea la oreja. Estos son los típicos de radio, cuando la gente ve a los locutores con su micro allí enfrente a una cuarta, como estará Ricardo ahora con su flamante micro y tal, que por cierto eso, hay que hacer una cuarta, hay que coger así el dedo pulgar, ponérselo en la boca y estirar la mano y un meñique que te caiga en el micro, esa es la distancia, ¿no?, o era, cuando yo hacía radio. Bueno, pues aparte te ponías ahí los auriculares, aquellos que te tapan completamente y con los que ya sí que te aíslas mucho más, de los que he citado hasta ahora, los que menos aislarían serían los anteriores, los que cubren las orejas pero no se meten en el conducto, estos ya sí, porque te rodean la oreja y te aíslan. Cuanto más, si después hacemos cancelación de ruido, que después contaréis si queréis para que no hable yo solo, para que esto no sea un monólogo sino un biólogo o un tripartito, pues que el principio de la cancelación del ruido, ¿no? Pero bueno, ya de per se, por su propia arquitectura, pues aíslan bastante, ¿no? Sí, porque esta fórmula sería la única de cancelar el ruido, es decir, la que estás diciendo ahora, que te estallaran la oreja por fuera y hoy se ha conseguido ya a través de tecnología, ¿no? La tecnología digital eran los que más cancelaban, por eso se utilizaba mucho en radio, eso va a estar muy atento. Bueno, después, si vamos al transductor, que ya hemos dicho lo que era, lo del Ding Dong, pero bien hecho, y seguimos en cable, pues eso, nos tendríamos dinámicos, que son los más clásicos, los de la bobina, los del Ding Dong, bobina alrededor de un imán, corriente y aquello vibra, los electrostáticos, que son, se utiliza un poco el principio de cargar placas con cargas positivas y negativas y eso haga vibrar una membrana más fina, los magnéticos de membrana plana, que tienen unos imanes abajo y después una membrana como lo que describía antes del gramófono, pero quien mueve esa membrana son imanes con bobinas que no están moviendo la membrana así, sino induciéndola, es como la reversa de la cocina de la inducción, por cierto, hablando de reversas, sabéis que curiosamente la reversa de los auriculares normales, de los dinámicos, es el micrófono. El micrófono es algo que podría ser como un auricular, pero si tú no le envías corriente, sino que le conectas un amplificador y esperas lo que va a ocurrir cuando tú hablas cerca de él, lo que haces es vibrar la membrana con tu propia vibración de tu voz o del ruido externo, eso excita la bobina y el imán y produce electricidad que amplificada, pues es tu voz, es un micro. La inversa de un auricular es un micrófono, de un auricular dinámico, así como la inversa de un motor normalito de un ventilador, pues si tú al revés le pones agua en el ventilador y le haces girar, pues es una dinamo, o sea, produce electricidad. Es igual, son esas cosas curiosas, ¿no? Bueno, los de estos magnéticos buenos ya de placa ya van teniendo más calidad en graves, son ideales para los audiófilos y demás, pero bueno, también podemos dividirlos, seguimos en cable, pero por uso, si queremos decir, de todos estos tipos, grandes tipos, pues hay también distintos tipos de sonido, ¿no? Están los auriculares que son de monitorización, que son los que se supone que dan el sonido perfecto, o sea, que son fieles a lo que ocurre en el estudio de grabación o donde tú estés generando sonidos, que son los que se utilizan mucho en la radio, en los estudios de grabación, pues se supone que tienes que oír el sonido perfecto, bueno, perfecto, el sonido ideal, el patrón, a partir de ahí, si alguien le mete más graves o más agudos, haya él, haya ella, pero tú lo que tienes que, como técnico de sonido... Sonido más fidedigno, ¿no? Que puedas sacar... Eso, tienes que estar viendo el sonido fidedigno, es como cuando en los estudios de grabación cogemos una señal de un kiloherzio, que es un pitido, bueno, como lo que hacía la tele antes cuando emitía, ese de un kiloherzio, entonces ahí será exactamente esa la nota con la que ajustabas todos los equipos, ¿no? Pues esto, en auriculares que te producen un sonido fiel, hay gente que le gusta mucho, sin embargo, lo contrario a eso, lo más sofisticado de eso, del sonido perfecto, sería el audiograma que ya te hacen los auriculares, los AirPods 4 y algunas otras aplicaciones que te hacen exactamente, saben lo que tú oyes, en qué frecuencias oyes más y menos, y entonces al final te ecualizan y te ponen los auriculares adecuados a lo que tú oyes. Si oyes poco graves, le metes mucha caña a los graves, que si yo me pusiera eso y los oigo bien, pues me retumbaría, pero sin embargo, como tengo deficiencia de graves, pues se supone que lo balancea, ¿no? Esas cosas se hacen ya y con audífonos de estos modernos, de contratamiento incluso con inteligencia artificial digital del audio, pues eso, se pueden hacer maravillas, como que la gente oiga perfecto las frecuencias de voz y esté en una cafetera de esas al lado, en un bar de esas que molestan, que están con la leche y ni la oigan, ¿no? Todo ese tipo de historias que se hacen ahora. Bueno, después, yo qué sé, por uso, están los auriculares de gaming, por ejemplo, que suelen llevar un micrófono, son o planos o de los que cubren la oreja, pero suelen llevar un micro también en un lado, como los típicos de aviación, en el auricular derecho sobresale un micro que los utilizan para jugar y esos suelen ser muy exagerados de graves y de todo para oír bien los disparos y todas las historias. Después, ahí podríamos también decir que hay auriculares específicamente dedicados al deporte, ¿no? A la gente, a los runners, a la gente que hace, que hacemos bici todos los días y tal, son más adecuados para el sudor, que no importa tanto que se sude, que se sujetan bien sobre todo para que no se te muevan y bueno, en realidad yo creo que ahora todos tienen mucha calidad de sonido, han avanzado mucho desde los años 70 y ya no son altavocitos, ¿no? Son cada vez con más calidad. Después, bueno, en cuanto al conector, si acabamos con los de cable, pues hay los tipos de conector de toda la vida, los del jack pequeño, el jack grande, que tienen sus nombres, los de jack balanceado, que son para audio profesional, los de Canon, estos de enchufe para estudios de radio, que son, que están más separados un canal de otro, digo, porque tienen malla en el centro para que no se mezcle nada y tal, pero bueno, en general, esos son los que tenemos con cable. También hay unos, ¿no?, muy curiosos que son por vibración, estos son más bien altavoces. Bueno, esos son altavoces y después nos lleva a los otros. Sí, hubo una temporada que salieron unos altavoces muy curiosos que eran por inducción, donde el transductor es un trozo de metal que vibra muchísimo, muy fuerte, muy fuerte, de forma que si lo pones encima de cualquier superficie, eso vibra y es el que acaba siendo el altavoz. Por ejemplo, puestos encima de una tarima de un salón, te va a vibrar de madera, se va a oír muy bien y, sin embargo, si lo pones encima de una lata de sardinas, pues a que eso va a oír a lata. Cuando dices esto suena a lata. Está muy bien porque el altavoz no viene completo, es un altavoz que solo vibra y en el que tú, al colocarlo, depende en qué superficie lo coloques, vibrará o no vibrará. No sería una caja de resonancia, sería una superficie de resonancia, ¿no? Dependiendo del material, del tamaño y de la oquedad o forma de la superficie, suena de una forma vuota, ¿no? Pero llega a sonar muy fuerte, ¿no? También si lo pones... Sí, estaría entre auricular y altavoz. De hecho, estos, antes de que salieran los que voy a contar ahora, si tú colocabas, por ejemplo, la barbilla encima de esa superficie, pues lo oyes en tu cabeza. Contaban de Beethoven, y esto probablemente igual será una leyenda urbana, que él escuchaba el piano gracias a este efecto, ¿no? El efecto este de vibración de las ondas. Tenía como una lámina de metal en su piano y a través de esa vibración podía percibir el sonido. Bueno, Enrique, y esto me lleva a que te pida que nos cuentes una historia que nos comentaste el otro día en Up the Record sobre Maruja Cerezo, que creo que deben conocer los oyentes. Sí, ¿y qué tiene que ver con esto y con lo de Beethoven? Bueno, lo de Beethoven... Sí que hay mucha leyenda, pero no sé si es verdad. No sé si es verdad, no sé si es verdad, no sé si es verdad, no sé si es verdad, pero creo que es una leyenda urbana. ¿Qué tiene que ver con esto y con lo de Beethoven? Bueno, lo de Beethoven... Sí que hay mucha leyenda, pero también es verdad que si cualquiera de vosotros os tapáis bien los oídos con tapones de estos que se utilizan para dormir y pones la barbilla y eso en el piano o en una guitarra o en cualquier instrumento que transmita vibración, lo vais a oír muy mal. Es una audición muy parecida a lo que les pasa a la gente de los implantes cocleares, que se tienen que entrenar porque llega el sonido todo junto y como muy grave, no, como muy en la gama de los medios, como muy teléfono, ¿no? Pero bueno, se oye, claro, por supuesto, y las notas se oyen. Y también me lleva los diapasones que tenemos la gente de afinar guitarras y todo eso, que es una varilla que tú la golpeas con algo, suena en la 440, que es en la patrón, te lo comes, o sea, lo metes entre los dientes y te suena en la cabeza. Bueno, los altavoces estos de vibración y las cosas que vibran... Maruja Cerezo era una persona sordo-ciega que se educó en los colegios de la ONCE, donde hacían algunos milagros, pues, tipo, todo el mundo habrá visto las películas de Helen Keller y esta gente que está súper aislada y que realmente con una buena enseñanza aprenden a comunicarse. Esta mujer no fue tan famosa como Helen Keller, pero vamos, aprendió a hablar, sin oír nunca, de nacimiento. Trabajaba, me parece, en la imprenta de los ciegos, vamos, encuadernando libros y demás. Hacía muchas cosas, se casó con otro sordo-ciego, tuvieron hijos y, vamos, muy bien, tuvo una vida bastante normalizada dentro de eso. Esta era la compañera de mi madre, mi madre también era una persona ciega que se educó en colegios de ONCE y yo recuerdo, yo me flipé muchísimo una vez, que hacía 30 años que no la veía, y vino mi madre a verme y fue, ahí está Marujita, pues, la voy a ver y nada más darle la mano, dijo, hombre, Loli Couceiro, la conoció por la mano, solo dándole la mano. Y yo, como persona ciega y acostumbrado a eso, la verdad que me... ¿Te impactó? Sigo flipándolo, sí, pues, no sé cómo la conocí. Bueno, el caso es que esta mujer, mi madre le signaba, ellos tienen un lenguaje de signos que no es como el que estáis acostumbrados la gente que veis a verlo en la tele, cuando sacan un telediario con la gente signando, una persona allí haciendo lo que es la lengua de signos española o la que sea. Los sordociegos tienen que tener, es una lengua de signos con dedos y que es muy de alfabeto, casi se deletrean las palabras aunque se hacen abreviaciones, pero hay signos para cada letra. Y lo que se hace es, normalmente se cogen de las manos, dos manos, las manos izquierda y derecha de uno, transmiten y por el otro brazo, pues, recibes. Entonces, pues, están hablando así siempre. Maruja era muy especialista, bueno, mi madre les gustaba mucho ese mundo y signaba muy bien y le contaba cosas a Maruja, pero a Maruja la podía signar en la espalda, en una pierna, en una rodilla, ella se enteraba igual. Y ella, a su vez, cuando las radios aquellas antiguas que había de válvulas, que sonaban muy alto y hacían un poco ese efecto o de este que acabamos de contar y de ahí viene todo eso, no os creáis que no viene de nada, pues, vibraban las tarimas, vibraban las tarimas y entonces sabía cuándo empezaba y casi qué programa de radio era y si podía iba a buscar a mi madre, ¡ay, que empieza el guiñol de no sé qué! ¡Anda, asígnamelo! Porque ella sabía qué programa empezaba por la vibración que la radio, la radio aquella de válvulas, transmitía al suelo del palacio de Duque de Pastrana, por cierto, que los que estén en Madrid lo conocerán porque sigue siendo un monumento, y entonces era un colegio que está ahí en la calle Platerías con el Paseo de la Habana. Pues aquello, vibraban las tarimas y Maruja sabía qué empezaba y qué programa empezaba. Lo que ella no sabía, o sea, no podía interpretar el programa y lo que se decía, por eso llamaba a mi madre para que se lo signara, pero sí sabía qué empezaba, ¿no? Era algo curioso. Y esto nos llevaría a los auriculares de conducción OSEA, ¿no?, que también tienen un principio muy similar porque, a fin de cuentas, es una vibración que se transmite a través del cráneo, ¿no? Sí, eso es, ahí sería, estos altavoces que hemos contado, pues alguien se dijo, caramba, esto se puede hacer igual que lo que hemos dicho de morder un palillo, que eso lo hacíamos de pequeño, a lo mejor morder un palillo de helado de estos de los polos, lo metías entre los dientes y le das, y te suena, ¿no? Es el mismo principio, se salta, se salta tímpano, se salta cadena de huesecillos y va directo a la cóclea y lo oyes directo en el cerebro. Entonces, pues por ese mismo principio hicieron los auriculares de conducción OSEA que tienen unos traductores que vibran muy fuerte y se te quedan en los huesos estos de detrás de la oreja, de donde empieza la mandíbula. Bueno, no suenan con mucha calidad, pero tienen una cosa que a las personas que no vemos o que vemos poco y a las personas que hacen deporte, que fue para estas, para las que se inventó, porque los ranes y eso, que viene un coche, que viene una bici, que no sé qué, que no la oyes y te pillan, ¿no? Entonces, por seguridad, te dejan toda tu oreja normal, tu oído, tu audición normal y tu áptica, tu percepción áptica, y te la dejan libre. Entonces, te llega por esos huesos directo al cerebro y lo interpretas. La desventaja es que tienen una diadema y que para que no se vaya y eso esté en contacto con los huesos, tiene que, lógicamente, necesariamente apretar un poco, ¿no? Entonces, te hacen un poquito de fuerza. Hay gente que los soporta y gente que no. Pero la gran ventaja no es la calidad de sonido, pero sí que te deja tus oídos libres. Y puedes estar oyendo tu música, tú lo que sea, más lo que llega por el oído derecho y por el oído izquierdo. Y volviendo a la división esta que teníamos de con cable y sin cable, pues tenemos varios hitos, ¿no? Tenemos el Sony con el Wallman M1979. Luego tuvimos el hito de Apple con su iPod en el 2001, que también cambió la forma de los auriculares, aunque todavía eran con cable, pero pues el diseño, los auriculares estos blanquitos y tal. Y luego en el 2016, por ahí más o menos, pues Apple también hizo con los auriculares sin alámbricos, con que, bueno, quizás no fueron los primeros, pero también una vez más el diseño rompedor un poco de Apple y también pues la facilidad de utilizarlo, ¿no? Con su chip integrado y demás, pues que lo emparejabas con un dispositivo y ya podías cambiar fácilmente entre el teléfono, el ordenador, la tablet. Y también aquí fue un poco donde empezó a popularizarse los auriculares inalámbricos. Sí, y además las formas distintas, porque Apple hizo unos in-ear, que me parece que son los AirPods 2, que sí que se clavaban. Y ahora llegaremos a la cancelación de ruido. Pero también hicieron una que es que se mete en el oído, pero no mucho. Y entonces no te aísla del todo, pero sí que se queda muy... La arquitectura del auricular tiene como un altavoz de graves que está en una parte de la oreja y lo que queda más cerca de conducto es el que emite los agudos y la verdad que es cómodo, son pequeñitos, no se caen, se adaptan bastante a lo que es la arquitectura del pabellón auditivo y ahí se te quedan puestos, ¿no? Y con mucha calidad de sonido. Y estos ya son Bluetooth, han ido evolucionando según las diferentes versiones de Bluetooth que cada vez... Bluetooth es un sistema de transmisión por radio a bastante corto alcance, pero con mucha calidad, el tipo de onda que emite y ha ido habiendo varias versiones cada vez con más calidad y cada vez, por ejemplo, permitiendo, como decía Arturo, cambiar, conectarse a varios dispositivos y estos se han ido adaptando. Pero en cuanto a las arquitecturas, han respetado más o menos las que hemos dicho antes, de con cable, las supraorales, las que circundan la oreja, las que se clavan en la oreja y podríamos añadir estas de las últimas de Apple que se medio meten, pero que no se clavan del todo, como los AirPods 3, me parece que son, que son como unos altavocillos que se ponen ahí y no te acaban tapando el oído. Últimamente se han inventado los que a las personas, yo creo que ciegas y deficientes visuales, yo creo que para los deportistas sigue siendo una cosa saludable, pero para nosotros es imprescindible los de oreja abierta, que son auriculares que realmente tienen como un final de una patilla de una gafa, o sea, se te adaptan por detrás de la oreja y un altavocito muy pequeño, pero que suena alto, pero que la gente de fuera no lo oye casi, lo puede percibir así, pero ni se entera, pero que tú lo percibes perfectamente y suena con calidad, que se llaman de oreja abierta, open ear, no te tapan tu oreja, pero suenan con una calidad muy buena y de estos empieza a haber, ha empezado a proliferar en los últimos dos o tres años cantidad de ellos, yo los últimos que me he comprado la semana pasada son chinos, chinos, chinos, chinos, cuando uno dice chino, sabes que hay chino bueno, chino malo, chino regular, pero digo chino barato, barato, de 22 euros, que cumplen ahí su función, que te los puede perder uno y no te da un disgusto y que sobre todo las personas que no vemos o que vemos poco, nos dejan las orejas libres para estar por ahí, pues con nuestro GPS por la calle, o yo cuando saco a pasear al perro aquí ahora por Galicia, que no hay problema de tráfico por donde yo estoy, pues me voy oyendo mi novelita o lo que sea, o mi podcast de gafotas, pero de paso a paso al perro, pero sigo oyendo los pajarillos o si llega algo o si va a venir un coche, pues lo oigo. Estos son los de oreja abierta, es el último hito que he visto en este tipo y también lo aplican las gafas, ahora que estamos en gafotas, tipo como las Ray-Ban Meta que llevan ese tipo de auriculares en las patillas, altavoces potentes pero que emiten a poca distancia pero la suficiente para tu oreja, están en la patilla y tú lo oyes bien, hay algunas gafas de Bose que también lo hacen, por cierto el señor Bose algo nos tendremos que contar ahora cuando hablemos de la cancelación. Y hay otro tipo, bueno las famosas, quien haya tenido las Orcam, este dispositivo israelí que hace lee y hace un montón de cosas, hace OCR, lee, te identifica a personas, pues también va en la patilla de la gafa y fue de los primeros que yo he visto que tiene un altavoz externo pero que se oye, digamos íntimamente, porque la gente de fuera no lo entiende, pero tú lo percibes perfectamente. Estos auriculares abiertos te permiten escuchar todo el sonido que tienes alrededor tuyo, que especialmente a nosotros pues nos resulta sumamente útil y estos son precisamente todo lo contrario a los auriculares que también se pusieron de moda con cancelación, los hay con cancelación activa y con cancelación pasiva. ¿De dónde viene esto de la cancelación? Te iba a preguntar que nos contaras un poco de dónde venía esto de la cancelación. Pues mira os lo voy a contar, esto se lo debemos a un caballero americano que se llama, o se llamaba porque ya falleció, Amar Bose. Bueno, realmente supongo que será Bose. ¿Con dos auriculares? Sí, es igual, se llama igual. Igual es el mismo. ¿Igual es el mismo? Pues sí, es el mismo, es el mismo, porque ahora veréis qué tipo más interesante. Este hombre nació en 1929, una fecha crítica, y fue crítica porque fue el gran crash del 29 y bueno, vino este gran crash y nació este gran crack, sobre todo para lo que nos interesa ahora que es el sonido. Era hijo de bengalíes, de inmigrantes bengalíes, podían haber sido lanceros pero no, sus padres eran inmigrantes bengalíes y este hombre, desde el principio se obsesionó con el tema de la acústica y del sonido. De hecho, en cuanto pudo, comenzó sus estudios de ingeniería, tanto electrónica como física, en el MIT, en el Instituto Tecnológico de Massachusetts, donde llevase el profesor y desarrolló unas investigaciones interesantísimas. Así que nada, Bose, cuando ya acabó esa etapa académica, decidió montar su propia empresa. Bueno, y así lo hizo, en el año 64 montó su empresa. Es un tipo curioso porque sin tener prácticamente fondos o dinero, él siguió invirtiendo mucho en lo que es la investigación. Entonces, él estaba muy obsesionado con el tema del sonido porque lo que le ofrecía el mercado en aquel momento a él no le complacía. Estamos hablando de una persona que tiene unos conocimientos teóricos y técnicos elevadísimos. Entonces, él sabía que con la investigación es como se podía conseguir algo distinto y que verdaderamente marcar aún. Sí que lo consiguió con todos sus productos y pasó un hecho que fue el que nos lleva a hablar de la cancelación de ruido, que fue el que en un viaje, en avión, sobre el año 79 o por ahí, estaba intentando escuchar algo con unos auriculares Bose y era tanto el ruido del fuselaje por la vibración que transmitían los motores, las propias alas y demás, que en aquel momento él fue cuando decidió abrir un camino de investigación para ver cómo podía realmente suprimir ese ruido y que se pudiera escuchar bien el sonido que producía su fuente de emisión. En este caso, pues no sé lo que sería, pero bueno, así empezó toda la cuestión. Le costó 10 años de investigación dentro de su empresa llegar a conseguir un sistema que funcionara bien para cancelar ruido. La primera comercialización la tuvo para gente que trabajaba en las líneas aéreas, que fueron los que más rendimientos sacaron y no fue hasta el año 2000 cuando sacó su sistema que se llamaba QuietComfort, que podemos hablar que son los primeros auriculares con cancelación de ruido efectiva. Ojo, en el año 2000, del 2000 al 2024, pues ya Enrique que nos cuente ya todo lo que supimos. No sé lo que habrá pasado, pero yo tengo en las orejas, ahora mismo sobre mis orejas, unos QC, unos QuietComfort, o sea que siguen estando ahí y son muy eficaces. No me extraña que le llevara tanto tiempo, debe ser una cosa difícil de arquitectura, de construcción, de tratamiento digital, pero el principio es muy simple, a cada onda le corresponde una contraria y si las juntas las dos, se anulan. Esto no requeriría hacer mucha explicación de cómo se propaga el sonido, las ondas y tal, pero bueno, si os creéis ese principio, que os lo deberíais creer porque es cierto y además es verdad, lo que ocurre es que los auriculares de este tipo llevan unos micrófonos fuera, que lo que están cantando es lo que hay por ahí, el ruido del avión, el del autobús, el del tren, la gente que anda por fuera, los coches, el ruido en general que tenemos fuera y constantemente está procesando esas señales y nos producen dentro de los auriculares la onda contraria, que no la oímos, o sea no la oímos porque el efecto que sucede es que nos anula el poco sonido que colaría por las almohadillas de los auriculares, con lo cual se consigue un silencio del 95, 97, 94, 90 y 100% no se consigue y sobre eso en los altavoces de los auriculares, o sea nuestras orejas, oímos lo que estemos mandando, o sea, música, vídeo que estemos viendo, lo que sea, con lo cual se produce un aislamiento bestial y muy, fijaos que, claro, en tiempos, no digo nada en contra, yo soy de los que los he tenido y soy muy friki, pero claro, en tiempos teníamos que comprar unos altavoces de gran coste para sentarnos a oír una sinfonía en un salón concreto, en una habitación, en un sofá, en una posición concreta que era la perfecta para oír los altavoces, ya no digo nada si eran cuatro, si no sé qué, y está muy bien, pero resulta muy caro, muy difícil, lo tienes que hacer ahí y sin embargo, con auriculares de este tipo, te aíslas en cualquier lado y con cierta garantía de calidad, pues se oye muy bien la música y no te molestan. Problemas, pues eso, que yo eso jamás lo usaría en la calle, porque, ya digo, llega una moto, llega algo y no la oyes y te puede pasar cualquier cosa, pero para aislarte, yo ahora mismo que estoy hablando con vosotros y solo con vosotros, pues me viene perfecto, porque estoy concentrado en lo que estoy haciendo, por encima estoy oyendo mi lector de pantalla, que para los que no están iniciados en esto, pues es lo que me lee a mí la pantalla del ordenador en voz, como si vosotros estuvierais mirando el guión, yo lo oigo y soy capaz de distinguir las dos cosas, pero estoy aislado en esto, estoy concentrado en gafotas, y en Ricardo y en Arturo, no oigo nada de fuera y eso, pues costó conseguirlo, pero está, la verdad que es un logro impresionante. Esta es la cancelación activa, que es mediante software y que, efectivamente, al ser en tiempo real, y dado que es en un sitio muy pequeño, al ser unos auriculares, hoy en día, pues a lo mejor no tiene tanto misterio, pero claro, el señor Bose, esto empezó en el 79, en aquel momento, pues hacer algo tan pequeñito y tan en tiempo real, pues no era tan sencillo. La pasiva ya es fácil, la de meterte, bueno, yo contaría cosas muy curiosas que no tienen nada que ver con esto, pero vamos, nada que ver, por hacerlo muy corto, no hay nada más horroroso que meterse en una sala anecoica. Yo he tenido la oportunidad de estar meses, cuando se hizo la primera voz sintética que se hizo en español y en catalán, que se hizo, que se llamaba Ciberveo, ahí se grababa en el alófono, se hacía muchas cosas, bueno, sería otro cuento. ¿Es una sala anecoica, Enrique? Una sala anecoica es una sala que está dentro de otra sala, sujeta por muelles y metido con mucho aislante, de forma que el eco en la reverberación es cero, entonces ahí te metes y no hay absolutamente nada. Es horroroso, oyes tus huesos, oyes tu corazón, te oyes a ti mismo, pero tú no rebotas nada de sonido, y es impresionante, eso sí sería la cancelación perfecta, que es que no hay nada, y es angustioso, sobre todo, para la gente que no ve nada se lo pasa muy mal, porque es que no tienes noción de a dónde rebota tu sonido. Sabéis que la gente que no ve, los que no lo sepan, y que no seáis ciegos y tal, hay mucha gente que practica lo de la ecolocalización, un poco lo del murciélago, que es enviar señales para que te reboten en las paredes o en los objetos, y saber un poco, si te vas a dar con algo, un poco, medir el espacio, porque no lo ves. En una sala anecoica no podrías, es que no rebota. Estarías a oscuras de oído, ¿no?, también. A oscuras de oído, sí, sí, totalmente, es curioso, pero sí, sí, la cancelación activa ANC ha sido un gran logro. Yo, si queréis, os contaría también el último apartado de auriculares que tengo, que este sí que es, yo creo que merece, o sea, merece, que no es con cable, sin cable, no se mezcla, es los raros, ¿no? Esos que yo tengo como raros, que son pocos, pero que hay algunos, ¿no? Bose mismo tenía unos que son como una estola, algo que te pones por detrás del cuello, con un pañuelito, y te cae el final en cada hombro, ¿no?, encima de cada hombro, y encima de esos finales hay unos altavoces potentes, esto sí que se oye un poquito desde fuera, no se oye con calidad, pero la gente, si te ve pasar por la calle, dice, ¡buah, ese lleva un transistor malo de esos! Pero no, no, tú lo oyes muy bien porque están orientados de forma muy buena para que se oigan en tus oídos, eso es ideal para oír música con mucha calidad, muchísima calidad, más que las, más que los de oreja abierta, desde luego, y... De manera muy cómoda. Pero respetando, y sobre todo respetando, o sea, que te queda la áptica libre, que tus orejas están libres, oye en eso, o sea, es colocarte en una sala de audición con buenos altavoces Bose, pero que siempre van a ir contigo, porque te mueres, esos son muy raros y se dejaron de fabricar. Bose, el señor ya no tendrá la culpa, el pobre, claro, por supuesto, pero últimamente a mí me decepciona bastante porque discontinúa bastante cosas que hace muy bien, como gafas y estos pañuelos que se llaman, se llaman Bose Soundwear Companion, como vestible de sonido, como compañero vestible de sonido, ¿no? O sea, cuando ha dicho gafas de Bose te refieres a las frames, ¿no? Sí, las frames que ya han desaparecido, ya, ¿no? O sea, yo también las tengo como oro en paño, pero bueno. Y después otros muy raros también, que ellos, esos sí se siguen haciendo, bueno, muy raros digo, pero son un poco distintos de Sony, los Link Buds, que son que el toroide, o sea, lo que es, lo que produce el sonido es un redondel con agujero en el centro, como los caramelitos esos que había que se llamaban chimos, que es como un agujero con un donus pequeño. Entonces, esos sí se te encajan en la oreja, tienen varias gomas para que se quede más o menos fijo, no es su fuerte porque ellos lo saben precisamente, pues hay cinco tipos de gomas dependiendo de la oreja y no siempre se ajustan bien, pero bueno, se quedan más o menos, pesan muy poquito, muy poquito. Y lo que pasa es que como el chisme que produce el sonido, aunque está en tu tímpano pegado ahí al conducto, ¿no? No en el tímpano, pegado al conducto, pero deja un agujero libre, pues también yo fueron los primeros que tuve de ese tipo, que no eran de cancelación ósea, para que me dejaran oír el exterior, que es que la gente que nos vemos siempre andamos persiguiendo encontrar el mejor auricular de este tipo, porque claro, a un ciego si le matas eso es como si a una persona que ve le tapas los ojos y dice, anda vete, vete para allá, para Sevilla, andando majo, a ver si puedes, ¿no? Pues eso, quiere decir que nos matan, nos matan mucho, ¿no? Entonces, estos están muy bien y son los otros raros que diría, yo creo que en el catálogo de raros no tengo nada más. Yo sí tendría uno que no sé si entraría en raro, pero sí que me ha llamado la atención y son los que ha presentado en el CES Las Vegas Exxilor Luxottica, son los que hace, vamos, los conoceremos por las gafas Ray-Ban y un montón de gafas y lentes especiales, porque yo creo que es la empresa más fuerte que hay en el mundo de fabricación, por lo menos en el mundo occidental, ¿no? Porque cuando hablamos del mundo parece que solo esté este, pero parece ser que hay empresas también muy grandes en Asia que no son muy conocidas aquí, pero bueno, aquí en este mundo occidental ellos son muy potentes y han presentado unas gafas como las que hablábamos antes, como las Frames, que llevan incorporados unos audífonos y audífonos, cuando digo audífonos es como conocemos los audífonos a este lado del charco, es decir, son dispositivos, aparatos para personas con hipoacusia para que escuchen mejor y los llevan incorporados en las patillas, supongo que con un sistema y un procesador y una serie de... de tecnología que gestionará muy bien todos los ruidos ambientales y dependiendo de supongo que la patología que tengan de oído o las necesidades pues bueno llevando unas gafas pues tendrán unos audífonos sin tener que pasar por la estigmatización de llevar un aparato metido en el oído que parece ser que a la gente que tiene estas dificultades llega bueno pues a molestarles bastante hasta el punto de no utilizarlo y preferir no oír y a mí esto sí que me parece algo que va a funcionar muy bien porque hay una necesidad real y creo que viendo ya como han resuelto en la Ray-Ban Metal el tema del sistema sonoro pues creo que si esto encima aún está más especializado va a ser un puntazo. Quizá el único problema que tiene este tipo de auriculares y de audífonos es que efectivamente a la gente no le gusta llevarlos pero que evidentemente si sientas en un sitio muy oscuro y no utilizarías gafas pues si te quitas la gafa te quitas el audífono que nos pasa también con la Ray-Ban pero pero bueno es que claro no todo siempre es completo o sea que está muy bien pero las lentes si es vamos si es exilor luxótica las hay claras transparentes transicionales las transicionales y que se cambian transición que se van cambiando de se van oscureciendo a medida que hay claridad y sol y tal y se van aclarando a medida que hay oscuridad eso sí está muy bien también y y John Raros también había puesto lo que pasa que me adelanté a los de oreja abierta no estos chinos que dije yo que cada vez van evolucionando más la verdad que tenéis auriculares por ahí ya digo de 20 de 30 euros todos estos llevan igual que los de apple porque lo imitaron y es un tema que se me olvidó decir y es bueno es relevante llevan su cajita donde lo guardas y su cajita lleva batería y entonces tiene para bastantes veces de carga ya tú cargas la caja y después por los auriculares como lo guardas allí cuando los quitas pues al guardarlos se están cargando y tienen pues más o menos con los chinos van los estos de 20 pues dan para dos cargas y ya irá que te va pero los de apple y algunos otros te cargan los auriculares 8 o 9 veces o hasta para 30 40 50 horas sin sin tener que enchufarlos en la corriente no para para cargarlos evidentemente todos los inalámbricos necesitan energía no no van con cable y hablando también así de cosas un poco raras no dentro de los auriculares está el sonido binaural no es muy curioso como recibiendo el sonido por dos puntos fijos pues se puede escuchar el sonido en 3d y somos capaces de poder localizar algo en el espacio si eso está muy interesante y se me había olvidado y es inherente a cualquier auricular pero cualquiera que busque sonido binaural en internet y tengáis unos auriculares más o menos bien si podéis que sean de cancelación mejor lo que se hace es imitar la forma de la cabeza humana y de cómo oímos o sea oímos en 3d pero no sólo en estéreo no es que una cosa se haga por un lado se acordaréis los más viejos del lugar cuando estaba muy de moda el estéreo cuando empezó a salir pues se grababan discos que se graba la batería y no sé qué por un lado descarado y las voces por otro horrible eso es muy mal porque no llena y tanto para ir en 3d es decir que se te cae una moneda y más o menos sabes a qué parte del suelo ha caído de todo eso eso está basado entre otras cosas en que la sobre todo y sobre todo en que el sonido no llegan al mismo tiempo a una oreja que a la otra hay un pequeño retardo de una con respecto a otro eso imitado cuando se graba si se hace con los micros pues puedes hacer hay uno por ahí si buscáis barbería de luigi bueno sólo barbería para no complicarlo no buscan barbería y binaural y encontrarán efectivamente la barbería de luigi que es una persona que está afeitándote a otra persona cortando el pelo con una maquinilla y oirás perfectamente la maquinilla en tu codo en tu lado derecho en el izquierdo arriba y a luigi por otro lado hablando un tío tocando la guitarra y no sé dónde a tu adelante a tu izquierda y hay algunos de lluvia debajo de un coche que es bueno pues mira saint geyser tuvo unos que también los descontinuaron que eran muy buenos para grabar en unos auriculares in ear pero que tenían un micrófono en cada oreja también para grabar desde esa perspectiva y se podía grabar binaural y la verdad que se obtenía un sonido espacial impresionante sabéis lo que me ha impresionado mucho a mí en cuanto a resultado de sonido espacial con las raven meta grabar vídeos que graba con los cinco micrófonos la sensación es tremenda porque verdaderamente es un sonido holofónico es un sonido espacial que yo escucho exactamente dónde está posicionada cada persona y resulta inquietante claro cuando oyes un sonido tan claro tan nítido y aparte posicionado en el espacio y no sepamos supongo que sois los dos lo habéis podido comprobar no que tiene un sonido extraordinario sí yo creo va mucho por aquí también volviendo a citar los paseos de mi perro porque es un sitio que es un paseo que hago de 7 8 kilómetros que no hay apenas coches ni nada son pistas forestales y está el mar de vez en cuando a veces tan lejas de él pero siempre hay bosque viento los árboles suenan por un lado por otro y los pájaros están en un sitio en otro y tus propios pasos pisando la tierra y tal y cual y la verdad que después lo oyes y es un panorama sonoro igual para la gente que ve menos no pero nosotros que te fijas igual la gente que no vemos que es que lo he esclavado como tú lo irías cuando estás en directo casi te imaginas el sitio que así es y la grabadora zoom h2 que ha salido hace poco tiempo pues también tiene esta peculiaridad tiene varios micrófonos al rededor de ella y es capaz de captar todo el sonido envuelve en ti el último h4 y los tiene colocados así los tiene colocados enfrentados y hace un sonido sonidos binaurales holofónicos 8d como se les quiera llamar siempre veréis que recomiendan escucharlo con auriculares que es la temática que nos ocupa hoy porque es donde se verdaderamente se ve se percibe el efecto de espacialidad que comentaba enrique a mí últimamente me gusta mucho llevar los de los de opinión los de reja abierta que los hay caros se también los hay chinos caros y chinos volando digo yo porque supongo que el 99 por ciento están hechos en china o sea que y no y no está mal ni bien es una realidad y entonces lo que pasa es que pesa muy poco y se produce lo que decía un euros y que anda con que yo trabajé en otros temas que se produce el efecto calcetín que no es más ni menos que decir que tú te pones el calcetín ya te pones a andar a lo largo del día tu gene y te fijas que llevas un cálcet impuesto bueno pues es auriculares pasa igual que no llega un momento que te olvidas y sin embargo para la gente que sí que usamos mucho el teléfono lo que seamos porque porque agarras el la aplicación está debida y hay que te describe cosas o te llega un sobre a casa y lo vas a leer y con esa aplicación y sales un rato a la calle entonces pones el gps cualquier cosa como es grande que utilizamos mucho el teléfono para muchas cosas pues el auricular si ya no notas que lo llevas pues es como un complemento tuyo como la gente que lleva gafas que es igual que el efecto calcetín la gente que lleva gafas habitualmente no le molestan en la nariz ni en las orejas o sea el puente de la nariz pues este tipo de auriculares son así yo por ejemplo los qc45 que llevo ahora los de sony los quick confort de estos pues los estoy notando o sea petan un poquito o sea son cómodos pero los noto y sin embargo los de oreja abierta pesan tan poco y son tan y de anillos que no no te fijas te olvidas y antes unos auriculares eran unos auriculares no tenía más misterio ahora como hemos visto pues hay muchísimos tamaños formas colores sabores hacia dónde crees que puede evolucionar esto en el futuro me alegro que me hagas esa pregunta no lo sé yo creo que los de oreja abierta deberían deberían mejorar de sonido y se está hablando por ahí no tanto auriculares sino de altavoces de no sé cuál es la tecnología que hacía mucho tiempo que se hablaba de ellos pero estaría muy bien también que es volvemos a lo de la sala de antes los direccionales no exacta la sala de antes de que tú tengas en tu salón unas cositas ahí que si te pones en determinado punto de vida aquello suena como el wifi center sin embargo el vecino no lo oyen es una tecnología que yo no la he probado sí que he leído que ya se comercializa tampoco tengo muy claro hasta qué punto funciona llegué a escuchar una hace unos años ya una exposición del inventor de esta tecnología o de uno de los inventores que en un salón de actos proyectaba un sonido desde su fuente de emisión su altavoz este dirección al y había alguien del público que lo percibía y y bueno los demás no lo escuchaban entonces hombre como propuesta es muy interesante ya hablaban de ponerlo en museos en cada una de las piezas que querían describir pues cuando te posicionaba adelante cuando las ollas y no no escuchabas absolutamente nada ahí sí que tendría una buena utilidad y sobre todo para para llevarlo encima no es decir o en lo que tú estaba diciendo enrique viendo la televisión y no molestará a nadie pues está sentado en tu ropa en tu asiento donde sea y te llega de foco no te llega ese chorro de emisión que sólo a ti pero tienes que estar quietecitos y moverte si te levantas a por un vaso de agua o a coger el vaso de encima de la mesa pues ya la lía bueno entonces está un poco limitado lo queremos todo yo de tofas en auriculares auriculares yo no sé por dónde puedo ir porque la verdad que también es verdad si lo miramos así un poco desde el año 70 y algo cuando empezaron los primeros de menos un poco buenos pues no sé se ha avanzado en formas y no sé qué pero poco ha sido que haya habido grandes quiero decir en ordenadores hemos pasado no había pt en aquellos tiempos y ahora hay ordenado en el sonido pues bueno pero en el curso parecía un mercado saturado de los auriculares y demás hasta que bueno pues parece que llegó apel y le dio una vuelta de tornillo metiendo la moda por medio mejoró la tecnología con los auriculares blanquitos y tal que se pusieron muy de moda luego con los inalámbricos aunque parece que hay mercados saturados siempre se puede dar una vuelta de turca y bueno la gente del deporte es muy no la gente como ahora se hace mucho deporte la gente que tal y hombre supongo que cuando se hagan bien en subacuáticos y tal y después yo creo que viene muy bien en tienen que evolucionar pues en temas de seguridad de cosas el pinganillo es el que se dice siempre que es el que llevas para seguridad para cosas y en estos de vibrar yo tengo bastante esperanza los que vibran hay unas mochilas que también estarían dentro de los raros que se hacen para gente con baja audición o nula que van llenas de altavoces de estos de los de que hablábamos de marujá cerezo no de los de los que vibran y te dura toda la espalda no y hay gente que que le ayuda mucho o sea que le está viendo una película y el que vibre pues les hace sentir mejor la serie de actuadores ápticos hay detrás no que es exacto si eso te hace te hace de bueno te refuerza el sentido para ellos lo hacen para hoy vamos yo recuerdo una vez que hicimos una prueba con serafín tuvir y el cantante este chico que es un amigo con la esa y conoció canciones sobre todo las suyas le ponías algo porque no sonaba o sea eso es con la canción suya no sé qué pues hacer esos actuadores y las conocía había un proyecto orientado a la entretenimiento y diversión de personas sordas y con este tipo de tecnología que era una especie de chaleco con estos vibradores no que es lo que tú dices más o menos la mochila si bueno esto es mochila bueno no sé si efectivamente esto esto va como por la espalda así probablemente estemos hablando de lo mismo pero no en los hombros y eso ya no está por delante no vibra el que yo con los que yo conozco y bueno pues no sé por dónde irá el futuro pero es siempre a mejor espera hombre yo muy impresionado todo lo que son los mini altavoces insertador dentro de las patillas porque sí que he visto una evolución de algunos que se escuchan bien y lo dejo ahí y a otros que ya se escuchan muy bien no entonces ahí sí que creo que hay un terreno que recorrer porque aún escuchándose también sí que me da cuenta que al darle volumen esa vibración se induce y distorsiona algo el sonido y luego en ambientes pues acústicamente saturados cuando es el centro de una ciudad un autobús o algo así pues tienen que seguir investigando a ver cómo consiguen que este tipo de auriculares o altavocillos en patillas pues sean más efectivos porque yo no sé si vosotros lo habéis experimentado con vuestras gafas pero creo que es ahí se pierden un poco en lugar en lugares donde no hay mucho ruido ambiental son maravillosos pero en cuanto subes un poco el volumen es que yo creo que ahí no queda más remedio que hacer el tratamiento digital era una cosa en la en la cancelación activa de ruido y otra cosa el tratamiento digital del sonido que hemos hablado poco de él pero que está avanzando mucho y ahí si veo mucho futuro ya los materiales y los materiales para que no vibrará tanto la patilla porque pero quiero decir ahí perdona ahí lo que quiere decir que yo creo que no se puede engañar a la física es decir que para tú aislarte determinados sonidos y para tú estar que ya se hace con audífonos para tú estar en una cafetería y oír a la gente que esté hablando contigo alrededor de tu mesa y no a los demás ni la cafetera esa que está haciendo ruido y el coche policía que está pasando por fuera eso es imposible si no te aislas porque tú lo irías por el oído de por fuera eso no te lo pueden tapar entonces ahí con las gafas es difícil otra cosa que hagan gafas que les cuelguen unos pinganillos que te lo pongas si quieres en caso de no de que tengas que hacer eso pero yo tengo más esperanza en el tratamiento digital del sonido porque ahora ya lo vemos o sea tenemos todos yo no sé quién lo usa y quién no pero yo desde luego lo uso en la cancelación de ruido saliente de tu teléfono que tú estás fregando platos y hablando con alguien y no te oyen el agua ni los cacharros sólo te oyen a ti el que te está recibiendo la llamada no pues eso ya existe al revés ya se trata el sonido lo hace muy bien en manos libres del iphone cancela muy bien el sonido es muy eficaz y las gafas y las gafas estas de metal también las gafas también sí sí sí cancelan ruidos raros y en la vuelta que sería lo que recibes yo he visto ya audífonos de gente que yo conozco no con hipoacusias y tal pero es que es la leche o sea que les quitan tienen varias posiciones y lo aparte que tienen su audiograma es decir les han hecho la audiometría y les exageran las frecuencias que no oyen y les ponen bien las que oyen y bueno que se les amolda pero aparte de eso que entran en ambiente bar y ellos no vamos ya puestas la tele a toda pastilla que lo que oyen es muy bien a la persona que está enfrente o a sus lados según una mesa comiendo que eso a las personas llegando viene muy bien es que se dice mucho entre los tigres callaros que no me dejáis ver no cuando hay mucho ruido esta gente de orca que me han dicho que ya no van a seguir desarrollando su producto tenían una investigación hecha y yo creo que hasta un preproducto supongo que lo habrán vendido que era esto justamente unos audífonos también en gafas y lo que hacía no se cierran gafas o como era lo que sí que sé es que captaban la voz del que estaba hablando y focalizaban la recepción de ese audio en ese audífono qué significa esto que en una zona bulliciosa si tu interlocutor está enfrente y te está hablando te evadiría del entorno ruidoso y únicamente focalizaría la voz de esa persona que está hablando y es un inventazo y bueno no sé en qué situación está la hora pero estoy hablando de hace 4 o 5 años cuando publicaron su paper de este tipo de tecnología si yo creo que por ahí también puede ir el futuro porque el oído humano eso lo hace muy bien cuando estás hablando con alguien en una cafetería el oído humano y el cerebro más bien es capaz de filtrar y quedarse solo con la voz del que tienes en frente y quitar todo el ruido ambiente de alrededor y la tecnología poco a poco está ya empezando a hacer esto en tiempo real y con ella a todo le ponemos a ella pues yo creo que por ahí puede ir un poco el futuro la idea que parece que se va a parar un poco por fin en 2025 digo por fin porque a ver si se paran a utilizar la que hay para cosas como estas es decir vamos a dejar hacer el chorro que lo hacemos muy bien ya y entonces ahora con todo esto que tenemos que tenemos mucho y mucho big y cosas vamos a hacer cosas vamos a hacer cosas prácticas tengo esperanza en eso porque el otro día leí yo que habían hecho un aeromotor no de estos que producen electricidad con una ia o por lo menos decía la noticia que con 3,2 metros por segundo de brisa ya producía una electricidad suficiente para bueno a ver si nos vamos centrando porque esto la ia ahora todo tiene ia yo no sé a mí me recuerda el otro día leía y además yo lo viví cuando llegó la tele en color que yo todavía ya ya estaba por el mundo y ya había visto la tele en blanco y negro pues vendían unas pantallitas porque iba a llegar la tele en color pero no llegaba antes para engañar a la gente así unas pantallas que eran degradadas si yo lo tuve como azul azul por arriba y tirando a verde por abajo el color fue y que la pantalla la tele en blanco y negro y tenía tres partes la parte de este vídeo en tres zonas la de arriba era azul la del medio era roja y la de abajo era verde y parecía que todo tenía eso bueno pues ahora todo tiene ia y la idea es un poco también un poco de eso no es que está muy bien y como dicen aquí dios la de aquí en mi tierra no dio la de pero pero pero ahora que pero que nos dediquemos a pensar con todo lo que hay y hacer algo porque ese tipo de cosas para el tratamiento digital de audio tengo mucha esperanza ya se está haciendo pero ahora que yo creo que todas estas cosas requieren aislamiento si no lo que si recibes por fuera otras cosas lo que estás haciendo es como si juan y manuela no tienes que de hecho los casi todos los auriculares de cancelación activa tienen un modo este estos mismos míos lo tienen tienen dos modos tienen claro que si te habla alguien como no lo vas a oír pues le das y entonces con esos mismos micros con que utilizan para cancelar lo abren entonces te amplifica y oyes a la persona de fuera sin quitarte los auriculares si no no la verías claro pero para saberlo regular de que estar en la oreja porque los micro auriculares o micro altavoces no que tienen por ejemplo las gafas pues no pueden hacer la cancelación activa porque si el sonido llega antes a tu oído que el dispositivo en cuestión pues difícilmente va a poder hacerlo en la inversa no o sea que eso me parece que va para largo ricardo lo que se oigan si se tiene que ver muy alto es que también después está el tema de engañar a la física una cosa para que suene fuerte tiene que vibrar mucho entonces si no te importa que las gafas se te muevan en la nariz no me molesta a mí lo que me molesta es que al moverse distorsionan el sonido y lo ensucian no un poco por lo menos yo no lo percibo ya tan limpio a lo mejor se pueden poner cosas que suene muy fuerte pero eso implicaría mucha vibración y a lo mejor es técnicamente imposible meterlo en unas gafas poco a poco mejorando la mentalización mejorando poco a poco exactamente y lo que yo creo que sí que hay un trabajo de física importante para que esa vibración no sea amortigüe y ya no se produzca esa transmisión que realmente yo creo que es lo que ocasiona sino el 100% el 50% de la distorsión del sonido hay que engañar a la física y a la física se la engaña recordaréis todos los primeros móviles que tienen unos antenones ya aparte del tamaño del móvil en sí no el antenón y te decía la gente de radio de toda la vida que no se puede engañar a la física es que la onda es no sé qué y el palo tiene que ser así ahora no vende la antena que si el dipolo que si la onda tiene que ser no sé qué ni la antena ni nada y los de la antena de la tele no que van ahí arriba con los anillos que cada niño es una frecuencia no una onda la antena de arriba de mi coche es una cosa que es un bultito la antena fm y no se va nunca la física se la puede engañar pero hay que hacerlo con arte bueno pues podemos hacer un resumen un poco de lo que hemos ido contando y vamos terminando hemos visto los auriculares desde que desde que se inventaron hasta hoy con todos sus tipos con cable sin cable sobre todo todos los tipos de formas que hay los que tapan la oreja los que no los que solo la cubren los que inducen en las orejas vibración en los huesos vibraciones los que no los que van por bluetooth los que pesan poquito los que pesan mucho hemos hecho una yo creo una panorámica de los auriculares además pasando hablando también de altavoces porque no en vano un auricular es un altavoz pequeñito decía yo un altavoz que no ha ido a la escuela y hemos visto altavoces desde el gramófono que era el más natural quizás, hasta los altavoces que hay ahora y los de vibración en el que vibran e inducen en una madera o en cualquier mueble yo creo que hemos dado un repaso interesante y por otra parte al tratamiento digital del sonido como es la cancelación activa de ruido es decir meternos en unos auriculares y no oír nada de lo que fuera o tratar el sonido de forma que se pueda oír selectivamente unos sonidos u otros hemos hablado del futuro también que es lo que puede mejorar y bueno hemos llegado hasta aquí muchas gracias enrique por habernos acompañado hoy en esta tertulia y bueno esperemos que haya muchas más a mandar jamones a casa van para allá muchas gracias enrique gracias a vosotros recordamos los medios de contacto correo electrónico ricardo pues gafotas@cegatos.es y a través de whatsapp mediante mensaje de audio o de texto en el +34 644 640 792 pues nada os agradecemos un montón que hayáis llegado con nosotros hasta aquí esperamos que hayáis disfrutado de este episodio y os esperamos en el próximo hasta luego
Gafotas, cegatos y sus aparatos #7
Fecha: viernes, 3 de enero de 2025, a las 00:00:00
En este séptimo episodio exploramos una tecnología que promete: GoodMaps, la herramienta que pretende transformar la orientación y el guiado en espacios interiores.
Nuestro invitado, Saúl Ponce, nos acompaña para analizar cómo esta plataforma está beneficiando a personas con discapacidad visual y a la sociedad en general, promoviendo la accesibilidad de manera innovadora.
¿Qué vamos a tratar?
- Introducción: Presentaremos qué es GoodMaps, una aplicación diseñada para facilitar la navegación autónoma en interiores, como museos, universidades o supermercados.
- Funcionamiento: Explicaremos cómo la app mapea puntos de interés, su compatibilidad con iOS y Android, y su integración con herramientas como Be My Eyes.
- Caso práctico: recrearemos y analizaremos una experiencia de uso.
- Exploraremos cómo GoodMaps fomenta la autonomía, la confianza y la inclusión, beneficiando no solo a personas ciegas, sino también a mayores y a quienes visitan espacios desconocidos.
- IA y accesibilidad: Trataremos los últimos avances, como el soporte con smartglasses y sistemas multimodales que podrían mejorar esta tecnología.
Gafotas, Cegatos y sus Aparatos profundiza en el presente y futuro del guiado y de la orientación accesible. ¡No te lo pierdas!
Intervienen:
Sitios referenciados en el episodio:
GoodMaps: Navegación Interior - Aplicaciones en App Store.
GoodMaps: Navegación Interior - Aplicaciones en Google Play.
Envía un E-Mail a Saúl Ponce de GoodMaps.
LA OLA QUE VIENE | Mustafa Suleyman | Casa del Libro.
Créditos:
Duración: 01:05:02
Descripción detallada del logo de Episodio 7. GoodMaps, sistema de geolocalización en interiores.
La imagen es un dibujo en estilo cómic retro, en blanco y negro, que representa a un hombre Gafotas con aspecto de superhéroe empujando un carrito de compras en un supermercado. Lleva una capa, un bigote prominente, gafas de sol y auriculares con micrófono. En su mano derecha sostiene un teléfono móvil que muestra la aplicación "GoodMaps". El carrito de compras tiene el logo de "GoodMaps" en la parte delantera. El fondo muestra estanterías llenas de productos típicos de un supermercado, con señales que indican secciones como "SUPER". Los detalles de líneas gruesas y sombras realzan el estilo gráfico clásico.
Mostrar transcripción de Episodio 7. GoodMaps, sistema de geolocalización en interiores.
Transcripción de Episodio 7. GoodMaps, sistema de geolocalización en interiores.
(Experimental) Gemini 2.0 Flash: https://ai.google.dev/gemini-api/docs/models/gemini?hl=es-419&authuser=1#gemini-2.0-flash
Gafotas, cegatos y sus aparatos #6
Fecha: martes, 24 de diciembre de 2024, a las 00:00:00
En este sexto episodio, contamos de nuevo con el experto informático Alfonso Calvo para explorar a fondo los retos y dilemas que plantea la inteligencia artificial en el contexto europeo. Analizamos la ética como marco esencial para garantizar valores fundamentales como la autonomía, la transparencia y la responsabilidad, destacando cómo estas premisas pueden guiar el desarrollo de tecnologías más justas y respetuosas con los derechos humanos.
Abordamos también los sesgos en la IA que, si se basan en datos históricos poco representativos, pueden perpetuar desigualdades y discriminaciones en ámbitos clave como la contratación laboral o el acceso a servicios básicos. Además, reflexionamos sobre las restricciones legales impuestas por el Reglamento Europeo de Inteligencia Artificial, un marco diseñado para proteger derechos fundamentales, pero que, en ocasiones, puede limitar el acceso a datos necesarios para entrenar o usar tecnologías de asistencia esenciales para las personas con discapacidad visual, como aplicaciones de lectura o reconocimiento de personas o entornos.
A través de ejemplos prácticos y un enfoque equilibrado, discutimos cómo estas restricciones pueden reformularse para fomentar la inclusión sin frenar la innovación tecnológica, proponiendo soluciones que promuevan la diversidad en los equipos de desarrollo, la accesibilidad en los productos y la colaboración entre reguladores, desarrolladores y usuarios. Un episodio imprescindible para reflexionar sobre el rumbo que debe tomar la inteligencia artificial para ser realmente útil y beneficiosa para todos.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Tay, la robot racista y xenófoba de Microsoft - BBC News Mundo
Cuestionada la máquina que predice futuros delitos en EE.UU.- ABC ciencia
Resumen de la ONU sobre la inteligencia artificial y discapacidad
Créditos:
Duración: 01:07:02
Descripción detallada del logo de Episodio 6. Inteligencia Artificial: Quo Vadis? Ética, restricciones y sesgos. El caso de la discapacidad visual y la legislación europea.
La imagen muestra una escena urbana con un ambiente futurista. En el centro, destaca un hombre con gafas de realidad virtual, bigote, auriculares y una camisa formal con corbata, caminando con confianza. Su cabeza es un emoji blanco con ojos cruzados estilo "X". A su alrededor, hay personas con cabezas similares que representan emojis con ojos cruzados, realizando actividades cotidianas como ir en bicicleta, sentarse en un banco o caminar. En la escena aparecen señales de tráfico con mensajes como "STOP" y "PROHIBITED". El ambiente general combina un estilo moderno con un toque distópico, simbolizando quizás una pérdida de conexión humana en un mundo dominado por la tecnología.
Transcripción de Episodio 6. Inteligencia Artificial: Quo Vadis? Ética, restricciones y sesgos. El caso de la discapacidad visual y la legislación europea.
Muy buenas, lo que sean, yo soy Arturo Fernández Y yo soy Ricardo Abad Y esto es Gafotas, Cegatos Y sus aparatos Podcast Bienvenidos al sexto episodio De nuestro podcast favorito Pues hoy ¿Qué tal estás Ricardo? ¿Cómo van esas grabaciones? Pues mira Arturo Buenas, lo que sea Como tú dices Pues muy bien y muy contento de estar aquí otra vez Grabando ya el episodio Número 6, parece mentira Hemos comenzado hace nada Y ya llevamos 6 episodios Y hoy muy contento porque Vamos a volver a una temática que me encanta Y sobre todo con Un invitado Que ha tenido mucho predicamento Y que hemos recibido un feedback de la gente Muy positivo Y ha gustado mucho el primer episodio En torno a la inteligencia artificial Cuando estuvimos hablando de sus inicios En el pasado siglo XX A mediados hasta la ya generalizada Y bueno Y lo que en un principio Pues simplemente un episodio Probablemente se convierta en una serie Y afortunadamente vamos a tener Como colaborador experto Alfonso Calvo Para llevarla a cabo Eso es, muchas gracias por estar otra vez Con nosotros En este camino Y efectivamente esto de la inteligencia artificial Pues yo creo que da para mucho, muchísimo Va a dar para muchos episodios Es algo muy nuevo Muchas veces muy desconocido Muchas veces no se entiende bien Y efectivamente hay que poner un poco De orden en todo esto Exactamente Nuestro episodio se va a llamar Covadis Referente a la inteligencia artificial Es decir, a dónde va, a dónde vamos Con la inteligencia artificial Y esto lo va a determinar Mucho todo lo que es la ética Que se aplique, los sesgos, las restricciones Y de esto nos va a hablar Alfonso Bueno pues El principal problema que tenemos Con la ética de la inteligencia artificial Es que eso es un oxímoron La inteligencia artificial No puede tener ética Porque Tenemos la mala costumbre de Antropomorfizar la inteligencia artificial Y Hacerla humana Pero La inteligencia Artificial es un programa de ordenador Los programas de ordenador no tienen ética No tienen consciencia Y entonces ¿Qué es lo que ocurre? Pues que intentamos trasladar Mayoritariamente La percepción que los humanos tenemos de la ética En el ámbito de la inteligencia artificial Y nada funciona Evidentemente Porque no puede ser así Es decir, si tú no tienes una entidad consciente No puedes desarrollar ética Y la inteligencia artificial Solo es consciente en las películas Hollywood Donde la gente se inventa cosas Pero un programa de ordenador No tiene conciencia Eso no existe El programa de ordenador pueden ser precisos Pueden ser funcionales Pero desde luego conscientes, no A día de hoy no Es posible que en el futuro pueda existir esto Pero a día de hoy no Ni nada que se le parezca ¿Qué es lo que sucede? Pues que Cuando al usar la inteligencia artificial Le hacemos preguntas Que resulta Que pueden ser peligrosas para terceros Pues que ¿Qué ocurre? Pues que la inteligencia artificial En sus primeras implementaciones Hace unos años De IA generativa Pues al algoritmo generativo El objetivo es satisfacer a quien le hace la pregunta Y aunque le pregunte una barbaridad La IA la responde Porque el algoritmo generativo No es consciente del impacto de lo que está contando No tiene conciencia Entonces, claro, si tú le preguntas ¿Cómo hacer daño a una persona? Hace dos años Pues él te responde Pero claro, eso es una barbaridad No se puede utilizar un programa de ordenador Para hacer daño a las personas Con lo cual, la única manera En la cual se ha podido Implementar una cierta ética Por llamarlo de alguna manera En los programas de ordenador Es a base de restricciones Es decir, si un programa Establece un diálogo con un ser humano Lo único que podemos decirle a ese programa Es que a través de ciertas palabras Con las que se han hablado Con los temas claves Detallados temas O tipos de preguntas O sesgos de conversaciones Pues prohibirle al programa Que aborde ese tipo de conversaciones Pero esas restricciones Son la única manera De poder implementar una cierta ética En un programa de ordenador Los seres humanos no funcionamos así Los mecanismos de ética Se desarrollan de otra manera Y como siempre estamos estableciendo Comparaciones entre Cómo funciona un ser humano Y un programa de ordenador Un programa de ordenador Porque el programa de ordenador Sale perdiendo siempre, evidentemente No puede salir limpio y victorioso De esta lucha La cual de momento no puede ganar Claro, porque la ética humana No está dentro de un modelo restrictivo Efectivamente, a ver, existe, digamos Al final, un mecanismo De restricciones, pero que no se implementa De la forma en la que lo hemos hecho Con los ordenadores, es decir Al final lo que sucede es que Ciertos parámetros éticos Orales Sí que implican conductas restrictivas Pero no están implementados De la misma manera en la que Lo estamos haciendo con los programas de ordenador Donde básicamente lo que se le dice Son un conjunto de temas Y de términos que no se pueden abordar Directamente Claro, como eso es una lista Lo que se está elaborando, al principio esa lista Era muy mala Y entonces se colaban muchas conversaciones Peligrosas, pero después de dos años Pues ya digamos que hay Una lista suficientemente amplia Para que sea razonablemente buena ¿A qué se dedican los expertos De informática? Pues a intentar saltarse esa lista Es decir, que de alguna manera Tú puedes intentar Engañar Al ordenador A través De subterfugios lingüísticos Que hagan Que finalmente te entreguen la información Porque debemos pensar que El algoritmo generativo Intenta darte una respuesta Entonces estamos luchando contra la propia naturaleza Del algoritmo generativo Pero a base de subterfugios Pues efectivamente es posible Saltarse ciertas restricciones ¿Y qué hacen los desarrolladores? Pues aumentar el conjunto De restricciones Cuando se descubre que efectivamente Hay maneras Por donde hace aguas Efectivamente, entonces ¿qué es lo que sucede? Pues que esto digamos es un proceso de ensayo Y error Entonces Luego la prensa Que claro, la prensa ha encontrado En la inteligencia artificial Una víctima propiciatoria La inteligencia artificial no se puede defender a sí misma Porque no tiene características humanas La IA no tiene conciencia de sí misma No puede hacer nada Entonces ¿qué es lo que sucede? Pues que es una partida desigual ¿Vale? Ya tenemos un grupo de periodistas Que están buscando siempre Una noticia que les haga vender publicidad Frente a unos problemas de ordenador Que no tienen ni idea De lo que están haciendo con ellos Básicamente Sí, yo quería hacerte una pregunta El otro día nos dejabas claro Que la IA es muy amplia Y nosotros estábamos hablando últimamente Cuando la han popularizado de los chatbots Son estos chats donde podemos escribir Recibimos respuestas Podemos hablar, recibimos también respuestas habladas Pero a fin de cuentas Es una forma de presentar Un tipo de modelo de inteligencia artificial Comentas que siempre Aquí el algoritmo Está configurado para que siempre Conteste, supongo que esto será Para que sea más efectista No, no, es la naturaleza del algoritmo generativo Porque cuando hablamos de que el algoritmo es generativo Lo que significa es que El objetivo final del algoritmo El programa de ordenador Es entregar Una respuesta De ahí proceden Todo el tema de las alucinaciones Es decir, aunque el programa No tenga toda la información En su objetivo De generar Una nueva generación Inventa lo que le falte Está en la propia naturaleza Está en la naturaleza del algoritmo, correcto Estamos tratando con algoritmos Que son, vamos a decir Excesivamente Amables, vamos a decir ¿Por qué? Porque su naturaleza La construcción es así Es querer contentar A la persona que le hace la pregunta Es dejarte satisfecho Es buenista Es todo eso Y eso no se puede cambiar Se puede restringir, pero no se puede cambiar En este tipo de algoritmos En los generativos Tenemos un problema Tenemos un problema, efectivamente Tenemos un problema, ¿por qué? Porque el algoritmo no entiende De las intenciones De la persona con la cual dialoga Y si la intención de la persona con la que dialoga Es una intención malvada Es una intención malvada El algoritmo por sí mismo No es capaz de resolver eso Entonces las restricciones que le han establecido Son las únicas que pueden salvar esa situación No hay más Claro, pero si este algoritmo No es capaz de evaluar Las consecuencias que puede tener Su respuesta ¿Quién responde? Claro, no hay conciencia Es decir, tú estás tratando con un programa De ordenador Que no tiene conciencia ¿Qué es lo que se ha conseguido en los últimos meses? Que tenga algo de memoria Que ya es mucho Antiguamente no había ni memoria Ahora por lo menos tiene memoria ¿Eso qué significa? Que si durante la conversación que tienes con el programa Le hablas de algo Que anteriormente ha aparecido en la conversación Efectivamente El programa lo usa Eso ya es un avance Ha ampliado su contexto Ha ampliado el contexto, correcto El contexto ahora es muy amplio ¿Por qué? Porque como estos modelos Están usando ordenadores Terriblemente potentes Pues el contexto pueden ser Más o menos, digamos Como mil páginas Para que nos hagamos una idea Lo cual es mucho contexto Pero repito Eso que puede parecer Volumétricamente Una cifra impactante En términos de inteligencia humana Es poco significativo Es poco significativo Pero eso nos lleva a una pregunta importante ¿Quién es el responsable De esas contestaciones? Eso es una pregunta muy buena Que ya está respondida En la propia historia de la informática Daros cuenta Que llevamos 70 años De historia de la informática Más o menos Desde principios de los 50 Vamos a poner esa fecha como arranque De los programas de ordenador En esos 70 años de historia Ya se planteó Qué responsabilidad tenían Los programas de ordenador Y ya digamos Los legisladores Los legisladores Han establecido Que un programa de ordenador No es responsable de nada No puede ser Eso no es posible ¿Quiénes son los responsables? Las personas y o las empresas Titulares de esos programas Esos son los únicos responsables Entonces eso qué quiere decir Por ejemplo En sistemas médicos Que son los más delicados Que tenemos hoy en día ¿Quién es el único responsable De un sistema médico? El médico que atiende ¿Quién es el único responsable Aunque ese médico Haga uso de unas máquinas Y unos programas de ordenador Con independencia Son herramientas Exactamente Son herramientas Con lo cual Efectivamente la herramienta Imaginad que es defectuosa ¿Vale? Pero con independencia De lo apropiado O defectuosa Que sea la herramienta La responsabilidad Se imparca en un ser humano En este caso El médico Que atiende ese caso Es problemático ¿Vale? Luego efectivamente El médico El hospital Podrá pedir responsabilidad A la empresa Que ha construido la herramienta Pero eso ya es una cosa Interna ¿Me entendéis? De cara a A la relación con el paciente El médico Es el responsable Con ese paciente Y Y todo lo que el paciente Considere solicitar Como daños y perjuicios Pues se los solicitará Al médico Que en realidad será Al hospital Dentro del cual está ese médico Básicamente ¿Vale? Entonces No se piden responsabilidades A los programas de ordenador Se ponen evidencias En relación a los programas Y se ve Este programa No ha funcionado bien ¿Vale? Pues se va a exigir responsabilidades En general Al titular humano De ese programa Siempre Claro Siempre Y aquí tendremos mucho que aprender Porque yo creo que todavía No vemos esto Como una herramienta Lo vemos como no Si a mí me lo ha dicho esto A mí me lo ha dicho el ordenador Pues La verdad Claro, efectivamente Pero es una herramienta Y eso es lo que Intentamos trasladar En estos programas Es decir Oiga La IA es una herramienta Como lo han sido ¿Vale? Los programas Que han venido anteriores Es una herramienta De una naturaleza Distinta A los programas Que hemos tenido hasta ahora Pero sigue siendo Una herramienta Y lo seguirá siendo Durante unos cuantos años Entonces Es posible Que efectivamente En un futuro Haya un cambio cualitativo Pero eso está por ver Y todavía Nos encontramos Con programas de ordenador Y a un programa de ordenador No le puedes exigir Ninguna responsabilidad Nunca Se ha hecho en 70 años Y no va a ocurrir ahora Claro Pero esa personificación Es una herramienta Hacia la IA Es interesante Para esta gente Que has comentado tú antes Que son Los que hacen literatura Sensacionalista Para sus diarios Y prensa Y es mucho más atractivo Eso es La prensa Carga contra la IA Y todos los titulares Pues son Como muy sabrosos Y como que parece Que la IA Tiene una responsabilidad Y se le ha de imputar No La IA es un programa de ordenador Habrá que ver Cómo se le ha planteado A la IA Esa situación Porque eso ha sido Un ser humano No ha sido La IA por sí misma ¿Me entendéis? Y la IA ha dado una respuesta Condicionada Por lo que le ha planteado Un ser humano Y es posible Que ese ser humano Le haya planteado una trampa No una situación Convencional Entonces claro Si tú presentas una trampa Y vas buscando Tres pies al gato Al final La inteligencia humana Vence Al programa de ordenador Todavía sí Ya veremos en el futuro Pero De momento lo vence ¿Por qué? Porque el programa de ordenador Tiene una responsabilidad Con más limitaciones El ser humano Es mucho más amplio Y más si ese ser humano Ya está buscando La manera de encontrar Los tres pies al gato Claro Y los humanos Que somos muy dados A dejar la responsabilidad A otros Pues aquí Muchas veces se ve Que tenemos la ocasión De que la toma De las decisiones La tome otro Que en este caso Es un programa de ordenador Pues ya se han dado casos Hay historias Al razonamiento del mundo De que Se ve que Esto no funciona Pues en Varias Policías En Estados Unidos Que se Que se deja La toma de decisiones O una inteligencia artificial Para que decida Si una determinada persona Pues el porcentaje De la probabilidad Que tiene De ser reincidente O no Y como estos sistemas Pues utilizan Sesgos De raza De De Sociales Y demás Pues al final Tampoco son Vale Vamos a hablar Un poco De ese tema De los De los Aprovechando Ya lo que estás diciendo Vamos a ver Los programas de ordenador Nunca han sido perfectos Nunca Eso no existe Todos los programas de ordenador Tienen fallos Todos Estadísticamente Hay un fallo En cada 100 líneas De código fuente Aproximadamente Estamos hablando De programas de ordenador Que tienen millones De líneas de código fuente Lo cual quiere decir Que hay docenas De miles de fallos Eso ya Por la propia construcción Y eso no ha cambiado Hasta ahora Es decir No sé si en el futuro Esto mejorará Pero de momento Seguimos teniendo programas Que tienen fallos Y los de la inteligencia artificial No es que tengan fallos Sino que sus fallos Se ven multiplicados Por la maledicencia De la prensa Es decir Que cada Cada pequeña Cosita que hacen Es absolutamente Es un drama Es un drama Efectivamente O sea Parece Que el mundo Se va a detener Debido a algo Que ha ocurrido Luego Eso por una parte Los errores Siempre han existido Y van a seguir existiendo En segundo lugar Los programas De inteligencia artificial Son de naturaleza Estadística Y probabilística Y eso Añade todavía Más Voy a decir Fallos ¿Por qué? Porque a diferencia De los programas imperativos Donde esto es blanco O es negro Aquí lo que te van Es una probabilidad De que algo sea cierto Un 80% Un 90% Pero es una probabilidad Y esto Todos debemos entenderlo Por eso Al final Cuando Podemos pagar Un precio Altísimo Debido a esto Entonces La inteligencia artificial Siempre Siempre Debe estar Bajo la supervisión humana Mayor o menor Que es muy tentador Sí Efectivamente Es muy tentador ¿Por qué? Porque es muy cómodo Porque por la ley Del mínimo esfuerzo Dices Ah Si ya la IA Me ha hecho este trabajo Me interesa No hacer más trabajo Sobre esto Correcto Entonces Tú por el mínimo esfuerzo No lo revisas ¿Vale? Pero es que Puede haber fallos En esa respuesta Y ya somos conscientes De ello Pero aún así Parece que esa ley De mínimo esfuerzo Ese Errar es humano Y volver a errar En lo errado Eso sí que es muy humano ¿Vale? Entonces ¿Qué es lo que sucede? Pues que Todo lo que No se supervise En el IA Es susceptible De meternos en un lío Todo Luego Lo que nos ahorremos En esfuerzo inicial Los seres humanos Lo tenemos que compensar En revisión ¿Veis? Muy precisa Porque hay que ser un experto Para revisar Lo que una IA Te está diciendo Porque si no ocurren Cosas Como por ejemplo Que en un juicio En Navarra Un abogado presenta Una serie de alegaciones Y de Y de documentación De casos jurídicos Que bueno El juzgado Se queda sorprendido De lo bien Alegado que está Pero cuando se revisan Los casos Resulta que Una de las Leyes que se Utilizan Utilizan Para alegar No es de la Legislación española Es de la Legislación colombiana No puede ser Es decir No se puede aceptar eso Pero Pero claro Como todo parece Tan perfecto Porque es un resultado De una IA Efectivamente El abogado Usó la IA Lo vio todo Tan maravilloso No lo revisó Pero claro Las otras partes El señor juez Y la parte contraria Sí que lo revisan Entonces claro Ha habido un apercibimiento A este abogado Que ha corregido Inmediatamente Ha reconocido el error Y de momento No ha ido a más Pero ya ha dejado Un precedente En la legislación española Que hasta ahora Existía Este tipo de situación En otras legislaciones Que había ocurrido En primer lugar En Estados Unidos Pero como ahora ya La IA Está al alcance De todos Y esto Pues nos hace Una reflexión adicional Una cosa es Que hagas El uso De la IA Para digamos Algo Metafórico Que no es del mundo Real Por ejemplo Voy a hacer una poesía Vale, perfecto Voy a hacer una poesía Nadie Digamos Va a sufrir Nada por lo que Por esa poesía Vamos a decir Entre comillas ¿No? Pero otra cosa Es que un abogado Lo use En un juicio Ahí Hay consecuencias ¿Eso qué quiere decir? Que una IA genérica En ningún caso Se debe utilizar En un entorno profesional Jamás Claro Entonces porque aquí Generando un entorno Personalizado Con la legislación española Como sería un GPT Ahí no se podría salir Ahí por lo menos Ya no te sales ¿Me entiendes? Sabes que La IA que estás utilizando Ha sido entrenada Exclusivamente Con la legislación española ¿Y eso quién te lo garantiza? El fabricante De ese ejemplar De inteligencia artificial Que te va a cobrar Una cantidad Superior A la de una IA genérica Por utilizar Pero a cambio Te garantiza Que hay un entrenamiento Apropiado Para un uso profesional Entonces Cuando Cualquier uso Profesional Solo debería Estar Al amparo De IAs Personalizadas Para ese uso profesional Claro Para minimizar O limitar Los errores Pero no Para excluirlo De todo Muy bien Claro, claro Decir Recordar Los fallos No van a existir Por favor ¿Vale? Es decir No existen Los programas De ordenador Perfecto Yo de hecho En mi trayectoria Profesional Que llevo ya aquí Prácticamente 40 años De trayectoria Solo ha habido Una vez en la vida Que me salió Un programa Perfecto Una vez Y creo que fue Por casualidad Para poder decirlo Oye Hubo una vez Que me salió Un programa Perfecto De dos líneas De código Menos de 100 Menos de 100 líneas Era un poquito Más grande ¿Vale? Voy a decir Que tenía En torno a mil líneas De código fuerte ¿Vale? El programa pequeño Pero aún así Quiero decir Incluso los programas pequeños Los fallos son normales ¿Entendéis? Pero no Hubo una vez Sí, sí En mi vida Que me salió Un programa Sin fallos Y dije Ahí va Esto es inaudito Y lo digo Es inaudito Es decir Los programas de ordenador Siempre Siempre Tienen fallos Siempre ¿Me entendéis? El problema es Que en el caso De la inteligencia artificial Lo que entendemos Por fallos De un programa de ordenador Se multiplica Por millones ¿Por qué? Pues porque hay unos medios De comunicación Que les conviene Usar Este tipo de noticias Y cualquier cosita Pues se convierte En un drama Y dice Oye Es que resulta Que un programa Que reconoce rostros Reconoce bien Los rostros de los blancos Pero no las personas De otras razas Claro Normal ¿Por qué? Porque ese programa Ha sido entrenado ¿Con qué? Con rostros de personas De raza blanca Nada más Y todo lo que un programa De ella no ha sido entrenado ¿Cómo va a funcionar? Mal Va a funcionar mal Muy mal Exactamente El sesgo Es consecuencia De los datos Que hemos utilizado Efectivamente Es decir Hay un entrenamiento En el caso de la IA Es muy largo Muy costoso Y por mucho entrenamiento Que hagamos De verdad Es que Los casos de prueba De un programa de ordenador Son infinitos ¿Me entendéis? Infinitos Es decir No hay manera De poder cubrir Todas las opciones A probar En un programa de ordenador Y en inteligencia artificial Que además Se incorpora La parte estadística Pues peor todavía Es decir El programa que nos encontramos Es peor Entonces Tenemos unos programas En su infancia Voy a decir Son Las primeras generaciones De programas de ordenador Inteligencia artificial Puestas de cara al público Y ya le estamos pidiendo Un programa de ordenador Un programa de ordenador Que tenga un nivel De exigencia Como si fueran programas Que llevaran Treinta o cuarenta años Funcionando Y esto Es pedirle Peras al olmo Porque esos treinta O cuarenta años De funcionamiento Lo que conllevaría Serían Más casos Más pruebas De situaciones Para entrenar el modelo ¿No? Que sería La propia experiencia De los usuarios Con lo cual El modelo iría aprendiendo Correcto Cada tiempo Y tendría en cuenta Más cosas Ahora bien Debemos tener en cuenta Que No es un problema No se puede representar Todo Es decir Es que Lo que no entendemos Es que la casuística humana A día de hoy Es demasiado compleja Para los programas Incluso de Inteligencia artificial Generativa Es decir Los programas de ordenador Pueden resolver bien Los casos más habituales Pero los casos excepcionales Se resuelven mal Esto se nota muy bien En los sistemas De los robotaxis En los sistemas De tipo Tesla Y similares Es decir Los sistemas de conducción Autónoma Son un ejemplo Muy claro De que Un pequeño fallo En un programa De conducción autónoma Tiene como consecuencia La pérdida de hidromona Si tú estás circulando Por carretera Pues normalmente El vehículo autónomo No tiene mucho problema Pero cuando te metes En una ciudad Pensad en una ciudad Como Madrid Que tiene un tráfico Que yo defino Como caótico ¿Vale? Que no es como Edimburgo Que son lugares Más circulados Donde la gente Conduce de otra manera No, en Madrid Somos caóticos Bueno, no te digo nada Yo cuando recuerdo Cuando estuve En el Cairo Casi Bueno, yo no conduje Me prohibieron conducir Usted es extranjero No debe conducir En el Cairo ¿Vale? O sea Esto que quiere decir O en Roma Por ejemplo Yo recuerdo todavía Las plazas Con los pasos de peatones En Roma Que yo era Una convivencia Entre los coches Y los peatones Que yo me quedé Absolutamente Asombrado Quiero decir que La inteligencia artificial Está mal preparada Para todo eso ¿Me entendéis? Está mal preparada Son situaciones Tan complejas Y hay tantas Que la atención A las excepciones Puede hacer Que la norma Deje de ser atendida Ese es el problema De que si tú dices Tengo 100 situaciones Normales Y 40 situaciones Excepcionales Dices Vale, voy a programar Las 40 situaciones Excepcionales Pero el esfuerzo Computacional De atender Esas 40 situaciones Puede hacer Que la norma Deje de ser Correctamente atendida Y eso es mucho peor ¿Y un humano? Que no tiene Todas las experiencias Metidas Pero en cambio Sí que tiene La capacidad De resolver En un segundo Una situación Límite Pero hablamos De un cerebro Que ha sido Puesto a prueba Durante millones de años Es que no somos Conscientes de esto Es decir El cerebro humano Es el órgano Más sofisticado De la creación A día de hoy ¿Vale? A día de hoy Mientras que No encontremos vida En algún otro lugar Debemos entender Que el cerebro humano Es el culmen De la evolución En la vida Digamos No hay nada Que se parezca A un cerebro humano Ahora nosotros Intentamos Hacer pálidos reflejos A través de algo Que llamamos Cidad generativa Pero son pálidos reflejos Un cerebro humano Es un ente Absolutamente De momento Inimitable Parece que sí Que se puede imitar Pero es Es una apariencia Es una apariencia Realmente no hay No hay parangón Y somos Ocho mil millones De personas En la Tierra Quiero decir Que eso es Una capacidad Que no ha existido En la historia De la humanidad No ha habido nada así Claro Y la IA lleva cuatro días Como quien dice Al final Lleva dos años Es una recién llegada Y todavía Son pruebas De laboratorio Muchas veces Todavía El escenario real Lleva muy poco tiempo Son pruebas de laboratorio Y muchas veces En un laboratorio Nosotros ocurren Muchas situaciones Reales A los primeros Tesla Que circulaban Pues les daba por meterse Debajo de los caminos De bomberos Un enorme bicharraco Rojo gigante Y el Tesla se metía Debajo Con las consiguientes Consecuencias A nadie se había ocurrido En el laboratorio Probar eso Me llamó mucho la atención Cuando los Tesla Que reconocían ya Con cámaras de vídeo El entorno Ya no utilizaban Los LIDAR Los desestimaron De repente Bajaban en el ocaso La velocidad Y es porque El sol Cuando se ponía De color naranja A lo lejos Lo identificaban Como semáforo námbar Y entonces reducían La velocidad Es decir Lógicamente Supongo que lo habrán corregido Sí, pero fíjate Que cada una De esas situaciones Que mencionáis Tiene que ser Identificada Y luego hay que cambiar Un programa Que tiene ya Docenas de millones De líneas de código ¿Entendéis? Y no romper otra cosa Cada cambio De esos que se hacen Claro Puede romper otra cosa Perfectamente Puede romper otra cosa Es decir Son programas Tan complejos Que cada vez Que tocas En una esquina Puede que en otra Dentro de un tiempo Aparezca un rotor Sí, sí, sí Entonces Estamos hablando De cosas Que son realmente Complicadas Aún así Hay que decir Que los sistemas De conducción autónoma Pues cada vez Son mejores ¿Por qué? Porque se está poniendo Mucho dinero Alrededor de eso Entonces Con todas Esas cantidades De dinero Cientos de millones De dólares Pues todo eso Al final Puesto en Un proyecto Donde hay Una organización Que lo que está pensando Es En corregir Una serie de miles De errores Que han aparecido Pues al final Eso se acaba Se acaba resolviendo ¿Pero por qué? Porque hay una cantidad Ingente de dinero Que permite Resolver todo eso Eso Los propios vehículos Igual que utilizan El sistema En este caso De inteligencia artificial Para circular También cuando están Circulando La utilizan Para retroalimentarla ¿No? Y que siga aprendiendo De nuevas situaciones Eso es así Es decir El módulo de aprendizaje En un sistema de IA Siempre existe Siempre Eso que quiere decir Que cada vez que nosotros Usamos El chat GPT Y le hacemos una pregunta Esa Esa información Entrena Al propio chat GPT O sea Que estamos siendo Digamos Probadores De una tecnología Y como lo hemos Adoptado De una manera Tan intensa Y tan furibunda Pues resulta que Estamos consiguiendo Que estos sistemas Pues cada mes Sean cualitativamente Distintos Y el ser distintos Lo que significa Básicamente es Que cada vez Pueden resolver Más Voy a decir Problemas Relacionados Con las personas Pero es una Responsabilidad nuestra Somos nosotros Los responsables de eso En ningún caso En ningún caso En ningún caso Porque es que Esto vuelvo otra vez Al tema jurídico Es decir Nosotros somos Vamos a decir Probadores Pueden decir Inconscientes Sí ¿Vale? De esto Aceptamos Que usamos una IA Que puede generar Respuestas erróneas Os recuerdo El mensaje que aparece Hoy en día En todas las Interfaces De las inteligencias Artificiales Como que es un sistema Que puede responder De forma errónea Y en consecuencia Es un juego Al que Nos prestamos Porque nos conviene Porque a fin de cuentas Lo que obtenemos De estas IAs Es algo que Lo podemos utilizar Para muchas cosas Entonces No somos responsables No Los responsables Son los titulares De ese programa Única y exclusivamente En este caso OpenAI En el caso de ChatGPT ¿Vale? No hay más responsable No hay más ¿Y cómo se puede reducir Estos sesgos Que introducimos Que tienen estos sistemas Con más datos De entrada O hay otras formas De poderlos reducir? Con más pruebas Con más pruebas Es decir Tú dices Mira yo es que resulta Que hemos descubierto Que las personas Por ejemplo De la Polinesia Pues no son Apropiadamente Tratadas ¿Vale? Pues entonces Se crean casos de prueba En relación a las personas De la Polinesia Y Pero claro Es porque alguien Lo ha descubierto Es decir No puedes pretender Que la propia IA Descubra Sus carencias No porque no tiene conciencia Y es lo primero Que hemos dicho hoy Eso no existe ¿Vale? La conciencia La tenemos los seres humanos Y somos los seres humanos Los que nos damos cuenta De las carencias Entonces Esos seres humanos Que informamos A OpenAI A través de un mecanismo Que tienen establecido O los propios ingenieros De OpenAI Con una red De colaboradores Que tienen Quienes ya digamos Poseen los mecanismos Para intentar Ampliar El alcance Del funcionamiento De las IAs Pero No podemos pretender Alcanzar La perfección Eso no existe Esto es curioso Porque para darte cuenta De esto De que está Ejerciendo un sesgo Se tiene que dar Una circunstancia Casual Sí En Leyendo Una historia Hablaba De que Habían denunciado A una entidad Bancaria Porque a la hora De asignar Los préstamos Utilizan mucho La Indirección artificial Desde hace mucho tiempo Y Para ver el riesgo Las entidades bancarias Bueno pues Una pareja Había pedido Uno de ellos David Creo que se llamaba Un préstamo Había Una cantidad De crédito Altísima La mujer Que tenía Las mismas sensaciones Era Vamos Hacían Declaración compartida Conjunta Perdón Tenían El mismo tipo de ingresos La misma situación Lo único que cambiaba Es que Ella pertenecía A Un East Estauro Est battlon Como darse una situación parecida, por ejemplo, en la escuela universitaria de medicina o los forenses o anatomistas o ginecólogos, que a lo mejor necesitan que la inteligencia artificial en ese campo, que les dé respuestas y no lo que te diga que eso es por pudor, por tal. Y lo van a conseguir. Igual que ellos en ese mundo específico y dentro de esas necesidades y solo dentro con esos fines profesionales, pues si ellos pueden acceder a esa información, ¿por qué nosotros no? No, no, lo que está claro y por lo que dice Alfonso es que, por una parte, a la hora de reivindicar y mientras se pueda, hay que hacer lobby, aunque él no ya lo tenga, si sea muy difícil, que él también lo ha comentado. Y por otra parte, ir experimentando con iniciativas personales. Privadas o restringidas y, lógicamente, pues, ¿quién de la mejor? Una que esté hecha exactamente y funcione mucho mejor que las genéricas para nuestros intereses. Hay que darnos cuenta que el problema que tenéis ahora mismo en estos colectivos, digamos, con algún tipo de discapacidad, es que si se aplica la ley tal como está ahora mismo descrita, no hay opciones. Sí, efectivamente. Por eso tenéis que hacer lobby, ¿me entendéis? Es decir, tenéis que hacer lobby para conseguir opciones. Para que no haya una interpretación tan estricta y, gracias a esa relajación, existan excepciones controladas, reguladas, que permitan beneficiarse de la tecnología para que la calidad de vida mejore. Correcto. Que tenéis derecho a eso. Por supuesto, por supuesto. A mí me cuesta que las instituciones, tanto nacionales como europeas como mundiales, tanto de personas ciegas como de personas con discapacidad, comienzan a... a manejar este tema y, lógicamente, lo están viendo como una cuestión que hay que abordar. Y creo que, en este caso, y al tratarse de una necesidad real, harán lobby. Porque, si no, lo tenemos claro. Yo lo que sí que tengo clarísimo es que esto no le interesa o no le importa a ningún legislador, ni a... ni comisión, ni nada de la Unión Europea, ni de otros sitios. Es decir, es una cuestión menor. Ahora, no les preocupa. Coincido con eso, efectivamente. La preocupación ahora mismo del legislador está en el desconocimiento en el ámbito de la propia IA. Es decir, estamos en una frontera tan novedosa que nadie sabe hacia dónde nos va a llevar. Entonces, bueno, existen casos y colectivos concretos, pero que yo creo que es un buen momento para que se organicen esos colectivos y para que defiendan unos intereses que les permita usar la tecnología para tener una forma de vida diferente a la que tienen ahora. Lógico. Claro. Porque, en muchos casos, y hablándolo con otros compañeros y compañeras ciegas, no es una cuestión que nos describan cómo estamos haciendo ahora el entorno y decir ¡Ay, qué bien! ¡Mira qué bien lo hace! Oye, perfecto, porque aún estamos un poco alucinados por esa capacidad que tiene una máquina de describirnos el entorno. Es decir, es esa utilidad práctica en el día a día que le podemos sacar para cuestiones tan importantes como podría ser el seguimiento de una lesión o una herida. Que necesitamos mirar para informar. Pues somos un matrimonio de personas ciegas, tenemos un hijo, le han hecho una operación, queremos ver cómo está la herida y necesitamos recibir esa información. Es decir, si realmente está en una zona delicada, como comentó antes Arturo, la IA nos va a decir que no, que eso son unos genitales o son una zona tal o son tal y no nos lo va a permitir. Cuando en nuestro caso no tenemos otra alternativa de mirar íntimamente, la idea de nuestro hijo, por poner un caso. Y el que dice esto es irme a un acto, por ejemplo, escénico, como puede ser una obra de teatro, donde porque lo marca el guión tienen que salir todos los actores y actrices en topless. Y de repente yo necesito una descripción y me va a decir que no, que se observan, como hoy lo dicen, personas en una situación poco adecuada y que no lo puede describir y que no lo va a poder hacer. Bueno, pues en mi caso lo único que pido es poder ver lo mismo que está viendo, el que no tiene problemas visuales y está sentado en la butaca de al lado. Que son circunstancias del día a día que parece que no, pero bueno, que son importantes. Es visión. Tenéis que hacer lobby, tenéis que hacer mucho lobby, me temo. Te haremos caso. Y organizaros. Organizaros para que vuestros derechos... Que vuestros derechos sean escuchados. No veo otra manera de poder crear un hueco suficiente para que se permitan algunas excepciones en instancias controladas. No veo otra manera de poder albergar eso. Un producto comercial no podéis plantear que tenga esas características. Y tú hablas de lo que son las IAS privadas, ¿no? En este caso. También has hablado... Son clandestinas, ¿no? Ese es el gran problema, veréis. Hoy en día, tal como hablábamos al principio, las IAS se han empezado a colocar restricciones, pues ahora se ha generado un término que son las IAS libres. ¿Qué es una IA libre? Es una IA que funciona sin ninguna restricción. Hay gente que es grandísima amante de la libertad. Hasta unos extremos, verdaderamente, voy a decir... Superlativos. Sí. Y existen IAS en el ámbito privado que son libres. Que no tienen ninguna restricción. ¿Qué puede obtenerse de una IA así? Pues si se usa para bien, alguien va a resultar beneficiado. Pero si alguien la usa para mal, puede hacer mucho daño a través de las recomendaciones que ofrezca a seres humanos que las lleven a la práctica. Entonces, claro, si pensamos en un colectivo de personas malvadas, ¿qué pueden realizar con una IA libre? Pues cosas terribles. Cosas terribles. Por ejemplo, que la ciberdelincuencia se multiplique a través de una IA de estas características. Pandemias de ciberdelincuencia, por ejemplo. Sí, sí, el crimen se organiza y se organiza con esta herramienta tan potente. Efectivamente. Y que no pone puertas al campo, ¿no? Sí, los cuerpos y fuerzas de seguridad del Estado, policía, guardia civil y en general las policías del mundo, pues tienen un inmenso reto para ver cómo van a poder hacer frente a todo este tipo de actividad delictiva basado en IAS libres. Pero siempre va a haber algún país, alguna zona en el mundo donde alguien con malas intenciones... Claro, el problema es que hay estados... Hay estados que promueven todo esto. Siempre va a haber. En Europa incluso, ¿eh? Hay estados europeos que promueven esto. ¿Y qué haces con eso? Sabes que uno de los lugares donde más ciberdelincuencia se produce es en Estados Unidos. La cuna de la libertad. Y cómo restringes eso. ¿Algo que es algún servicio que va a través de internet? A día de hoy no se ha podido restringir porque los estados tienen intereses puestos. Y si hasta ahora no se ha podido... Pues no, malamente se va a poder conseguir. Pues sí. Claro. Malamente. Entonces, esto que, por ejemplo, Meta dice que ha liberado, y es verdad, que es así, una llama 3.2 para ejecutarla en local, ¿vale? Que es una inteligencia artificial que ocupa 23,23 gigabytes. No sé si con el corpus y tal. ¿Aquí ya irían incluidas las restricciones? No. ¿O a ti te estaría...? No. Ahí no están, ¿no? No. Claro, ese es el problema. Por lo cual te han dado una bestia, por domado. Te han dado una bestia, correcto. De hecho, ya hay delincuentes usando llama. Ya hay delincuentes usando llama. Es decir, el problema es que son bestias pardas que, interconectadas con el mundo real, pueden causar una serie de problemas masivos. Por eso hablo de pandemias, pandemias digitales, que pueden causar enormes problemas. A la sociedad actual. Enormes problemas. Un recurso gratuito que te lo puedes descargar ahora mismo, de forma sencilla, ya en cuestión de menos de una hora, ¿no? Así es. Así es. Entonces, ¿qué pasa? Que el potencial para hacer daño, pues es grande. Entonces, claro, la policía tiene que disponer de mecanismos para poder luchar contra todo eso. Y no es un desafío sencillo, ¿eh? No es. No es un desafío sencillo. Claro, el otro día nos comentabas que la policía siempre va por detrás del crimen. A ver, los malvados siempre van por delante. Recordad que siempre tienen la iniciativa. O sea, si un ladrón va a entrar en una casa, el que tiene la iniciativa de entrar en la casa es el ladrón. No el dueño, ¿me entendéis? Es decir, el malvado siempre tiene la intención inicial y el que recibe esa acción no sabe nada. Entonces, claro, estamos un poco a expensas. De lo que quieren hacernos. Nosotros ponemos ciertas medidas de seguridad, pero ningún sistema es invulnerable. Una cosa es que un sistema sea seguro y otra diferente es que sea invulnerable. Los sistemas invulnerables no existen. No existen. Claro. No creo equivocarme con lo que voy a decir. Alfonso, tú que entre muchas cosas eres especialista en ciberseguridad, sobre todo en grandes catástrofes, ¿es así? Sí. Vale. Ahora con la Dana de Valencia. Yo... Yo... Yo soy de Valencia. Me escandalicé porque parece ser que enseguida, es decir, pero no tardó ni un día o dos días, el cibercrimen empezó ya a meterse en redes sociales y a comenzar a manejar todo el cotarro, ¿no? Sí, porque es tan fácilmente parametrizar un sistema para que empiece a causar daño a otras personas. Gente bien intencionada, ¿no? Que dice, oye, mira, yo quiero donar ayuda a la gente de Valencia. O sea, claro, si tú ves un anuncio diciendo, oye, aquí te acogemos ayuda, pues puede que ese anuncio no sea legítimo. Pero tú eres bien intencionado, ¿por qué? Porque los seres humanos somos bien intencionados, por naturaleza. Y entonces, claro, ha habido delincuentes que se han aprovechado de esto. Lo han hecho de forma muy... En general, toda una parafernalia, ¿no? O sea, parecían todo, todo queda cierto, las imágenes, todo... Todo, porque es un clon. Clona algo que es... Que es... Legal. Legal. ¿Me entiendes? Claro, clonar un conjunto de imágenes de un giga o dos, eso es facilísimo hoy en día, porque tienes programas que extraen toda la información y la colocan en otro sitio y es un clon. Todo lo digital es clonable con enorme facilidad. Con enorme facilidad. Entonces, es rápido, es eficaz en el sentido de que tú te crees la apariencia de lo que estás viendo ahí. ¿Por qué? Porque está clonado de algo que es real, que es bueno. Pero es tan único. Instancia que es mala. Y tú no eres capaz de distinguir la instancia buena de la mala. ¿Por qué? Porque la apariencia es idéntica. Es idéntica. Nos encantaría que un día nos hablar de ciberseguridad y de todo este tipo de cuestiones, porque veo que es un ámbito muy amplio también, ¿no? Lo es, lo es, sin duda alguna. Lo es, sin duda alguna. Sí. Muy bien. Genial. Pues por ir recopilando un poco lo que hemos visto hoy, ya vamos terminando, ¿no? Perfecto. Pues ha sido un placer acompañaros en esta sesión. Y nada, confiamos que en el futuro... En el futuro pues haya más posibilidades. No, ya una nota un poco de esperanza para terminar. A ver, la esperanza es... Sí, la esperanza es algo que no podemos ni debemos perder. Es decir, ¿estamos a merced de la iniciativa de los delincuentes? Sí. Pero los humanos reaccionamos con agilidad y con rapidez. Es decir, el mundo sigue funcionando, ¿vale? Pese a todas las dificultades que existen, pues los seres humanos encontramos maneras, de ir mitigando los problemas y resolviéndolos a la medida que podemos. Es decir, la calidad de vida que tenemos hoy en día en el mundo occidental no existía hace 80 años. ¿Recordáis cómo vivíamos a 80 años en España? De nuestros abuelos, que os he encontrado. La pobreza y la miseria que había. Era terrible. ¿Vale? Entonces, estamos bien. Ahora, ¿debemos prepararnos para las nuevas amenazas? Sí. ¿Y debemos ser conscientes de ellas? Sí. ¿Y debemos luchar todos codo a codo para que no prosperen? Sí. Eso es. Muy bien. Entonces, resumiendo un poco, la ética no es de la inteligencia artificial, es de nuestro comportamiento, que es el que debe ser ético y hacer un uso razonable y medido y bien intencionado de la misma. Esto es así, ¿no? Es así. Todo lo que ocurra no es culpa de la IA. Es decir, somos nosotros... Somos los humanos quienes hemos manipulado a la IA. Porque es que la IA es un programa ordenador. ¿Pero de qué estáis culpando un programa ordenador? La IA es tecnología y como tecnología que es, es una herramienta. Una herramienta. Nosotros somos los responsables de un buen uso de esa herramienta. Eso es. Es así. Luego que las restricciones nos protegen, pero también nos pueden perjudicar. Y con lo cual hay que reivindicar y luchar también por ellas cuando la causa que queremos obtener es positiva y buena. Y bueno. Básicamente esto es lo que hemos tratado en todo este episodio. Y que hay esperanza, pero la debemos construir también. Es decir, debemos construir esa esperanza bajo las nuevas circunstancias que se nos están abriendo. Correcto. Sí. Y que hace falta lobbies de grupos minoritarios que actualmente no se tienen en cuenta. Porque ahora mismo se está creando un poco la legislación al respecto de todo esto. Y claro, al principio la legislación es muy genérica y se tiene en cuenta a la inmensa mayoría. Pero a los grupos minoritarios inicialmente no se tiene en cuenta. Y ahora es el momento también de intentar estar ahí, asomar la cabeza para que... De reivindicar vuestra situación y de ver las maneras de que la tecnología os ayude. Por supuesto. Pues Alfonso, mil gracias. Un placer. Muchas gracias. Hasta otra ocasión entonces. Y seguimos escuchándonos y teniendo estas tertulias tan entretenidas y tan interesantes. Que aprendemos y nos divertimos. Muy entretenido, muy bien. Pues si te parece, Ricardo, damos los medios de contacto para ir terminando. Pues sí, nuestro correo electrónico es gafotas arroba segatos punto es. Y nuestro WhatsApp para mandar mensajes de texto o de audio en el número más 34 644 640 792. Pues muchas gracias por acompañarnos Alfonso, Arturo y a mí en esta charla. Y espero que os haya gustado. Y volveremos porque esto ya es una serie. Así que nada. Continuaremos. Continuará. Hasta luego. Adiós, adiós. Hasta otra ocasión. Chao. Hasta luego. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. Chau. ¡Suscríbete al canal! ¡Suscríbete al canal!
Gafotas, cegatos y sus aparatos #5
Fecha: sábado, 14 de diciembre de 2024, a las 00:00:01
Hoy, en este quinto episodio, os traemos un tema muy interesante titulado "Zoom Essentials, grabación de audio guiada por voz", donde nos sumergiremos en el fascinante mundo de las grabadoras. ¿Por qué la calidad del audio es clave? ¿Qué hace a Zoom destacar entre las demás marcas? Nos acompañarán dos invitados de lujo: Fernando Cobo, de Mogar Music, distribuidor oficial de Zoom España, y Sara Martínez, usuaria de grabadoras de la serie Essential, quienes compartirán su experiencia y reflexiones sobre estos dispositivos tan útiles para todos, pero especialmente para el colectivo con discapacidad visual.
Descubriremos cómo la combinación de soluciones de acceso a la información y de tecnología de vanguardia son una realidad en estas grabadoras, exploraremos sus modelos más icónicos y propondremos posibles mejoras en su accesibilidad.
¡Así que ponte cómodo, ajusta el volumen y prepárate para disfrutar de una tertulia amena, cercana y llena de aprendizajes!
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Espacio de Zoom en el sitio web de Mogar Music.
Página web de Zoom Corporation.
Unboxing grabadora zoom H1, actualización y voz en español – SucDePoma.
Grabadora de voz Zoom H4 Essential, por Jose Antonio Tarazona y Enrique Varela – SucDePoma.
Demo en grabadora H6 Esential –Robin Dee canta a capela.
Créditos:
Duración: 01:10:44
Mostrar descripción detallada del logo de Episodio 5. Zoom, grabación de audio accesible.
Descripción detallada del logo de Episodio 5. Zoom, grabación de audio accesible.
La imagen muestra al personaje del logo como un reportero y una actriz en un estilo retro, destacando el glamour de la época dorada de Hollywood. El reportero lleva un sombrero fedora, gafas oscuras, bigote y auriculares grandes, sosteniendo una grabadora con la palabra "Zoom" con un diseño que une los micrófonos clásicos con elementos de control modernos. La actriz luce un peinado voluminoso clásico, pendientes largos y un collar ornamentado que complementan su vestido elegante con broche. La escena utiliza un esquema monocromático con tonos sepia, realzando el ambiente nostálgico y sofisticado.
Mostrar transcripción de Episodio 5. Zoom, grabación de audio accesible.
Transcripción de Episodio 5. Zoom, grabación de audio accesible.
Muy buenas, lo que sean, yo soy Arturo Fernández Y yo soy Ricardo Abad Y esto es Gafotas, Cegatos Y sus aparatos Podcast Bienvenidos al quinto episodio De este Tu podcast favorito ¿Qué tal Ricardo? ¿Cómo va especialmente hoy ese micro? Pues especialmente Va muy bien Y nada, y todo va bien Porque te escucho y es maravilloso Espero que esto se esté grabando Espero yo también Porque hoy precisamente La cosa va de grabaciones, de micros De audio, ¿no? Sí, de grabadoras Qué interesante Y qué importante, ¿no? Las grabadoras Yo recuerdo que al perder la visión Una de las cuestiones Que me salvó la vida fue Una grabadora que se llamaba Cuatro pistas De General Electric Que era un reproductor grabador Con el que podíamos grabar las clases Y luego de ahí Cábamos los apuntes y demás Eran cuatro pistas Y muy robusto Y bueno, fue muy importante Sí, eso es muy importante Y además es bastante reciente, ¿no? Porque fue en el siglo pasado Cuando empezó todo esto De las grabadoras Para poder grabar la voz En algún formato, que luego esto fue Brucelando, pero bueno, fue Edison, ¿no? Aquí el que empezó con ello Sí, Tomás Alba Edison Como no Y , bueno, fue el primero que inventó el fonógrafo Que era un artilugio muy curioso ¿Quieres que te comente cómo era? Sí, comentanos un poquito No nos enrollemos tampoco demasiado Porque si no podemos estar una hora y media Nosotros dos solos Y luego tenemos un par de invitados Pero un poquito sí Pues nada El... Hombre, este es por ser el primero Yo creo que merece Una mención, una extensión un poquillo más grande Pues lo hizo sobre un cilindro Y en este cilindro puso Inicialmente un papel de aluminio O una lámina Y... Pero posteriormente utilizó también cera Porque podía reutilizarlo Entonces, ¿qué hizo? Cogió un diafragma Que era simplemente Una especie de membrana Que permitía captar la vibración En este caso de la voz Esa vibración la transmitía a una aguja Y esa aguja dibujaba o grababa En el papel este de aluminio La cera del cilindro Esa vibración Luego haciendo el sistema inverso Se reproducía Entonces, esto es lo que Así consiguió grabar su primera frase Que es mítica ya Que es la de Mary had a little lamb Mary tiene un corderito Bueno, es un poquito más amplia Mira cómo suena ¿Qué te parece? ¿Qué te parece? Muy bien, genial Pues nada Este es el señor Thomas Alvaison Y nada Básicamente lo que es la grabación La historia de la grabación Podemos distinguirla por los soportes O por la forma en que esta se imprimía O grababan estos soportes El primero fue la acústica Que es esta que estamos hablando Donde entraría fonógrafo y gramófono Que esta es otra historia Sería el mismo cilindro Pero en este caso sería un disco Que rodaría sobre un plato Pero no voy a... No voy a... No voy a entrar ahí Pero prácticamente es el mismo sistema Luego, posteriormente ya Entre los años 30 y años 40 Que ya es la época de la electricidad Empiezan los magnetófonos Que esto es muy interesante Porque utilizan el magnetismo Que produce un cabezal Para organizar unas partículas Que habían en unas cintas plásticas Unas partículas de óxido de hierro De metal, de cromo De lo que fuera Y las organizaban Dependiendo de la señal de acústica Que recibían Y luego eran capaces Con otros cabezales También por un sistema electromagnético De reproducirlo Y fue muy interesante Porque gracias a ella ya tenemos Los primeros reportajes Donde hemos podido escuchar Las voces de seres muy emblemáticos De la historia Que tampoco voy a entrar a citarlos Porque es así El otro soporte Que fue muy importante Fue el soporte digital Pero antes de pasar al soporte digital Sí que me gustaría hablar de una invención O de dos invenciones Que fueron trascendentes Dentro de lo que es La cuestión del magnetófono Y su implantación en la sociedad Y que dio pie a grabadoras Más portátiles y portables Primero fue Philips Una gran empresa Que sacó la cinta Cassette Porque anteriormente la cinta Cassette Se grababa en carretes de bovina Unas bovinas enormes Que también llevan estas cintas Que he dicho que llevaban el Plásticas con el baño De óxido de hierro De lo que fuera Pero bueno Pues sacó el Cassette Que era todo esto reducido A un cuadradito Que tenía estos carretes Pero bueno En una expresión mínima Que eran capaces de llevarlos A cualquier sitio En un bolsillo cabían perfectamente Y lógicamente sacó estos Cassettes Y sacó sus grabadoras Y sus reproductores Yo recuerdo uno Que fue una revolución Porque también primero Porque fue el primero Y segundo porque nos permitió Popularizarlo Y lo pudo llevar todo el mundo Que fue la serie N Creo que era N200 o N2000 De Philips Era un reproductor grabador Bastante grande Pero portátil, portable Que se manejaba con una palanca Con la palanca En lugar de tener botones Podías darle a play Tirando hacia abajo Rebobinar o adelantar Tirando izquierda o derecha Como si fuera el cambio de marcha O un vehículo Y hacia arriba Pues te tenías la pausa O el stop Con un botoncito rojo Que tenía a la izquierda Lo presionabas y dándole a play Que era hacia abajo Podías grabar Y llevaba O un micro interno También tenías un micro externo Esto fue increíble Porque nos permitió Hacer las primeras grabaciones ¿Qué ocurre? Que igual que a cualquier persona La primera vez que se ve reflejado En un espejo Se queda atónito Sorprendido Y un poco como hechizado Eso sobre todo le pasa mucho a los niños Y a los perros Pues la primera vez que comenzamos a escuchar Nuestra propia voz Porque hasta entonces habíamos escuchado Voces profesionales y ajenas En este tipo de aparatos Lo primero que comenzamos a decir Es decir ¿Así hablo yo? ¿Esa es mi voz? Porque nadie la reconocía Pero realmente era un reflejo acústico De cómo éramos Y nada Luego posteriormente A todo esto sacaron Sony sacó Lo que sería este mismo magnetófono Reproductor, grabador Pero reducido Inventó el Walkman Sony es una empresa japonesa También muy prestigiosa Y esto permitió tener ya grabadoras Casi que cabían en una mano Esto fue a finales de los 70 En el 79, 80 Y fue maravilloso Bueno, todos los periodistas Lógicamente comenzaron a utilizar esta tecnología Porque les permitía En cualquier sitio grabar la noticia Y nada Posteriormente Comenzaron a reducir todo el tamaño de esto Y llegó ya la revolución digital Donde el soporte ya no eran Estas cintas Y entonces permitían hacer Dispositivos más pequeños Bueno, los profesionales sacaron el data Sacaron el mini disc Un montón de Bueno, de este tipo de dispositivos Que utilizaba el soporte digital Y prácticamente después de esto Llegaríamos ya casi a la época Donde estamos ahora Con informática Con teléfonos móviles Terminadas móviles grabadoras Ya mucho más avanzadas Que utilizan software muy especializado Y un soporte digital para grabar ¿No Arturo? Sí, eso es Y el soporte digital Yo creo que ha democratizado El que en casa En los hogares Pues podamos utilizar Lo que antes se utilizaba En grandes estudios O que hacía falta Equipos profesionales potentes Para hacer cosas muy dignas Pues que antes En los hogares A nivel doméstico Pues a lo mejor Podíamos hacer algún apañito Con las cintas de casete Y cosas de estas Pero con el soporte digital Pues esto lo ha facilitado muchísimo Además de que Ha venido la miniaturización Y ahora pues Cualquiera Con relativamente pocos recursos Pues puede tener un equipo Extraordinariamente bueno Y de eso hoy vamos a hablar hoy aquí Exactamente Que aparte de nuestros terminales móviles Con muy buenas grabadoras Existe otro tipo de grabadora específica Que tiene una calidad extraordinaria Y de estas grabadoras vamos a hablar Eso es Por eso pues hoy tenemos dos invitados En primer lugar Pues tenemos a Fernando Que es responsable de producto en Zoom España Fernando muy buenas Muy buenas tardes ¿Cómo estáis? Muy bien ¿Y tú qué tal estás? Muy bien Gusto de oiros y explicar A Ricardo cómo ha explicado todo Me ha encantado Muchas gracias Muchas gracias Bienvenido Fernando Gracias Y también tenemos a Sara Muy buena Sara Hola ¿Qué tal? Muy bien muchas gracias También por estar con nosotros A vosotros Bienvenida Sara gracias Pues si os parece Pues para ir un poco de lo mayor a lo menos Nos vamos acercando poco a poco Pues a lo mejor Fernando puede empezar Por contarnos cosas de Zoom Cuando se creó Un poco a qué se dedican Cómo es de grande Cuánta gente tiene Un poco cosas de Zoom Y luego vamos poco a poco Vamos acercándonos a las grabadoras Vale bueno Zoom es una empresa japonesa No tiene nada que ver con Zoom O sea Zoom es una empresa japonesa Que es un sitio de Zoom Meetings Que esto es una empresa que surgió hace poco Para bueno pues tipo lo de Skype Pero ahí ya en la pandemia Como estábamos todos encerrados Pues se vino un poco arriba Y empezó a crecer y tal Y entonces bueno pues Todavía tenemos confusiones con Zoom Y con algunos clientes que no Por correo electrónico nos piden la factura De Zoom Meetings y tal Estas cosas que estamos viviendo Pero nosotros Vamos Zoom se fundó en 1983 Empezando a fabricar efectos para guitarra Precio económico Lo que era Japón en los 80 Vale Que decíamos Pues ahora que decimos Que producto más malo porque es chino Pues antes decíamos Que producto más malo porque es japonés Y es Y de hecho se ha ido moviendo La fabricación y los costes por toda Asia Bueno es otro debate El caso es que empezaron fabricando Procesadores de guitarra digitales muy buenos Con cajas de ritmos incorporadas Afinadores Un montón de efectos y tal Y bueno pues fueron creciendo y ampliando Y con un I más D Empezaron a imaginar cosas Y podríamos hacer esto Podríamos hacer lo otro Hasta que en el 2006 lanzan la primera grabadora Que es la primera edición de la archifamosa H4 Que ha tenido varias evoluciones Hasta llegar a la moderna Que es la H4 esencial Y bueno y a partir de ahí ya Empezaron a trabajar con previos de audio Con preamplificadores Con conversores Y tal Duales a digital Y digital a duales A DDA Pues ya empezaron a tirar por más cosas Por grabación Sobre todo más enfocado Al tema músico y doméstico Me explico O sea grabadoras O sea mesas de mezclas grabadoras De 16 pistas De 8 pistas Para que los músicos pudieran trabajar en casa Que es lo que tú decías De la digitalización Es Abre el mercado Y todo el mundo tiene acceso Bueno pues esto es un poco la filosofía de Zoom Y bueno Y a partir de ya 2007 Que es cuando Que es cuando Que es cuando Que es cuando Que es cuando Que es cuando A partir de ya 2007 Sacaron Sacaron La primigeni H2 Que también ha evolucionado Y Y bueno pues Ahí Es una marca global Es una marca internacional Por supuesto Trabajamos en todo el mundo Yo en realidad Pertenezco a una empresa Si me permitís Contarlo Que Que se llama MogarMusic En este caso Somos una sucursal en España Es MogarMusic Ibérica Operamos en España y Portugal Pero Mogar Como empresa Eh distribuidora de instrumentos musicales, no solamente de Zoom o de departamento de tecnología, distribuimos guitarras eléctricas, guitarras acústicas, sintetizadores, pianos, o sea, de todo lo que se puede, baterías, percusión también. Entonces, Mogar opera en cuatro países, que son España y Portugal, que lo llevamos desde España, Portugal, Italia y Francia, ¿vale? Y nuestra sede está en Milán, en Italia, con nuestro almacén logístico, para toda esa parte de Europa está en Milán. Entonces, pues mi empresa, como matiz de la empresa, se fundó en 1750, que se llamaba Moncino, y eran fabricantes de instrumentos y distribuidores en Cremona, por la zona. Entonces, para que os hagáis una idea, mi jefe, Francesco Moncino, es la octava generación de dueños de Moncino y de Mogar. ¿Vale? Sí, sí, sí. Ya hace 40 años se decidió separar un poco lo que era Moncino y se dedicó el apellido Moncino como una fundación que colabora con el arte, con la música, con ONGs y tal, y hasta tiene un museo de instrumentos musicales en el Castello Sforzesco de Milán, en un museo ahí de Moncino, y se creó Mogar ya como distribuidora, como lo conocemos ahora, en los cuatro países y todo eso. Y hace unos años, pues nos alíamos con Sound Service, que es una distribuidora como nosotros, pero de Francia para arriba, del norte de Europa, y a la vez con Zoom. O sea, pertenecemos al grupo Zoom. Entonces, hacemos una movida aquí global, planetaria, entre todos, y nos va muy bien, la verdad. Luego existe Zoom en Norteamérica y Zoom Asia también. O sea, somos como varias empresas dentro del grupo Zoom que nos dedicamos a esto. Y esto es un poco más o menos qué somos. Y cómo hemos hecho y cómo seguimos avanzando. Y cómo les ha dado por la accesibilidad a esta gente. Bueno, a ver, lo bueno que tiene Zoom, nosotros ya distribuíamos Zoom antes de pertenecer al grupo, a la Zoom Corporation, lo bueno que tiene Zoom es que escucha. Y no escucha solo a los empleados o a la gente que tiene ingenieros de I+.D., que son unas lumbreras, empezando por el señor presidente, que es una lumbrera en sí mismo, el señor Massa. Y Massa Ijima, que es un crack. Y entonces, lo bueno que tienen es que escuchan y además preguntan. Nosotros varias veces al año recibimos consultas por parte de Japón de qué feedback tenemos, qué nos dice la gente, qué podemos mejorar, qué podemos cambiar, qué no es bueno. Y entonces, es cierto que es de las empresas que hacen caso. En este caso, yo particularmente no sé a quién se le ha ocurrido la idea o cómo ha surgido lo de hacer. Y entonces, yo creo que es de las empresas que hacen caso. En este caso, yo particularmente no sé a quién se le ha ocurrido lo de hacer. Y entonces, yo creo que es de las empresas que hacen caso. En este caso, yo particularmente no sé a quién se le ha ocurrido lo de hacer. Y ya está. Efectivamente. A ver, yo contaba con que fuera un buen producto, que se vendiera bien, pero está siendo un éxito brutal. O sea, la verdad es que es una cosa que ahora entiendo y de la cual me alegro bastante. ¿Vosotros percibís que vuestros clientes o el aumento en ventas es porque hay personas ciegas preocupándose de comprarlo o preguntándolo por ellas? Bueno, yo la verdad es que de ventas no sé hablarte. O sea, no sigo las ventas y tal. Sé que lo estamos vendiendo muy bien, muy bien. Lo que no sé es decirte si ya al nivel de las otras Hs anteriores o no. Pero vamos, pero desde luego, de entrada en el mercado con un producto nuevo que siempre... Y si es una mejora, cuesta a lo mejor implementarlo en el mercado y que la gente se acostumbre a un producto nuevo y el otro se va a discontinuar y tal. Pero no, la verdad es que ha entrado de golpe y porrazo. Y yo te digo grupos como el que tenemos en Guadalajara. WhatsApp son una verdadera maravilla y eso con otros productos y otras marcas no me pasa. Correcto. Los productos que actualmente tienen accesibilidad son las grabadoras H1, H4, H6 y la reciente H2. Son los últimos productos que han salido y todos ellos con accesibilidad. Sí, hemos lanzado también H1 XLR, que es una H1, pero en vez de tener los dos micrófonos tiene dos entradas XLR o jack combo. Por si alguien no necesita del uso de micrófonos y tiene líneas para grabar en las señales de línea para una grabadora pequeña, como pueda ser... Pues como te diría yo, cuando hacen las ruedas de prensa el gobierno, por ejemplo, o quien sea que haga ruedas de prensa, pues ahí los técnicos proporcionan unas salidas en estéreo a las grabadoras de los periodistas, por ejemplo, y no tienes que estar utilizando los micrófonos, sino que tú coges tu línea, la enchufas y grabas. Entonces, esa también es accesible. Prácticamente, no es una gran dificultad. Prácticamente igual que un H1, solo cambias los micrófonos por los conectores. Y sí, H2, que ya acaba de entrar también, que es grabadora 360 con cuatro micrófonos mid-size y tal, que es muy buen producto. Y de momento, la serie Essential solamente es la que tiene accesibilidad. Solo la Essential, aunque vayan a sacar otros productos, esto no quiere decir que todos los productos a partir de ahora vayan a tener accesibilidad, sino solo la serie. Esa es la serie Essential. A ver, entiendo que eso va a depender un poco de la complejidad del producto. Las grabadoras son una cosa sencilla de manejar, intuitiva. Luego, si hablamos ya, por ejemplo, de mesas de mezclas, grabadoras de 20 canales, 12 canales, a lo mejor ahí implementar eso es un poquito lioso. Pero lo que sí puedo asegurar es que en el producto que sea lo van a intentar. Y en el que eso lo vean que es bueno, lo van a hacer. ¿Sabes? O sea... Pero ya te digo. No tengo noticias de que en otra gama vayan a implementar lo de la accesibilidad. Pero sí lo van a mirar. Y, hombre, yo espero que sí. Y seguro que lo podrán hacer. O sea, porque la verdad es que los ingenieros que hay allí son una verdadera lumbreras. Se tiene que poder, además, en mesas de mezclas, por ejemplo. A lo mejor en todas, a lo mejor no. Pero, claro, los modelos altos que tienen pantalla táctil y demás, pues a lo mejor es complicado y hay que rediseñarlo entero. Y a lo mejor tampoco quieren que sea la pantalla táctil. Pero en los modelos, por ejemplo, el P4, que lo tengo. Pues este sería sumamente sencillo, ¿no? Incluso con una actualización de firmware estoy seguro que se podría hacer accesible igual que las grabadoras, ¿no? Exactamente. Un producto como P4 sería factible que tuviera eso. Y yo casi estoy seguro que en el futuro lo tendrá. Viendo la respuesta que ha tenido esto. La accesibilidad de las Hs. Pero, vamos, ya no solamente en el caso de las personas con discapacidad visual. Es que hasta gente que ve me dice que maravilla. O sea... Gracias porque esas son las cosas que... Que, bueno, suena un poco prepotente lo que diga yo, pero la verdad es que hacen el mundo un poco mejor para todos. ¿Sabes? ¿Sabes? Bueno, bueno, bien. Pero un momento. Vamos a ver. Que estáis hablando aquí de la grabadora con este nombre. Y demás. Y yo particularmente, he de reconocerlo, soy neófito. No tengo mucho conocimiento ni de esta ni de otro tipo de grabadoras. Y como que me pierdo. A ver si Fernando nos puede explicar un poco, ya no solo de grabadoras, sino todo el tema que nos puede interesar en cuanto a grabación de sonido, mesas de mezclas y demás. Cómo es un poco el catálogo que tenéis dentro de Zoom. Y luego ya hablamos si queréis más de las grabadoras accesibles. Vale. Pues así os cuento un poco por encima. Ya le he dado otra vez el golpe a lo que tengo debajo de la mesa. Me voy a disculpar si alguien oye un ruido porque tengo los pies un poquito inquietos. Entonces, tengo un reposapiés y le acabo de dar un golpe y seguro que se ha oído. Y a lo mejor antes también estaba hablando y se estaba oyendo. Me disculpo un montón de veces. Tienes grabadoras que graban tan bien que se escucha todo. Claro, claro. Tengo una P8 de Zoom, la mesa de podcast y tiene unos conversores digitales analógicos que son una maravilla. Y aquí, esta es la muestra. Entonces, bueno, voy a continuar. Hablando de las grabadoras, pues mira, las grabadoras, el número de la grabadora te dice prácticamente el número de pistas que tiene. Por ejemplo, en el cacho de H1 tiene una grabación en estéreo. En el caso de la 2 es un poquito más complicada porque graba en 360 y graba con micros por los dos lados y dos laterales, mid-side. En el caso de H3, por ejemplo, era una grabadora también en 360 para realidad virtual. ¿Veis todo? Mueves la cabeza y el sonido se mueve, que es bastante impresionante. Tipo lo fónico, ¿no? Exacto, que se usa mucho para videojuegos o grabaciones 360 de vídeo. H4 tiene los dos micrófonos que lleva NXY con apertura de campo para abrir más el campo de recepción o no, el ángulo. Y además tiene dos entradas de Canon o Jack Combo para meter algo externo, como pueda ser lo que sea. Cualquier fuente de sonido puede entrar en H4. H5. Es exactamente lo mismo, pero en vez de dos tiene cuatro entradas XLR Combo con Jack. Y la H6 lo que tiene es una pista más. Entonces, en función del número o de las necesidades de cada uno, pues te tienes que comprar algo que vaya para lo que tú necesitas. Si grabas, creo que hablábamos antes, un periodista y va a un señor que sale de un juzgado, como he estado viendo estos días, tienes que poner un micrófono delante o le plantas un micrófono con una grabadora externa, con un cable, o le pones una H1 delante que no ocupa nada, es como un lapicero. Y si ya quieres grabar en multipistas, tienes que irte a las que tienen más canales. En el caso de la serie nueva Essential, lo que tienen es que graban en 32 bits con coma flotante. ¿Y eso qué es? Pues mira, te voy a explicar. Si me ves que me enrollo un poco, me paras y me cortas. Sí, pero bueno, explícalo para que lo entendamos, porque es la primera vez que escucho el término en una grabadora. Sí, pues mira. Vamos a hablar de esto. De esto vamos a hablar de formatos de grabación de audio y de reproducción. Entonces, para que te hagas una idea, las grabadoras que no tienen 32 bits con coma flotante, como las antiguas, las de Zoom, las normales, las H4, H6 normales y tal, tienen todas, vosotros lo habéis hecho un millón de veces, un control de ganancia. Con eso lo que le dices al aparato que está grabando, sea una mesa de mezclas, una grabadora o lo que sea, es la cantidad de señal que quieres que entre en decibelios. ¿Vale? En los decibelios sonoros, ¿no? Sí. Entonces, ¿qué sucede? Que eso crea una onda de grabación, ¿vale? Que se mide en hercios. Entonces, a ver, no soy técnico de sonido ni físico, lo voy a intentar explicar de una manera entendible, ¿vale? Dentro de mi concepto, de mi conocimiento. Entonces, lo que hablamos es de convertir el... El sonido que se graba, eso tiene una forma de onda que se llama un hercio, un hercio, o hercios. Hercios es un ciclo, un ciclo de sonido por segundo. Es una onda que tiene una amplitud. Entonces, es la cantidad... Es una onda, entonces, ¿cuánta cantidad de ondas hay en un segundo? Eso es lo que te dice los hercios que son. ¿De acuerdo? Tantas ondas, tantos hercios dentro de un segundo. Esto explicado en un modo coloquial, digamos que es como... Yo lo suelo explicar siempre con el efecto físico. Esto es física, esto no es tecnología, esto es física pura. Lo suelo explicar con el efecto Doppler, por ejemplo, el efecto Doppler. En las ecografías. Exactamente, efectivamente. Pero a pie de calle, mira, para que no se nos enoie esa parte de la ecografía, es muy sencillo. A ver, el sonido se tiene que transmitir por un medio, impecablemente. Sea el aire, como lo escuchamos nosotros, o sea el agua, como escuchan los delfines. No suena igual, pero también... También se transmite por el agua. En el espacio vacío no hay transmisión de sonido, no se puede oír nada. Por eso siempre en las películas de ficción cuando algo explota es una estupidez, porque no se puede oír la explosión. Pero entonces, en ese medio, por ejemplo, el ejemplo que pongo yo es estamos parados en un semáforo y pasa una ambulancia. Entonces, cuando la ambulancia viene hacia ti, tú oyes a la sirena en una frecuencia alta. Y cuando la ambulancia pasa, tú notas que esa frecuencia está decayendo. Es otro tono. Es diferente. Va bajando el tono. Esto simplemente porque la fuente emisora, en este caso la ambulancia, está en movimiento. Entonces, estas ondas que yo digo, estos hercios que yo digo, lo que hacen al moverse es el aire, comprimir el aire delante de la ambulancia, por ejemplo. Con lo cual, en ese segundo hay más ondas, están más comprimidas y el tono es más agudo. Pero cuando la ambulancia pasa, deja el aire vacío atrás y entonces esa onda se va separando. Entonces, ya hay más... Son las ondas dentro de ese segundo, con lo cual es más grave. Cuando trabajamos con esto, trabajamos con cantidad de ciclos por segundo, que se llaman hercios. Y luego pasamos a la parte digital que se llama la profundidad de bits, que es cuando hablamos de 32, 24, 16 bits. Eso ya es la parte tecnológica y de unos y ceros. A esta profundidad de bits, lo que estamos diciendo, lo que nos dice es la cantidad de hercios que caben. Eso tiene un límite, tiene un tope. Entonces, ahí entran determinados... Si lo transpolamos a la informática, son los antiguos ordenadores que trabajaban con memorias de megas. Y decías, madre mía, tengo un disquete que tiene no sé cuántos K. Pues es exactamente lo mismo, pero ahora lo tenemos como que mi móvil tiene más memoria que mi ordenador, por ejemplo. Entonces, al hablar de profundidad de bits, hablamos de con cuánta información estamos trabajando. Para que os hagáis una idea, los antiguos videojuegos que ya tenían soniditos, Mario Bros y estas cosas, tenían tanta poca memoria que podían poner un audio de 8 bits. Por eso tenían 3 soniditos. Entonces, claro, ¿por qué? Porque esa onda, esos bits tenían una capacidad solamente de almacenar 256 valores. No entraban más que 256 valores. ¿Qué pasa? Que al ir subiendo la cantidad de bits, el rango crece y entonces te va entrando más información y te va entrando, por supuesto, más calidad. Cuando hablamos de 24 bits, hablamos de que la onda tiene 16 millones de valores, que ya está muy bien. Aunque el estándar de audio son 44.100 Hz, que son 44.000, os he explicado, 100 ondas por segundo, metidas en 16 bits, esa es la calidad estándar de audio, la calidad de un CD, y esa es la calidad que oye el oído humano. El oído humano no, porque tú grabes en 24 bits, 48, lo que tú quieras, el oído humano no va a oír mejor. Lo que sí es cierto es que para ti... Trabajar va a ser mucho más sencillo y con mucha más calidad. Pero al reproducir, el oído humano va a oír en 44.100 Hz. Entonces, ¿qué sucede? Ahora ya pasamos de los 16 millones de valores de 24 bits a los 32 bits con coma flotante. En este caso, lo que tenemos ahí es un curro de 4.000 millones de valores. Como suena, 4.000 millones. ¿Qué sucede? Que cuando yo grabo algo y tengo demasiada ganancia de entrada, entra demasiado sonido en el aparato que yo estoy grabando, la onda no cabe. Entonces, es lo que llamamos la saturación o los picos. No puede más. Entonces, ya empieza a saturar. Esa onda ya se sale de lo que sería la profundidad de bits, que son como dos líneas, y entonces vemos la onda en medio. Entonces, eso se sale de las tablas, por decirlo de alguna manera. Eso en 24 bits o menos, eso no era recuperable. Tú habías grabado con saturación o con picos, y tú eso no lo podías recuperar. Eso estaba... Era suciedad, ruido, ¿no? Eso es defectuoso. Eso no sirve. ¿Qué sucede con el 32 bits? Que aunque tú tengas la forma de onda y la forma de onda esté saturada, sobresaliendo las líneas y picando y todo lo que tú quieras, esa información sigue ahí. Entonces, tú solamente cuando utilizas tu editor de audio o lo que sea, simplemente coges la onda, la pinchas y la haces más pequeña. Y toda esa información... En 24 bits estaba perdida. Toda esa información aparece. Y entonces no tienes saturación ni tienes picos. No tienes nada. Y es más, si lo haces al revés, si lo haces grabando algo, un sonido muy débil, un susurro, un respiro, algo así, cuando tú lo hacías también con otra profundidad de bits, al subir esa línea, esa onda, querer darle más volumen, más presencia, lo que aparecía es ruido. ¿Por qué? Porque no se puede inventar el sonido cuando no existe, o sea, el ordenador no puede inventar información que no tiene. Entonces, las grabadoras de 32 bits no llevan un conversor, llevan dos, uno que se encarga de la parte de arriba y uno que se encarga de la parte de abajo, de la parte con menos sonido. Con lo cual también pasa la inversa. Cuando tú subes la forma de onda, la amplías en un sonido muy débil, no aparece ruido de fondo, que es lo habitual del resto de bits. Esto a nivel... Eh... Consumidor, ¿qué significa? Pues que yo le doy... No tengo control de ganancia, lo primero, porque el aparato no la necesita, yo le doy a grabar y me puedo olvidar de que alguien pegue un grito o de que un batería le pegue un golpe a la caja de la batería y suene a 140 dB. No me importa. Porque eso, aunque yo lo oiga y diga, madre mía, se ha pasado, yo luego en postproducción puedo coger eso y tenerlo a mi gusto y bajarlo y decir, vale, no me ha picado, no, tengo toda la onda perfecta. Entonces son los 4.000 millones de... Tienes una fuente de sonido pura con la que puedes hacer lo que te dé la gana. Exactamente. Aplicación para esto, por ejemplo, y que también está funcionando mucho, es para gente que trabaja con vídeo, para gente que trabaja con entrevistas. ¿Por qué? Porque son gente que se dedica a usar el vídeo. O sea, ellos ven. Su trabajo es ver. Tienen que grabar, por supuesto, un audio de calidad, ¿no? Para que esté acorde con la imagen. Pero antes, claro, antes era pruebas de micrófono para una entrevista. Ponía las cámaras de vídeo, ponía las pruebas, los micrófonos. A ver, diga algo, como yo antes. Un, dos, tres, cuatro. Y entonces regulaba la ganancia. Pero sí, señor, le pegaba una tos y aquello se iba a... Sí, sí, sí. ...a prueba. Claro, ahora no. Ahora un videógrafo coge aquí, pone los micrófonos y le da a REC directamente. Y se olvida. Y cuando llega la postproducción, ahí tiene toda la información para poder trabajar con ella. Y eso es lo que viene siendo, después de dos horas de charla, los 32 bits con coma flotante, que son una... Parece magia, de verdad. Yo lo hice, lo probé el otro día. Es que sí iba a decir que parece magia, ¿eh? Lo que hace porque... Sí, sí. Me acaba de sonar la silla. Es que la silla también la tengo viejita. Suena un poco... Yo lo siento por mis ruidos. No son ruidos corpóreos míos, son ruidos de mi silla y eso. Entonces, el otro día, por ejemplo, yo soy músico. Fui a grabar un ensayo. Tenía que grabar unas cosas para luego estudiar unos solos de guitarra y tal. Y entonces yo cogí la H6 y la solté allí encima del amplificador. Y la iré a grabar y no olvidé. Y efectivamente, claro, en un local de ensayo, batería acústica, bajista, no sé qué, todo el mundo allí pegando gritos porque no toco precisamente música clásica. Bueno, pues me vine a casa con la grabadora. Efectivamente, la metí en mi software y claro, yo vi la onda que yo... O sea, que yo no tenía... No sé, es que no se veía más que una línea. Y efectivamente, cogí, la bajé, pinché y la bajé. Y te lo juro que era magia. O sea, ver aparecer todas las ondas otra vez y dije qué maravilla. Así que eso viene siendo, señores. ¿Y ocupan mucho más? ¿Los archivos son mucho más grandes? ¿Ocupan más tamaño? Pues esa es buena pregunta. Mira, por ejemplo, en 32 bits con color afrontante, ocupa un 33.5. 33% más que el 24 bits. O sea, no es tanta diferencia para la calidad que luego tienes y el jaleo que te quitas de encima. Lo que te decía antes, hablaba de la diferencia de tener una grabación y tener que tirarla. O llevarte otro micro de backup, que también me ha pasado con muchos videógrafos, de usar una grabadora y un micrófono a la vez para tener dos, por si acaso una tiene un problema. En este caso, ese 33% ahí me parece asumible. Sí, sí, sí. Si queréis, ahora que... habéis comentado esto, vamos a hablar de componentes, porque así podemos hablar del almacenamiento, podemos hablar de la forma de las grabadoras, de qué componentes llevan, cuántos micrófonos. Básicamente, es decir, qué es lo que llevan todas las grabadoras Zoom. Básicamente, toda la grabadora Zoom llevan dos micrófonos en XY para grabar en estéreo. Eso lo llevan prácticamente todas, menos la que os contaba XLR, que han quitado los dos micrófonos y han puesto entradas de línea. La H2N, que lleva cuatro micrófonos. ¿Cuántos micrófonos? Porque graba en 360. La H2 Essential, perdón. Bueno, la 2N, la antigua también. Y básicamente llevan dos micrófonos. ¿Qué sucede? Que, por ejemplo, en el caso de H6, los micrófonos de H6 es una cápsula que se puede quitar y puedes poner otras cápsulas. Por ejemplo, en este caso ya hemos lanzado la cápsula que te hace, que te da otras dos entradas más de Canon y XLR, ¿vale? Por si tienes que grabar desde seis fuentes externas distintas y no usar los micrófonos. Y tiene que salir en breve también un ADS, un micrófono que llamamos shotgun o no es de lapicero, es del cañón, que en este caso tiene, digamos, tres micrófonos. Es un cañón direccional, te graba la fuente que está justo delante y luego a la vez te graba las laterales por si quieres usarlas o no, porque van en diferentes pistas. Y eso es básicamente lo que es. Vale, pero ¿y en cuanto a controles? ¿Cómo manejas las grabadoras? ¿Todas se manejan a través de botón? ¿Tienen botones de algún tipo de sensor? No, son todas, todas tienen botones, por supuesto, y son bastante intuitivas y además cuanto más estás facilitando la vida al usuario, como es el caso de la serie Essential, menos botones tienen. O sea, antes tenían los controles de ganancia, los controles de no sé qué, y ahora se está haciendo todo bastante más intuitivo. Pero tienen los controles típicos de grabación, si grabas en varias pistas, seleccionar pistas de grabación. Puedes en algunas hacer marcaciones por si quieres volver a un punto determinado. Puedes exportar los archivos, los archivos son en formato WAV, que es el formato lineal de audio sin comprimir. Y luego tienen los botones típicos de avance, retroceso, búsqueda de la carpeta del proyecto. Todo muy, la verdad es que es muy intuitivo. Si te pones con ellas, las controlas en cinco minutos. Todo lo haces. ¿Tienes un accesorio para poderlas conectar por Bluetooth con el teléfono móvil? Y poder manejar desde el móvil, ¿puede ser? Efectivamente, tienen un accesorio que se llama BTA1, que se compra por separado. Y le tengo que puntualizar. Y entonces lo que haces es tener un control con un software que se descarga para el móvil en una app, estas que tenemos todos en el móvil. Y entonces es una pastillita. En el caso de la serie Essential se puede instalar en H4. H4. H4. Y H6. H2 tiene control también. Esta aplicación de móvil es solo, bueno, solo entre comillas, para manejar los controles de la grabadora, para grabar, parar, pausar, detener o tal. No para acceder a los archivos que hemos grabado y que están almacenados dentro de la grabadora. Efectivamente, efectivamente. Y luego también es un software, cada uno tiene su aplicación propia. Porque tienen diferentes configuraciones, más pistas, menos pistas, tal. Entonces cada uno lleva su configuración. Esto es interesante porque al manejarlo desde tu móvil, desde tu móvil no tienes contacto físico con la grabadora, con lo cual evitas que puedan haber ruidos, ¿no? Bueno, a ver, los productos de Zoom en general, los plásticos que utilizan, también están muy estudiados para que tengan el menor ruido posible. O sea, esto no es una carcasa que yo pongo ahí de plástico y ahí lo vendo y ya está. No, esos en Zoom se estudian. La manipulación, se ponen otros micrófonos y unos cascos y escuchan el composite del plástico para ver cuál es el que hace más y menos ruido. Y eso está hasta registrado, ¿eh? Esa mezcla está patentada. Y bueno, pero claro, siempre hay un mínimo ruido, como el de mi silla maravillosa que acaba de sonar y el de mi reposapiés del suelo, disculpad, con los oyentes. Y entonces, claro, eso también siempre lleva un algo de ruido. Pero bueno, también igual si lo aplicamos a los videógrafos, por ejemplo, ya no es tener ni que darle al red de la grabadora. Estás con tu cámara y tu móvil y estás manejando el audio en el mismo sitio. Correcto. Y bueno, es muy importante destacar que al menos la app para iPhone, para la grabadora H6, que es la que hemos podido probar, es muy accesible con VoiceOver y se puede manejar perfectamente. Incluso podemos conocer el tiempo estimado restante dentro de la tarjeta microSD, que en la propia grabadora no se puede, y a través de la app sí que se puede. Está completamente adaptada para poderse utilizar. Y es maravilloso. Si quieres, háblanos de la autonomía de la batería. Supongo que tendrá batería y alimentación también por red, ¿no? Va con pilas. Con pilas y sí, puedes poner pilas normales, alcalinas y recargables. Y bueno, la duración depende del modelo y del uso que le des, como todo base. Depende de las funciones que uses. Por ejemplo, si usas la accesibilidad y usas pilas, pues consumirá más energía. Lo que sí, son todas alimentación. Son todas alimentadas por el bus USB que puedes poner en las esenciales del móvil mismo, el cargador del móvil a 5 voltios y trabajar con ello enchufado directamente. O una powerbank, que también es interesante. O una powerbank, perfectamente. Exacto. ¿Y tenéis medida por un uso medio de X horas dura la batería? Sí, lo que es que, como te decía, depende del producto. Por ejemplo, a ver, en cada producto tiene una batería. A ver, en cada producto tienes una pestaña en la página web que pone especificaciones y detalles. Y que yo soy el tipo que se encarga de traducirla, que es muy divertido. Entonces, por ejemplo, en el caso de H2, que lleva varios micros, pues pone tiempo estimado, y el funcionamiento continúa utilizando batería grabación frontal estéreo. Y luego tienes otro que pone grabación frontal y trasera estéreo. Entonces, pues bueno, pero yo creo que de media, usando baterías de litio, muy bien es esto. Pero mira, grabación frontal estéreo 20 horas, grabación frontal y trasera estéreo 17 y media, y grabación de todos los micrófonos 9 horas y media. O sea, en el caso de batería de litio vamos a ponerle 15 horas, en el caso de un H2. Pero más o menos se podría un poco generalizar, pero vamos, son horas. Y una puntualización, no sé si posible, no sé, crítica constructiva sobre el firmware. Sobre el firmware que yo creo, desde mi punto de vista, que podría ser una vía para fidelizar más a los usuarios, sí, a los usuarios de estos productos, actualizarlo más. Porque yo creo que, yo por ejemplo tengo la, estas grabadoras son muy recientes y todavía no sé si se actualizarán o no, o como no, pero yo tengo la mesa de mezclas AP4 y se actualizó, pues eso, salió con el 1.0, se actualizó yo creo que al 1.20, y ya está, no se va a volver a actualizar nunca más. Y yo creo pues que, por ejemplo, con el firmware, en el caso de esta mesa, se podría actualizar, se podría hacer accesible. Por ejemplo, si hubiera alguna actualización que le diera alguna pequeña funcionalidad más, como la accesibilidad y tal, vamos, conseguiría fidelizar a los clientes de por vida, vamos. Sí, sí, pero todo esto que tú me dices me parece, no es una crítica, me parece perfecto y es una cosa que yo transmito a Zoom, o sea, pero mañana mismo, ¿sabes? Muchas gracias. Claro, claro. Fidelizaría a los clientes de, vamos, de por vida. De repente un modelo, la AP4, que, además, bueno, muchas personas ciegas pues la tenemos, porque dentro de lo que hay, pues tiene botones físicos y tiene tal, no tiene pantalla, tal y tal y es medio, te puedes apañar con ella, ¿no? Entonces, pues si ahora de repente te sale una actualización de firmware y te habla igual que te habla, pues una grabadora de estas de la línea esencial, pues vamos, abre un reto de ventas. Disculpadme, estamos hablando ahora de mesas de mezcla de la marca Zoom. Sí. Sí, es una mesa de podcast. Una mesa específica para podcast. Sí. Hay dos tipos, la AP8, yo la tengo aquí delante, y luego está la AP4, por ejemplo, que es como más portable. Y son mesas para hacer podcast en las que puedes, tienes unos bancos incluso y puedes memorizar anuncios, canciones, lo que quieras. Puedes grabar, convertir a MP3 para enchufarlo, puedes usarlo como interface para emitir en directo si quieres. Tiene salidas, dependiendo del modelo, más o menos, bueno, 4, 4, la AP4 tiene 4 salidas y la AP8 tiene 6 salidas de cascos independientes con volumen de 4. Tiene volumen independiente para cada hablante o parlante y, bueno, y tiene un montón de cosas específicas para podcast. Controles físicos y mecánicos, por lo que acaba de decir Arturo, ¿no? Sí, sí, sí. Todo con faders, en el caso de la AP8 lleva faders, en el caso de la AP4 lleva knobs o botones giratorios, más o menos en castellano. Puedes conectar, bueno, y también las ruedillas que tiene la AP4 también le falta una pequeña marca, una pequeña marca en relieve para poder saber hacia dónde está apuntando la nota. Sí, sí, sí. Y, bueno, apuntando la ruedita también es un pequeño fallo que tiene. Perfecto. Perfecto. No, no, pero, vamos, la he apuntado ahora mismo. Y, aún así, Arturo, tú la utilizas, ¿no? Sí, sí. Te la compraste porque... Sí, sí, yo le he metido un tajo a cada, a las ruedillas estas, le he metido un pequeño corte y así sepa dónde está apuntando cada una. Muy bien. Pues ahora mismo me lo acabo de apuntar y yo mañana a mi compañero, el francés, que es el que lleva la marca para toda la empresa, le estoy pidiendo ya que me diga cosas. Y con lo que sea, lo transmitiré. O sea, igual que hacemos en el grupo de Essential, yo digo lo que hay, lo que no hay, cómo hay. Y, de modo orientativo, ¿qué precios tienen estas salvadoras? ¿Cómo algo orientativo? Porque a veces hay ofertas, hay descuentos y tal, pero bueno, más o menos. A ver, yo es que soy mayorista. Vale. Entonces, claro, entonces lo que me pasa a mí es que yo tengo, nosotros tenemos un precio mental público recomendado. Yo no puedo dar en público precios que luego tenga cada tienda... Claro, claro, el recomendado orientado. ...como algo orientativo. Exacto. Cada tienda es española, pero bueno, como algo orientativo. Ya, lo que pasa es que luego, si digo el precio recomendado, como que asusta, ¿no? Vale. Que es caro, ¿no? Y luego lo encuentras en tienda y es mucho más barato. Con lo cual, yo recomiendo a todo el mundo que se meta en su tienda de confianza y vea los precios que hay de cada producto. A ver, entre tienda y tienda varían pocos euros, ¿no? O sea, o ninguno, no deberían variar mucho. Pues entonces, danos un precio orientativo, ni tan siquiera recomendado ni nada de eso, sino más o menos entre más o menos cuánto pueden valer, entre 200, 300 euros, 250... Sí. Es decir, que no sea algo muy concreto, muy preciso, que no te comprometa a nada, pero sí que nos hace, pues nos permite hacernos una idea del valor del producto, ¿no? Vale, pues mira, dame un segundo que estoy abriendo la pestañita del ordenador... Muy bien. ...porque no me quiero equivocar de cabeza. Ajá. Entonces, hablamos, por ejemplo, de una H1 Essentia, que es la grabadora de dos pistas, 32 bits y tal, con interface y todo eso. Estamos hablando de un precio de mi ordenador, cada día va más rápido, es una maravilla tecnológica, son mejores las grabadoras de mi ordenador Hewlett Packard. Muy bien. Hablamos de un precio de venta al público recomendado de 109 euros. Sí. Muy bien. En una H1, que es la más básica, ¿vale? Muy bien. En el caso de la más alta de gama, para hablar de todo el rango, nos iríamos, por ejemplo, a H6, H6, efectivamente, que de precio venta al público recomendado tiene... ¡Tachán! A ver, hijo mío, deja de pensar. 320 creo que era, por ahí. Ajá. 329. En ese rango de precios van subiendo, es como por escala, ¿no? Según vas teniendo más prestaciones, pues va a ser un precio un poco más caro. Sí, más o menos. Lo que es normal. La H4 220, 240, porque ahí es donde andaba. Exacto. Y la H6 por 330, sí, más o menos. Exacto. Bueno, sí. Está muy bien. Antes de que se me olvide, vamos a ver la capacidad de serie. ¿Qué capacidad tienen y si se puede ampliar? Me refiero a la capacidad para las grabaciones que vayas haciendo, que es guardarlas. A ver, memoria interna no tienen ninguna. Ninguna tiene memoria interna. Tienes que estar siempre con tarjetas SD. Vale. Y entonces, luego ya, siempre va en función de la tarjeta que le pongas. Ajá. De más o menos, por ejemplo, en el caso de la H6 aguanta tarjetas de un tera, aunque grabes en 32 bits con código flotante, eso son muchas horas de grabación, un terabyte. Entonces, son tarjetas micro SD, tanto HC como XE, pero no vienen de... ni la tarjeta viene de fábrica. Bueno, de hecho, lo que viene no es de fábrica. Bueno, de hecho, lo que viene es en las pilas, ya, porque ya estamos todos con los movimientos internacionales de aduanas que hay para mover baterías y material de ese tipo en aviones y tal. Se puso... y estamos todas las empresas, ya no solo Zoom, todos los fabricantes entregando prácticamente las cosas sin pilas. Y tampoco vienen con tarjeta. Últimamente algunas H6 hace muchos años venían con tarjeta, se regalaba la tarjeta, pero ya también lo quitaron. Entonces, bueno, la capacidad es en función de la memoria interna. Y no hay ninguna especificación. ¿Cualquier tarjeta SD serviría? ¿O son algunas? ¿Cualquier tarjeta? No, no, no, ninguna especificación. SD, HC o micro SD, XC. Vale, correcto. Y hasta un tera, y en algunos productos hasta dos teras. Pero vamos, al principio con un tera tiene uno para grabar ahí tres vidas. Muy bien. Y si os parece, podemos ir pasando un poco de la parte teórica a la parte práctica. Con Sara, cuéntanos un poco. Tú que las usas. Bueno, yo tengo la H6 y la H1. Y estoy soñando con la H2. ¿Vas a hacer la colección? No, no, no lo tenía pensado. O sea, de hecho es que mi primera compra no me salió bien. ¿Vas a hacer la colección? La primera compra no me salió bien, pero luego la volví a comprar. O sea, es como, no sé, una persecución con las Zoom. Yo antes he tenido grabadoras Olympus y evidentemente la diferencia es abismal. Entonces, ¿sois ex o mal? ¿Para bien o para mal? Para bien o para mal. Ah, no hombre, si fuera para la mal no me las compraría, tío. Claro, es que te voy a decir por qué, perdona que te interrumpa Sara. Es un poco lo que hablábamos antes de las Zoom. ¿Por qué? ¿De qué se dedica cada cosa? Nosotros nos dedicamos al audio y Olympus se dedica a la cámara de fotos y al vídeo, la imagen, vamos a decirlo de una manera. Con lo cual, nosotros tenemos una cámara de vídeo también que graba en 4K, pero está más enfocada a músicos. O sea, a esa cámara no le puedes pedir lo que le pides a un Olympus, por ejemplo. Entonces hay que hacerlo, pero hay que hacerlo un poco con todo en general, yo creo, en la vida, ¿no? Vamos a zapateros tus zapatos y ya está, y eso. Muy bien. Sara, una indiscreción. ¿Tú por qué utilizas grabadoras de este tipo? Pues mira, por la facilidad de... porque como yo toco el saxo, configurar un saxo no es fácil. Al menos para mí no es fácil, se oyen cosas. Entonces con estas grabadoras es súper rápido, o sea, directamente la puedes tener muy cerca y no tienes que preocuparte de ganancias ni de nada. O sea, esa es la principal... es que las uso para todo. O sea, la H1, por ejemplo, yo qué sé, estoy en... ¿cuántas horas? ¿Cuántas horas? ¿Cuántas horas? Estoy en cualquier sitio, incluso en tránsito, ¿no? Por ahí por la calle me piden que les grabe algo y se lo grabo en... pues eso, directamente conectando la grabadora al iPhone. Es una calidad que evidentemente el iPhone no te va a dar. Yo qué sé, en cualquier conferencia, cualquier... soy profe de música y todas las sesiones de mis alumnos las grabo con las grabadoras. ¿Tú llegaste a utilizar grabadoras cuando has estudiado sin ver? Sí, sí, sí. ¿Tú llegaste a utilizar grabadoras cuando has estudiado sin ver? Sí, sí, sí. ¿Tú llegaste a utilizar grabadoras cuando has estudiado sin ver? No, no demasiadas, porque tenía ahí... siempre he estudiado en integrada y cogía ahí racatacata, empezaba a escribirme todos los apuntes. ¿En braya, no? Sí. Es ahora, ¿no?, cuando estás sacándoles un rendimiento bárbaro. Sí, porque con la Olympus, no sé, tenía un sonido bastante más metálico, la utilizábamos para ensayar, pero es que incluso la H6 la utilizó como... la utilizó como interface de audio, directamente para grabar desde el ordenador o desde el iPhone, según, ¿no? O sea que estoy encantada. Qué bien. La verdad. Muchas gracias, muchas gracias por la parte que me toca. ¿Has utilizado grabadoras que no fueran accesibles y estas que sí lo son? Sí. La primera que tuve fue una Olympus, creo, chiquitita, súper... de hecho, todavía por ahí está, que llevaba dos pilas triple A. Y, bueno, las utilizaba para grabar cualquier cosa. Es que, igual que las personas hacen fotos, pues a mí me gusta ir haciendo grabaciones de cualquier sonido curioso. Soy una friki, ¿qué voy a hacer? No, no, no, no, está muy bien. Está muy bien. Claro, entonces, el que una grabadora sea accesible, pues, o no, pues es, ¿no?, entre el blanco y el negro. Te permite utilizar todas las opciones, ¿no? Total. Más que nada porque hay veces que piensas que está grabando y no está grabando, con las anteriores, me refiero. Claro, claro. O sea, se podían producir incidentes que ahora ya se han cumplido. Sara, a lo mejor tienes algo que decirme de cómo, como músico, ¿qué podríamos mejorar en las grabadoras? Sí, tengo algunas preguntas. Mira, en la H1, no sé por qué no exporta directamente, solamente permite exportar en 16 bits y 24. Vale. En... ¿En qué? En la H6 esto no ocurre. Las dos se pueden normalizar. Vale. Eh... ¿Y qué más te diría? Bueno, el tema de la síntesis, claro, es una voz pregrabada, no nos permite conocer el nombre de los ficheros. Pero, a lo mejor, el nombre de los ficheros, yo creo que, por lo menos, podría decir el día, la hora, minutos, cuando se grabó... Exacto. Cuando lo has grabado. Sí, podría. Porque igual que cuando te lee la fecha, cuando vas a poner al principio, pones la fecha y la hora, ahí sí que los números sí que están pregrabados. Vale, pero cuando grabáis y os lee la grabadora, os lee el nombre del archivo, ¿no? No, no, no. No. No. Pero en este caso, eso está hecho de fábrica, ¿no? De fábrica es donde se grabaron esos pequeños WAVs que están en la memoria interna, en la EEPRO interna, donde está guardado el programa para poder manejar la grabadora. Ahí están grabados unos pequeños WAVs con los números para poderte leer, entre comillas, el día, el mes, el año, la hora, minutos, tal. Cuando pones, por lo menos, la hora del sistema, la hora de la grabadora y cada una de las opciones del menú, pues están grabados esos pequeños WAVs con esa voz. Correcto. Y luego, además... Claro, es que la información del archivo es un chorizo de número que te pones todo eso que tú dices, te pones fecha... Claro, claro. Eso sí que se podría leer porque ya están esos WAVs con los números, ya están grabados y listos. Exacto. Y luego, cuando pones los números, ya están grabados internamente porque están para, al principio, cuando pones la hora, el día, mes, año, hora, minutos, segundos, todos esos números ya están grabados, simplemente tenéis que reproducirlos. Así que es muy fácil. Sí, sí, perfecto. Me lo estoy apuntando. Sí, aunque fuera como un contestador de estos telefónicos que llaman... Cuando vas bajando, pues te podría decir simplemente los números 24, 12, 2024. Simplemente que te lo digas. De hecho, es Zoom, como dice Arturo, quien produce estos audios. Sí. Y genera un archivo, un conjunto de archivos, no sé cómo será, que son los que tiene que bajarse la persona que necesita este tipo de apoyo, ¿no?, de vuestra web y sincronizarlo, ¿no? Sí, pero no, pues te bajas el firmware y ese firmware es un archivo binario que directamente lo cargas en la grabadora y esos archivos, esos audios se quedan dentro de la grabadora. Dentro tiene que tener un pequeño almacenamiento. Tiene una pequeña RAM dentro. Claro, ahí es donde van los clasificaciones. Ah, vale, vale. Tú no puedes modificarlos. Lo del nombre de los archivos lo voy a mandar. Pero el nombre sí que se podría. Y alguna cosita más, como por ejemplo la batería o cosas así, sí que se podría añadir la etiqueta sonora, batería, y luego a continuación un número, que esos números, pues otra vez, como ya están grabados, simplemente se va a verbalizar. Batería, 33. Porcentaje de batería, dice. Sí, sí, sí. Sí, o con una tecla rápida que la puedas consultar. Sí, el tiempo que te falta estimado de grabación, cosas así que... Es verdad que lo hice al comienzo. Al comienzo comenta... Cuando tú la enciendes, ¿no? La batería y el tiempo. Pero claro, no siempre... Y luego es que cuando haces varias tomas de la misma pieza, claro, escucharte toda la toma para saber cuál es la correcta, porque aquí tal y no sé qué. O sea, el tema de leer los ficheros sería la leche. Sería súper útil. Sí. Vale, lo del porcentaje de batería habría que estudiarlo porque sería ponerle muchos sensores a unas pilas, a ver qué cantidad tienen. Sí. Pero bueno, también lo apunto. Pero actualmente te dice batería completa cuando le pones las... ¿Verdad? Sí, te dice batería completa. Vale. Es que no sé decirte si hay más matices porque yo no he pasado de la completa todavía. Que yo sepa no. O sea, la tengo mucho tiempo enchufada, pero no sé, igual que te dice eso, ¿no? Que vaya calculando el porcentaje. Exacto. Sí, media, alta, algo orientativo al menos. Y también creo que en pantalla creo que está bien. Y también creo que en pantalla creo que también pone la duración, ¿no? El tiempo estimado de horas que te faltarían en la tarjeta microsedí. Sí, según el formato que se lecciones. Eso, que te quedan 33 horas o lo que sea. Y eso tampoco... Claro, claro, claro. Sí, yo lo voy a transmitir. Pero esto, a ver, esto lo que pasa es que habría que hacer una pestaña además en una subcarpeta dentro del menú que fueras a pedirle que te lea la batería o pedirle que te lea... O simplemente... ...el chino. O mejor con algún botón que en la menú principal no tenga ninguna función. Sí, un acceso directo. Sí. Vale, pues apuntado queda todo, la verdad. Me encanta que hagáis estas cosas y más en público, como estamos haciendo para que vea al resto de la gente que realmente nos interesan estas cosas y nos importan. Luego había otro tema, perdonad, que es que ya que tengo aquí la oportunidad de estar diciéndole cosas, perdonadme. El tema del reproductor de ficheros. Creo que en la H4 no estaba muy fino el tema de la reproducción en bucle o seleccionar esto, ¿no? Sí, y estamos esperando que nos actualicen, que haya actualización de firmware. Está tardando un poquito. De hecho, me están preguntando algunos compañeros en el WhatsApp que tenemos. Pero de momento, ayer lo chequeé con mi otro compañero especialista de producto, que es Óscar Maldó, en el Máquina. Máquina que yo. Y todavía no tenemos actualización. Yo no sé si se habrán encontrado algún problema, porque por vagancia, ya te digo yo que no es. O sea, hacerla la harán. Sí tendrán algún problema para utilizar eso o alguna cosa, pero vamos, tiene que llegar y llegará. Y lo harán, seguro. Vale. Bueno, y por enseñar un poco cómo suena esto, cómo se escucha la accesibilidad, pues voy a ponerla un poco. Todos los menús se pueden manejar con una... Sí. Se puede manejar con una ruedecilla. Hacia arriba, hacia abajo, nos movemos por las diferentes opciones del menú. Y pulsando un botón, accedemos a la opción de menú que en ese momento tenemos seleccionada. Con eso se maneja todo y esto suena así. Espera de grabación. Eso es. Se oye muy bien. Sí. Ajustes de entrada. Ajustes de salida. Ajustes de grabación. Tarjeta SD. USB. Ajustes del sistema. Listeria. Ajustes del sistema. Listado de ficheros. Ajustes de entrada. Ajustes de salida. Esto es un poco, pues, con un rolero. Ajustes de grabación. Podemos entrar en cualquiera de ellos. Tarjeta SD. Pulsamos el botón de entrada. Formateo. Test rápido. No la S, dale a ese que pone formateo, a ver qué pasa. Cuidado, cuidado. Test completo. Vaciar papelera. Atrás. Espera de grabación. Ajustes de grabación. Ajustes de salida. Ajustes de entrada. Listado de ficheros. Ajustes de entrada. Listado de ficheros. Listado de ficheros. No hay nada. Simplemente hace clic. Clic, clic. Claro. Subo. Un pedido es que bajo, otro es que subo. Atrás. Y atrás. No le doy nada más. Fijaros. Espera de grabación. Si dijera, por ejemplo, número, simplemente que dijera 1, 2, 3, 4, 5, ya sería una referencia, ¿no? Eso ya sería una maravilla. Sí, sí. Sí, sí. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Idioma. Bueno, pues, ya está. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Ajustes del sistema. Idioma. Pero bueno, mejor si te pudiera decir la... Claro, es que, sabes, si yo tengo tres ficheros de hoy y cinco de mañana... Sí. Hasta que no lo reproduzca yo no sé cuál es el de mañana. Si te puedo decir la fecha porque está, la fecha es la única cosa que te pone... Es la clave. ...como nombre del archivo, es la fecha, horas, minutos, y está ahí esa información y eso... y esas voces ya están grabadas en el firmware. Simplemente... Claro. También os digo una cosa. no lo estamos inventando aquí. Esto posiblemente ya haya habido este tipo de peticiones en el mundo y lo estén arreglando ya y también os informaré de eso. Es decir, una actualización nueva con no sé qué y con los mandos. Que ahí estaremos. Fecha y hora. Ajuste fecha y hora. Formato de fecha. Ajuste fecha y hora. Día. Mes. Día. 21. 20. 19. 18. 19. 20. 21. Así es como habla. La voz está pregrabada. Se le ve muy fluido el tránsito entre un elemento y otro. Está muy bien. No se puede modificar nada. No se puede modificar ni la voz, ni la velocidad, ni nada de nada. Casi funciona perfectamente. Muy bien. Pues me alegro de que estéis contentos con estos aparatos. De verdad que nos nos han dado orgullo y satisfacción hacer cosas para... La tecnología hay que ponerla siempre al servicio de todo el mundo y aprovecharla y no solamente como negocio. A ver, estamos a ganar dinero, pero está claro, como en todos los negocios, ¿no? Pero se puede ganar dinero y estar pendiente de las necesidades de la gente, de las personas y de quien sea. O sea, entonces, me parece maravilloso. Es una política muy japonesa también, ¿eh? Sí, sí. Muy japonesa. Son muy así. Son muy familiares. Van a vender más. Lógicamente, con esto se van a vender... Exacto, van a ganar más dinero. Sí, sí. Que esté bueno para todos. También para la empresa. Sí, sí. Exacto, exacto. Nos encanta. Claro, claro. Sí, sí. ¿Alguna cosa que te guste más, que te guste menos? No sé si a lo mejor... Bueno, voy a preguntar sobre cosas que quiero, ¿vale? Que me encantarían. Que podríamos hacer otro podcast entero, pero no va a ser... Vamos, que no me voy a tirar tanto del asunto del rollo, ¿vale? Un poquito. El tema de montar pistas no está pensado, ¿no? En estas grabadoras. No. Eso sería... La verdad es que no... Sí, sería la leche, pero no están pensadas para esto. Están separando un poco productos. Antes, por ejemplo, tenías la H4 normal, la H4N, que esa sí te permitía overdubs y grabar encima de las pistas y tal. Y además tenías... La H1 te permite overdub. La H1 sí. Es un cachondeo. Parece mentira, pero esa sí te lo permite. Es la más básica, ¿no? Claro, es que esto no lo entiendo muy bien. Claro. A mí me ha pillado y yo tampoco lo entiendo. Claro, pero teniendo cuatro pistas en una H4 o una H6 y que grabes algo y no puedas grabar nada encima, pues es un poco... No sé. A mí no me... A ver, yo quiero pensar que... Tiene un porqué, ¿vale? También estamos lanzando otros productos. De momento hemos lanzado R4, más pensado, para músicos y grabar en multipistas. Es una grabadora... Pero no es accesible, ¿no? No es accesible, de momento. Es así, pero en futuro podría ser accesible. Fíjate lo que te digo. Como hablábamos de la P4, imagino que lo harán y espero, sobre todo, espero que lo hagan. Pero sí, lo de no poder hacer grabaciones multipistas es una cosa que estas grabadoras no tienen y de momento creo que no van a tener. Ya, vaya hombre. Pero para nosotros músicos es una faena, ¿eh? Hombre, ya te digo. Total. Yo el otro día, por ejemplo, os contaba de cuando fui al ensayo, a ver, me salían los temas, pero tenía que componerme y estudiarme los solos de guitarra. Entonces dije, bueno, pues cuando llegué al solo de guitarra, yo me callo y lo dejo grabando en vacío, que graben la base rítmica. Yo en casa luego llego con... A ver, ese es que lo descubrí el otro día. Llego con mi H6 y me compongo mi solo por pistas, unas narices, no tuve, no hubo manera. No lo pude hacer, Sara. Ya. Y dije, pues es cierto que no graban en multipistas, pero bueno. Es que teniendo varios micrófonos es como una contradicción, ¿no? Claro. Sí. Vaya salto, vaya entrada. Pero tienes que grabar con los micrófonos y todo en tiempo real. Y yo creo que así lo más importante está. A lo mejor lo que comentabas de grabar en pistas separadas, a lo mejor está más reservado para mesas, ¿no? En la mesa de mezclas, en la P4, por lo menos, sí que graba cada micro, cada tal, incluso los pads, lo graba en pistas separadas todo. Sí, sí, justo. Te grabas todo por separado. Claro, está más pensado para... Lo han dejado más para el... Sí. Este tipo de productos. Sí, exactamente. Esa ha sido la idea. ¿O crees que el futuro de la accesibilidad, sí que hay futuro en el tema de la accesibilidad dentro de Zoom? ¿Sí que van a seguir sacando productos accesibles? Además, el buen resultado que han tenido estos últimos y la buena acogida, ¿van a continuar? Sí, sí, van a continuar. Yo creo que sí. Yo creo que sí. Sí, sí. Tavareas ahora también... Vamos a presentar en... Vamos a presentar en la Feria de Estados Unidos las novedades del año, la reunión y tal, así que ya iré viendo a ver cómo evoluciona una cosa y aunque no lo pueda decir, pues tendría que matarlos, pero alguna perla podré soltar. Genial. Vale. Un poco. Y nada, por mi parte, daros las gracias por la oportunidad y por dejarme hablar. Muchas gracias. Y no interrumpirme con todo lo que hablo. Y ha sido un placer. Y que cualquier otro tipo de... Yo soy muy de hablar y cualquier tipo de podcast, la tecnología me gusta mucho. Me queréis llamar para lo que sea o... Aquí estoy disponible para lo que os apetezca. Os voy a dejar una perla hablando de tecnología y grabación. Venga, vamos. Esto es un regalito. Qué guay, qué guay. Hablabas de los soportes de grabación, de los rollos de espera de Edison, los discos que antiguamente eran de grafito y luego se hicieron de vinilo, de plástico y tal, con el petróleo y tal. ¿Qué os gustaría? Bueno, pues en los discos de toda la vida, el sistema de levantado del brazo de la aguja, cuando terminaba el disco, o sea, la cara, lo inventó mi señor padre. ¡Ah! ¡Ah! ¡Ah! Entre las lindezas de mi padre, era ser inventor. Y entonces inventó eso en el año, creo que, 59 o 60. Tuve un padre mayor. Y yo sé que se lo vendió a Marconi, a Italia. A Marconi. A Marconi. Qué interesante. Estamos hablando de cuando estaba top el disco, ¿no? Se levantaba hacia arriba, ¿no? Para luego recopilar. Y volvía el brazo a su origen. A su sitio exacto. Sí, sí. Pues eso ya es una perlita que os he soltado. Así de rápido. Qué bien, qué bien. Pero bueno. Bueno, un poco recopilando, recapitulando un poco, pues eso, que a lo mejor, en cuanto de punto de vista de la accesibilidad, ¿no? No son cosas perfectas, porque siempre nos gusta pedir más. Siempre nos pasa con los móviles. Claro. Con que iPhone, pues, siempre nos fijamos a veces en eso que falla, o en eso que es el punto débil de la accesibilidad o tal. Pero no dejan de ser los mejores, ¿no? Desde el punto de vista de la accesibilidad, pues son los mejores terminales. Pero bueno, siempre nos gusta, pues, que sea un poco más. Y nos gusta ir mejorando, ¿no? Y también es muy interesante que Zoom, pues, también escuche a sus usuarios. Sí, bueno, a ver, Zoom es innovar y innovar es su mentalidad 100%, como unos japoneses. O sea, todo lo que puedan ir mejorando, te aseguro que lo van a hacer, te lo garantizo al 100%, ¿eh? Está genial. Y ser los primeros en esa línea, pues, va a abrir camino. Y lo que comentábamos antes, que si consiguen finalizar a los clientes, pues, nos van a tener aquí de por vida, vamos. Pues, muy agradecidos por eso. Pues, muy bien. Muchas gracias, Fernando. Claro, a vosotros siempre. Muchas gracias, Sara. Gracias a los dos. Gracias por invitarme. Gracias, Sara. Gracias. Y un saludo, un saludo a todos los oyentes. Un saludo a todos. Las grabadoras. A todos. Les acordamos, Ricardo, los medios de contacto. Pues, mira, el correo electrónico es gafotas arroba segatos punto es y... Y el WhatsApp, el más 34 644 6407. Gracias. Y el correo electrónico es gafotas arroba segatos punto es y... Y el WhatsApp, el más 344 6407. Pues, muchísimas gracias. Un episodio más por acompañarnos hasta aquí. Y hasta el próximo. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós... Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós. Adiós... Adiós. Adiós... Todo? Todo? Todo? Todo? Todo? Todo? Todo? Todo? Todo? Todo? Todo? ¡Suscríbete al canal!
Gafotas, cegatos y sus aparatos #4
Fecha: miércoles, 4 de diciembre de 2024, a las 00:00:00
En este cuarto episodio de Gafotas, Cegatos y sus Aparatos nos proponemos darte una Sobrecarga de conocimientos sobre contenedores que almacenan energía.
¿Te has quedado alguna vez con la batería baja en el peor momento? esta vez , nos ponemos las pilas con Jonathan Chacón, un crack de la accesibilidad y la tecnología, para analizar que retos presentan las baterías actuales y cómo enfrentarlos.
Desde las clásicas iones de litio hasta las emergentes en estado sólido, exploramos las oscilaciones de estas tecnologías: tamaño, autonomía y cómo factores como el calor las dejan sin energía. También descubrimos alternativas futuristas como baterías flexibles, generación termoeléctrica, y métodos más locos como la fotosíntesis artificial y la radiosíntesis, inspirada en hongos radiófilos de Chernóbil.
¿El objetivo? Imaginar un futuro donde no te quedes sin carga a mitad del día. Dale al play y súmate al viaje hacia un mundo con acumuladores de energía más eficientes. ¡Ya disponible en todas las plataformas!"
Intervienen:
Enlaces a Sitios referenciados en el episodio:
iPhone y el Caso Batterygate (apudacta.com).
Galaxy Note 7: Samsung confirma que las explosiones fueron por baterías defectuosas (Xataka).
Créditos:
Duración: 01:32:44
Mostrar descripción detallada del logo de Episodio 4. Baterías, ¿Talón de Aquíles de la tecnología?
Descripción detallada del logo de Episodio 4. Baterías, ¿Talón de Aquíles de la tecnología?
La imagen es una ilustración de estilo cómic que muestra a un hombre con un bigote prominente y cabello peinado hacia atrás. Lleva gafas de sol oscuras y unos auriculares grandes sobre las orejas. Viste un traje con corbata y una bufanda alrededor del cuello. En su mano sostiene un dispositivo que parece ser una batería grande con tres celdas visibles y dos cables que terminan en conectores tipo jack. La ilustración tiene un estilo retro y los colores son principalmente tonos de marrón, verde y gris.
Mostrar transcripción de Episodio 4. Baterías, ¿Talón de Aquíles de la tecnología?
Transcripción de Episodio 4. Baterías, ¿Talón de Aquíles de la tecnología?
Muy buenas, lo que sean. Yo soy Arturo Fernández. Y yo soy Ricardo Abad. Y esto es Gafotas, Cegatos y sus aparatos podcast. Bienvenidos al cuarto episodio de tu podcast favorito. Tenemos a Ricardo y su micro. ¿Qué tal Ricardo? ¿Cómo estás? Pues mira, Arturo, muy bien. Me alegra escucharte y también que podamos estar ya otra vez con la audiencia. Y esta vez, más que hablar yo de mi micro, vas a hablar tú del tuyo porque está diciendo la gente que sales un poco con la ganancia subida en los episodios anteriores. Salía, salía. Ya la he bajado un poco a ver si sale un poco mejor. Bueno, hay que ver cómo nos hemos vuelto con el tema del sonido. Estamos aquí un poco pijoterillos aprendiendo y intentando mejorar el episodio. ¿Y hoy estás cargado de baterías? ¿Cómo andamos? ¿Cargado de energía? Pues sí, en principio estoy cargado de baterías. Bueno, la tengo al 35%, pero yo puedo sacar mucho rendimiento de esta batería. Aún así, bueno, ya sabes que el tema de las baterías da para mucho. Y si yo no estuviera cargado, pues tendría un cargador externo o cualquier otro sistema que me pudiera cargar. De todas formas, yo no soy la persona indicada para hablar de baterías. El invitado de hoy sí que tiene conocimientos y probablemente nos ponga al día. ¿Tú cómo vas de baterías? Pues aquí andamos. No sé si es energía recargable o si son baterías de litio, de níquel cadmión o yo creo que la mejor es la nuclear, que es la más ecológica, aunque digan lo contrario. Pero bueno, para que nos cuente mejor de todo esto, tenemos a nuestro invitado. Jonathan, muy buenas, ¿cómo estás? Buenas Ricardo, buenas Arturo. Pues muy bien, un placer y totalmente cargado. Muy bien, Jonathan, bienvenido. Estamos muy contentos de que estés aquí en Gafotas, Cegatos y sus aparatos. Y bueno, a Jonathan lo conoceréis mucha gente porque lleva muchos años, aunque es muy joven, dedicándose a divulgar desde su blog, desde sus aplicaciones, mayormente desde sus trabajos, las colaboraciones que hace en otros podcasts y demás. Él se autodenomina investigador y desarrollador de accesibilidad y nuevas tecnologías, que su trabajo en la actualidad es líder en accesibilidad en Cabify, la compañía de transportes. Pero, pese a todo esto, esencialmente es muy friki de la tecnología, pero no solo de asistencia, sino de todo tipo de tecnologías. Entonces es una persona que no solo se informa y disfruta obteniendo esta información y compartiéndola, sino que también se atreve a cacharrear. Es un gran cacharrero, empieza a no tener visión, pues acomete también reparaciones y demás. Y bueno, está muy bien. Y bueno, este es el perfil de Jonathan que cuando le dijimos, Jonathan, nos gustaría que participaras en el podcast, pero no para hablarnos de accesibilidad, no para hablar únicamente, me refiero, sino de tecnologías. Y aceptó, con lo cual estamos muy agradecidos. Como siempre, Ricardo, tú sabes que lo más importante es divulgar y compartir. Y bueno, como tú bien indicas, no es solo de accesibilidad de lo que uno vive. Y en ese apartado de nuevas tecnologías es indispensable tener conocimientos y experiencias con ramas troncales de la tecnología. Todo es tecnología, desde el uso de una piedra, como siempre digo yo, que fue el primer producto de apoyo, porque somos bichos bastante indefensos y tenemos que suplir nuestra indefensión con tecnología. Y bueno, el tema de las baterías, la verdad es que el fallo fue mío, porque cuando Ricardo me vino a preguntar, yo le dije, de lo que quieras, y me saltó lo de baterías. Yo he de reconocer que la química no es uno de mis fuertes, me defiendo, pero no es uno de mis fuertes. Pero sí tiro bastante por la parte de física. Y bueno, para no meternos en temas muy enreversados, decir que una batería pues es un elemento que lo que hace es transmitir energía a un elemento que la consume. Y por ahora necesitan una conexión física entre el generador o batería y el receptor o dispositivo que la consume. O incluso no tiene por qué ser un dispositivo, puede ser un sistema o incluso un ente vivo, biológico. Y además esto de las baterías pues afecta a todos, aunque a veces pues intentamos que la tecnología sea transparente, pero desde lo más pequeño hasta la empresa más grande está afectada y puede estar afectada positiva o negativamente pues todas las baterías, ¿no? Ricardo, ¿algún ejemplo de alguna empresa grande que haya tenido algún problemilla? Hombre, pues el famoso Battery Gate de Apple, cuando no hace mucho, porque realmente no sé los años que hace, pero no hace mucho, pues los usuarios se dieron cuenta que al actualizar sus teléfonos, algunas aplicaciones y el teléfono en sí les funcionaba más lento y entonces, bueno, esto fue por una gestión de la administración de la batería que aplicó Apple para los modelos más antiguos, cuando las aplicaciones exigían muchos recursos y el procesador no era suficiente. Y no se entendió así, se entendió como obsolescencia programada y entonces, ¿qué pasó Arturo? Eso es, esto fue en diciembre de 2017, donde la gente se enfadó mucho, muchísimo, porque consideraban que Apple no había sido transparente con ellos, con los usuarios, que de repente pues los dispositivos más antiguos, con las baterías más deterioradas, empezaban a ir más despacio y las asociaciones de usuarios y demás, pues denunciaron, pusieron varias denuncias a Apple y su imagen pues se vio muy afectada, ¿no? Un poco perjudicada. En cambio, yo quiero decirles a toda la gente de Apple, hermanos, yo sí que os creo. Yo creo que sí que tenían razón en este sentido, es decir, lo que estaban haciendo y siguiendo lo que es la política de Apple, el limitar el funcionamiento de un dispositivo cuando el requerimiento del software es superior a lo que puede dar el procesador, es una práctica correcta, no sé si... Fue un poco feo, por lo menos feo. Fue un error de gestión, tanto de la comunicación a los usuarios finales, como de no permitir un sistema para desactivarlo. La verdad que el problema era que... Falta de transparencia, tal vez. Sí, muchísimo. En la comunicación a los usuarios, vamos a hacer esto porque hay un riesgo de que ciertos modelos con baterías deterioradas entren en lo que se llamaba degradación extrema de la batería, que provocaba que se hinchase y son famosos los iPhone 3GS, 4 y 4S, que estallaban la pantalla hacia afuera, incluso algún daño físico, por suerte no a personas, siempre a lo mejor a una prenda de vestir o a un mueble, y entonces para evitar eso, en modelos con baterías bastante más grandes, como era el 6 Plus o los 7 Plus, 8 Plus, pues tomaron esa decisión unilateralmente de cuando la batería tenga una degradación de cierto nivel, creo que era a partir del 80 o 70 y mucho por ciento, el procesador no podía ir más allá del 70 por ciento de su capacidad, lo que pasa que hicieron un algoritmo un poco chapa. ¿Qué pasa? Que había gente que tenía degradación del 60% y del 50%, entonces en vez de quedarse en ese 70% del procesador, seguía bajando, entonces había procesadores que no es que fuesen lentos, que se iban para atrás, o sea, mal, y era todo por seguridad. Correcto, antes he dicho la política de Apple, pero quería decir la filosofía de Apple. Tomar decisiones unilateralmente. Por el bien del usuario, por supuesto, siempre por el bien del usuario, supuestamente. Y bueno, a veces también el usuario quiere tomar decisiones sin entender y es una de las cosas que nos enfrentamos a la hora de incorporar baterías a dispositivos móviles o no tan móviles. A la hora de plantearnos un dispositivo móvil, bien sea un teléfono, bien sea un wearable, bien sea un vehículo, bien sea un elemento domótico para el hogar que no puede estar conectado a la reeléctrica porque es, por ejemplo, un detector de humedades o un detector de inundaciones o una luz para la terraza o la azotea, pues es muy importante tener en cuenta que dependiendo del tamaño, la temperatura a la que va a estar expuesto el dispositivo, muchos factores, el tiempo de uso que va a tener un pico de energía, pues se tiene que optar por un tipo de batería o una tecnología de baterías, que eso va a limitar muchísimo el rendimiento del dispositivo. Por ejemplo, puede que queramos un dispositivo con una forma esférica, eso nos va a limitar que, por ejemplo, no podamos elegir baterías de íon litio y tengamos que ir por polímeros o baterías de gel. ¿Qué pasa? Que las baterías de gel o de polímero, si hay un impacto lo suficientemente fuerte, pues son bastante explosivas y hay que tener cuidado con ese tipo y entonces la solución a nivel de industria cuando se tiene que producir un dispositivo wearable con ese tipo de batería es que hay que meterlas en un cofre, una especie de armadura, para protegerla de impactos porque si no, no consiguen el certificado de comercialidad en Europa o Estados Unidos y luego lo que pasa es que eso va en contrapunto a que el dispositivo no es fácilmente reemplazable en piezas. Entonces, digamos que es un contrasentido continuo y son muchas decisiones. He hablado de íon litio, he hablado de polímero litio, hay otras tecnologías, pero vamos a centrarnos principalmente en las actuales que están en el mercado, que son la íon litio y la de polímero litio. Las de íon litio son las clásicas que hemos tenido hasta hace un par de años y digo que hemos tenido porque ya empiezan a utilizarse más baterías híbridas que tienen una parte de íon litio y otra parte de un polímero e incluso están sustituyendo el litio por otros materiales o minerales, pero eso lo veremos más adelante. Y el tema está en que hasta hace relativamente poco se utilizaban otros metales más nocivos como el níquel, el cadmio, incluso el plomo se sigue utilizando, el plomo se habla de plomo pero en realidad es una base sólida de plomo junto con unos ácidos que provoca la contención de electrolitos. Es como la batería de los coches, ¿no? Exactamente, son muy pesados y eso llevarlo enganchado a un teléfono como que no. Hay un tema de entender en cómo se consigue electricidad. Normalmente se consigue electricidad cuando ponemos dos elementos en contacto y hay una diferencia, hay un diferencial entre ambos ellos, bien porque son de distinto material o son de distinta temperatura o son de distinta carga potencial o una combinación de todo eso y eso provoca que las cargas eléctricas entre ambos semiconductores o entre ambos materiales se muevan. Una vez que tenemos movimiento en las cargas eléctricas, electrones, pues podemos extraerlos para alimentar a ese dispositivo que está conectado a la batería. El tema está en que ese movimiento de los electrones provocan uno de los grandes problemas de las baterías de ion litio, que aunque sean baratas, porque ya se ha descubierto uno de los grandes bulos de la industria, que decían que el litio era muy escaso en el planeta, en realidad que había que cavar un poquito más al fondo y se ha descubierto que hay fuentes de litio para aburrir, aunque hay materiales más abundantes en el planeta, pero bueno ya el litio no es escasea, ya eso de vendernos una batería para un coche por valor de 8.000 euros ya no. Pero he leído por ahí que están buscando ya otras alternativas y el litio que ahora están codiciado probablemente deje de tener valor porque no sea ya el objetivo. Es que el litio es muy costoso de extraer, hay mucho pero es costoso porque hay que, como lo explico para civiles, hay que filtrar una especie de salmuera química que se extrae de canteras y de pozos, como el que extrae petróleo y gas pues hay que hacer un filtrado de ahí y extraer el litio que nunca viene puro y entonces tienes que refinarlo y entonces es un proceso bastante costoso, no sólo a nivel económico para el extractor, la empresa que extrae el litio, sino también a nivel de ecología y sostenibilidad del planeta porque mina de litio que hay, catástrofe ecológica que tenemos siempre. En Cáceres había una planteada, no sé si la llevarán a cabo. Si se hace con los nuevos sistemas de control no hay tanto peligro como existían los 80 y los 90, que no se gestionaba, por ejemplo, no había tecnología para gestionar la emisión de gases, los gases se dejaban salir a la atmósfera, pero es que esos gases es una proyección, un spray y eso cae porque todos los elementos tienen peso, entonces cae al suelo, entonces no te cae al lado pero a lo mejor cae a 20 ó 40 ó 60 kilómetros más lejos de donde estaba el géiser. Está claro. Muy bien. Y bueno, temperatura, no podemos utilizar una batería de ion litio o de polímero en ambientes de más de 50 grados Celsius de media, o sea, en Écija, en Sevilla, hay peligro de que te cargues el iPhone por la temperatura ambiente y, por ejemplo, irte al Sáhara o irte a la Antártida o al Ártico, pues las baterías de ion litio y de polímero litio, en el caso de las de polímero, el tema de la temperatura les afecta más el frío, en las de ion litio les afecta más el calor, pierden esa capacidad de mover los electrones y entonces pierden efectividad. ¿Qué pasa? Que al aumentar el coste para mover esa carga, la degradación es mayor y también el riesgo de que se rompan los sistemas de contención y de todo el tema de fracturar los componentes internos de la batería. Y ya si hablamos de baterías sólidas de metal litio, ahí hay mucho más peligro porque se pueden crear grietas y por eso se están haciendo muchos estudios con otros materiales, por ejemplo, las baterías de ion sodio aguantan muchísimo más el rango de temperatura. El sodio es mucho pero bastante más denso que el litio, eso implica que puede almacenar más electrones, puede almacenar mucho más carga y también el estado químico natural del sodio es más estable que el litio, entonces la degradación es menor. Mientras que una batería de ion litio puede aguantar 3.000-5.000 ciclos de carga-descarga, una batería de sodio, las pruebas que hay empíricas en laboratorio, pues dejaron de contar a partir del millón de ciclos carga-descarga. O sea, una batería que te va a aguantar un millón de ciclos hasta que aparezca una degradación superior al 90%. O sea, es una maravilla. Problema, el sodio, al ser más denso, pesa más. Una batería de sodio y una batería de litio, para el mismo volumen, pensemos en esas baterías tan monas que tenían los Nokia, de unos 3 por 2 centímetros por uno de alto, una especie de pastilla de jabón de hotel, pues una batería de esa pesaba unos 75-100 gramos. Si fuese de sodio, pesaría unos 300-500 gramos. Estamos hablando de tres veces más, cuatro veces más. Sí, sí. Y eso sin contar con el cofre, en algunos casos la administración de cada país obligaría a imponer, que esa es otra. Estamos hablando del peso útil de la batería. Hay baterías que en realidad pesan 20 gramos, pero como van en un wearable, la industria obliga a meterles un cofre de protección contra impacto, contra rotura, que hace triplicar su peso. Un wearable es toda aquella tecnología que se lleva encima, en la ropa, en los accesorios y demás. Así es. Y junto a las baterías de ion-sodio, pues hay otras alternativas, como acumuladores de calor, acumuladores de diferencial químico, y eso siempre hablando de dispositivos pequeños. Si ya nos vamos a dispositivos grandes, como puede ser una casa, un vehículo, una planta de fabricación, ya hay muchísimas más tecnologías. Desde utilizar un diferencial de altura de agua, o sea, por la noche subimos el agua a una cierta altura y durante el día la dejamos caer y eso va produciendo electricidad. Y tenemos, entre comillas, una batería eterna. Pues no es así, porque el agua se evapora. Toda batería tiene una degradación, bien sea por la evaporación del elemento producto. ¿Explicas tú qué es el calostro? Pues el calostro es aquella primera parte que, cuando amamantaban cabritos, lechones y cualquier mamífero, hasta humanos, pues era una parte más espesa de el nutriente que daban a través de las mamas, las madres, y estaba lleno de muchos elementos y minerales y vitaminas en general. Pues estamos en la primera toma de pecho tecnológico a nivel cuántico, aunque hay mucha investigación teórica. Ahora, gracias a la miniaturización extrema de las herramientas y los observadores, sensores, microscopios y demás, podemos ya poder trabajar. Pero estamos muy lejos. Las baterías cuánticas prometen no degradación y producción casi eterna de energía. Eso va en contra de muchos principios de la física teórica y de la física práctica. O sea, no hay nada eterno, todo va a la entropía. Entonces, quizás es que no conocemos todavía la realidad en la que nos movemos y el mundo cuántico tiene otras reglas, que ya se está demostrando que así es, pero estamos muy lejos de esas baterías cuánticas. Entonces, por todo lo que estás comentando, la limitación en las baterías en general es la que nos está llevando a una limitación en la tecnología. No tenemos sistemas, dispositivos, aparatos más potentes porque no tenemos una batería que lo pueda soportar. Claro, ahí tenemos el problema, por ejemplo, de la implantación de vehículos eléctricos por el límite de autonomía. O sea, mientras que un vehículo de combustible, aparte de una tasa de recuperación de efectividad, o sea, repostar el depósito es casi inmediato. Mientras que una batería, aunque se están haciendo ciclos de carga cada vez más rápido, los veinte minutos, media hora de recarga en una electrolinera no te los quitan. El problema está en que más batería en un vehículo, más peso le pones al vehículo, más electricidad gasta para mover ese vehículo, entonces es un ciclo vicioso que no, no, hay un límite. No existen hoy por hoy camiones de carga grande, o sea, camiones de más de 12 ejes que sean totalmente eléctricos. Ya empieza a haber camiones de 2, 4, incluso 6 ejes, pero la industria no lo está apoyando mucho porque están viendo el rendimiento y no sale a cuenta. Taxis sí, vehículos para repartir sí, pero para cargas pesadas todavía tiramos de combustible. Y ahí la gran esperanza es las baterías de hidrógeno. Mira, Fijaros, hablando con mi hijo sobre este tema, que también le apasiona, digo el de la tecnología, no el de las baterías. Me comentó que había una empresa china cuya propuesta era la siguiente, es decir, te vendía un vehículo autónomo, eléctrico, lógicamente, pero también gestionaba todo lo que era la carga y la reposición de las baterías, cerraría el círculo. Con eso él se aseguraba, la empresa me refiero, que las cargas fueran más correctas y durará mucho más tiempo la batería. Probablemente donde hay un problema hoy en las cargas de baterías de estos vehículos autónomos es un poco en lo desbaratado que está todo y el poco rigor que hay a la hora de ponerle una serie de parámetros adecuados a cada batería que acaba deteriorándola antes del tiempo que le corresponde. En este caso yo lo veo muy interesante porque me ha hecho mucha gracia lo de electrohorineras, has dicho, que serían gasolineras eléctricas. Me ha hecho gracia porque yo conocí una electroharinera, que era del principio del siglo, era preciosa y en aquel momento era producción de harina a través de medios también con electricidad. Bueno, esto era una curiosidad. Bueno, pues entonces esa era la circunstancia. Claro, y no podemos ir solo a problemas y límites actuales para cosas grandes, también para cosas pequeñas. O sea, estamos en un momento en que la cibernética y la mecatrónica están llegando a la salud. Digamos, de llevar wearables dentro de nuestro cuerpo. Todo el mundo, claro, no dice que es un marca pasos o un dye, un desfibrilador autónomo independiente, para la gente con cardiopatías severas o, por ejemplo, las bombas de glucosa o bombas de insulina. También hay bombas de adrenalina para algunos pacientes. Todo eso, por desgracia, tienen una vida media que no se estima más allá de cuatro años y son pacientes que no tienen una salud fuerte y le estás obligando a ciclos óptimos. Digo óptimos porque hay gente que le ponen un marca pasos y se comen la batería del marca pasos en un año porque tienen arritmias o su corazón está deteriorado o son gente que se les dice que lleven una vida pacífica y no lo hacen. Pero ¿hay una degradación por el uso o realmente por algún tipo de producto orgánico que también las deteriora? Un poco de todo pero, por ejemplo, en el caso de los marca pasos es que si tú no te cuidas cuando ya tienes un marca paso estás obligando a que el marca paso se esfuerce para corregir eso de no te pongas a correr que tienes un marca paso, que estoy viendo una película para adultos. Lantearte otra cosa. Entonces es un tema de las baterías además tienen un sobreesfuerzo que dependiendo la tecnología que utilicemos, si es ion litio el sobreesfuerzo porque tú le pides un alto rendimiento no lo pueden hacer. Es más, se siguen utilizando baterías de níquel, cadmio, porque son baterías que dan suficiente potencia para utilizar ciertas herramientas como taladradores. Pese a la toxicidad del cadmio. Pese a la toxicidad del cadmio pero hay una justificación esas baterías van a ser utilizadas en herramientas profesionales que no en teoría no están disponibles para todo el mundo. Eso de mantenerlo alejado del alcance de los niños. Correcto. Por desgracia como no hay un sustituto para ese tipo de baterías y por ejemplo que digo yo en una cantera de mármol rojo en Australia ha dejado unos 700 kilómetros del núcleo poblacional más cercano pues ahí tienes que llevar baterías de ese tipo para que los taladros funcionen. Esto también es un punto interesante que hoy en día que todo es ecologismo pues los residuos de las baterías pues también hay que tratarlos y no son precisamente muy limpios. Claro ahí hay un tema de se hablaba hasta hace poco y digo poco porque ha sido este año cuando se ha publicado por fin el paper de una investigación de más de ocho años cuando se degradaba una batería de níquel cambio no era recuperable o sea el 100% del elemento iba para la basura tú podías lo que es desensamblar la batería intentar recuperar el níquel el cambio no era recuperable se tenía que tratar como un residuo. Un residuo contaminante no se podía hacer nada con él. No, o sea ya había sufrido una transformación química por haber sido utilizado como batería ese esfuerzo de mover el electrón sobre él pues provocaba unas reacciones químicas que aquello ya no como cuando te pasas de aplicar calor al estaño que ya lo degradas. Bueno pues en el caso de la de ion litio se podían recuperar un 20-40% de la batería para intentar fabricar otras y en el caso de la de polímeros con suerte se llegaba al 60%. Con una nueva tecnología que se está empezando a aplicar ahora se consiguen recuperaciones de la de ion litio del 80% y de las de polímero dicen dicen lo que pasa que todavía no se ha publicado en el estudio por completo que del 98%. ¿Las de ion litio fueron las que tuvo Samsung tantos problemas cuando las sacó y quiso hacerlas tan grandes o esas eran polímeros? Sí las de ion litio con la del Note 7 ahí fue una tormenta perfecta porque fue una batería demasiado grande en lugar de hacer lo que hacen otros fabricantes de pongo cuatro en línea en serie ellos dijeron yo pongo una sola entonces el cofre de protección no era lo suficientemente fuerte como para mantener la estabilidad de todo el componente que pasa que a eso se le iban generando micro grietas y las baterías cuando fuerzan ese movimiento de carga empiezan a producir calor y produce calor calientas lo que tengas al lado que es una pantalla oled que se calienta la pantalla oled calienta la batería la batería que ya está calentita se vuelve a calentar y tienes un detonador cuando tú tienes un ciclo térmico de un lado a otro que se retroalimenta eso se llama detonador y entonces pues así detonaban yo leí una noticia que me llamó mucho la atención que era sobre unos documentalistas australianos que se desplazaron al desierto esto sería sobre el año 95 por ahí que más o menos cuando tuvieron un poco su salida no al mercado este tipo de baterías con mayor expansión no y lo utilizaban las cámaras de rodaje las cámaras de vídeo no de grabación entonces habían ido a hacer un documental pues era sobre bueno pues un sargento americano que cruzaba el sáhara para un poco salvar a su ejército o bordear no lo que era el acoso de rommel de la rata del desierto no y llegar a un punto concreto bueno pues en todo este en toda esta movida dejaron una de las baterías pues junto a la arena ya una roca bueno aquello con 50 grados de temperatura dándole el sol una detonación pero brutal brutal hasta el punto que toda la gente llegaron a pensar que si era actividad volcánica del desierto del sáhara porque realmente fue muy muy muy muy bruto lo que pasó sí que es cierto que a raíz de esta de este incidente y de que lo reportó el equipo a la gente pues se tomaron medidas de protección lo que tú dices no estas cámaras antitérmicas anticalor no una cosa es apoyar suavemente la batería en el suelo y hay gente que quiere o antes de llegar al suelo 10 centímetros una batería que pesa un kilo pues va creando micro fracturas en esa cámara entonces dice tú bueno una micro fractura no va a costar no pasa nada pero cuando tienes una situación de 50 o 60 grados pues cualquier problema se magnifica y ahí podemos entrar también en el problema que estamos teniendo ahora en el espacio que estamos utilizando no baterías sino acumuladores porque en el espacio para recargar sólo tenemos paneles fotoeléctricos o generadores de electricidad por isótopos o por combustible en gel porque el combustible líquido en el espacio se congela vaya entonces hay que usar geles que son más densos ya podemos estar más tranquilos es decir este tipo de explosiones este tipo es decir han conseguido la industria ha conseguido protegernos la industria ha conseguido protegernos mucho más y en eso los problemas que tuvo samsung con el galaxy note 7 abrieron los ojos a vale nos estamos centrando en los grandes fabricantes pero los pequeños fabricantes no o sea no estábamos observando toda la cadena de producción un uno de los fabricantes más importantes de batería es hitachi pero hitachi no produce las baterías es la empresa que te las vende la producción a lo mejor estaba en en saigón o estaba en en tailandia o estaban en otro lugar de china y cambiaron de proveedor y entonces los procedimientos no tenían la misma calidad que antes entonces bueno me vale carga entonces hubo mucha batería defectuosa y samsung se lo comió entonces ahora incluso cuando se hacen los análisis y un producto seguro para el mercado se presta muchísima más atención ahora a la batería que incluso a los componentes funcionales del dispositivo a un pequeño inciso cuando se va a comercializar un producto en europa o en eeuu sobre todo europa que es certificado de pues se hace se presta muchísima más atención ahora a la batería y a las piezas móviles por ejemplo un producto puede perder su capacidad de ser comercializable en europa porque una pieza móvil se desprenda y sea de poco tamaño y eso puede ser un peligro para gente muy joven o muy mayor entonces esas piezas móviles a menos que sea de un impacto o sea cualquier fractura o desprendimiento por un accidente no no no debe ser en el uso cotidiano sacando metiendo un uso normal del elemento se desprenda y se desprende una pieza pequeña pues eso ya te invalida el poder comercializarlo en todos los países de la web y también hoy en día sigue habiendo problemas con patinetes y cosas de estas que también de vez en cuando hay alguna noticia por mal uso en muchos casos muy mal uso y también que no se compran a través de las vías oficiales tener en cuenta que las aduanas no pueden observar el 100% de los productos que entran en el territorio que pasa a ti te viene un patinete por poner el caso más habitual de elenco que es una sub filial de xiaomi el patinete oficial de xiaomi que es como 200 euros más caro que el delenco no ha habido demasiados problemas si ha habido alguno ha sido porque el pasajero se ha estampado y ha provocado la fractura de la batería sino de más componente pero el delenco si venían con baterías e incluso los recambios de batería no cumplían la con la normativa de la unión europea tenéis en cuenta que esta normativa es del 2018 bueno vamos a dar un aviso a navegantes no que supone porque es muy común que por ahorrar unos euros unos dólares o lo que sea que está muy bien la gente acceda a comprar baterías más económicas a que se enfrente dispositivos en general el dispositivo lo podemos dejar fuera y prestar atención a la batería de la batería aunque todas nos pueden parecer lo mismo su vida útil va a depender mucho no de los materiales empleados sino de su pureza y también de los procedimientos que se han utilizado para su ensamblaje una batería que esté contaminada contaminada es que además de los elementos sólidos no sólidos de su interior pues haya entrado un poquito de aire o el alineamiento del cilindro entre cátodo y ánodo pues no esté lo suficientemente alineado o que el cofre de protección tenga micro grietas porque aquí el señor montador los tenía todos en una caja como el que tiene puntillas todo eso importa porque porque es como la creación de una bombilla incandescente mientras menos oxígeno haya dentro de la esfera de cristal más años va a durar por cierto esto hay una historia muy bonita de que philips y los grandes fabricantes de bombillas se aliaron entre todos para al menos poner un 0,1 por ciento de oxígeno dentro de la bombilla para que no fuesen eternas pero bueno eso ya con lo cual hay que les damos las gracias a estos sinvergüenzas bueno que tenía razón y lo que estaba comentando artura es así no sólo batería sino cuando el dispositivo también es barato y no está contrastado lleva dentro una batería efectivamente por eso decía que si compras un móvil o un patinete o no sé qué pues claro va con su batería incorporada no y cuando hacen las versiones internacionales o cosas y pues a lo mejor sí que tienen en cuenta la legislación de otros países y ya por así decir pues le ponen más cariño a la hora de fabricarlo y la versión local sólo con intención de venderla sólo en china por ejemplo pues a lo que quiera pero que muchas veces pagamos la marca por las garantías en el resto de países pueda lo mismo hay que ver el lado bueno y el lado malo de la sobre regulación de cosas que no estamos quejando mucho de europa pero hay cosas que sí son buenas yo por ejemplo he tenido la oportunidad de acordar cuando dejábamos un teléfono móvil al lado de una radio o una televisión pues con un móvil comercializado en perú eso no era un piri piri eso eso era horrible o sea sí sí sí totalmente pero bueno es también un tema de la seguridad que tenemos a la hora de manipular un dispositivo que vamos a llegar a llevar pegado al cuerpo en las baterías aunque limitan lo que podemos hacer con la tecnología se está avanzando mucho y con las nuevas modelos de batería aún desconocemos el impacto o los problemas que vamos a tener con ella por ejemplo las baterías de ión sodio si llevamos ya casi 20 años estudiándola y ya se están utilizando de forma experimental en por ejemplo el sistema de alimentación eléctrica auxiliares los conocidos site para o los cuerpos electrógeno de hospitales pues además del cuerpo electrógeno por combustible también hay un cuerpo electrógeno de batería de sodio son las que he dicho que pesarían tres o cuatro veces más que las actuales no pero sí sí pero es que encima está de para alimentar un edificio para el tema de el cerebro del edificio inteligente pues es del tamaño de una de una nevera de metro 80 bueno no está mal el bicho pesado o suyo entonces son cosas que ponerlo en un vehículo o en un coche no no no o sea si el coche ya de por sí pesa unos 800 kilos le pones eso y no nos vamos los 3.000 actuales un coche eléctrico nos vamos los 5.000 u 8.000 y luego para cargarlas y para todo pues tampoco no están claro porque la batería de ión sodio por desgracia tienen menos velocidad de carga que eso es otro tema que ahora entraremos de que las de polímero de litio la velocidad de carga o las formas de cargar una batería también es un limitante tecnológico para los dispositivos de hoy de mañana por ejemplo un wearable que va a ir en contacto con nuestra piel bien sea un reloj bien sea un auricular bien sea algo que va al pecho o que va en contacto con las mucosas no debe tener puertos de carga convencionales tienen que estar sellados y muy protegido en el caso de auriculares bluetooth por ejemplo son pines muy pequeños o son agujeros muy pequeños donde se hacen pruebas que la superficie de la apertura nunca superior a la superficie de de colapso de aceites sabéis que si tenemos una superficie metálica le hacemos agujeros de un tamaño mínimo y ponemos aceite por ahí si es lo suficientemente pequeño el orificio el aceite no no pasa por ahí pues eso se estudia y todo el tema este provoca que las baterías tengan una velocidad de carga solución carga por inducción hay grandes fabricantes que han querido no sé si hacer marketing o romper las leyes de la física porque la carga por inducción tú utilizas un un circuito con un cable en espiral y eso provoca que la carga electromagnética vaya en una dirección lo que pongas ahí recibe esa carga electromagnética si ese elemento tiene un receptor de carga electromagnética tenemos un wearable con un autocargador lo único que tenemos que hacer de pasar es ponerlo en un campo electromagnético para cargarlo pues ese cargador por inducción en realidad es una bobina de un cable que dependiendo de la tecnología pues lleva su cobre con su poquito de de níquel o también lleva el cobre con algunos metales nobles y eso provoca que vaya electricidad cargas eléctricas en el aire y mientras más cerca pues más pronto carga pero actualmente no hay ningún cargador en el mercado que supere un aprovechamiento del 65% de lo que se manda o sea nosotros queremos cargar a un móvil y le estamos regalando un 45% del dinero que costaría cargar ese móvil a la empresa productora de electricidad esto es importante que sepan son este tipo de cargadores por contacto que no tienes que conectar nada si no depositas el móvil en una especie de condor a mano o recipiente o la monedita típica de los inteligentes y todo esto esto es lo que se llama también carga por inducción y esta es la que regalamos un 40 a 45 por ciento de la carga al respetable y este punto también es importante que no todos cargadores son iguales aunque por fuera todos son un trozo de plástico que se enchufan normalmente al enchufar la pared y por otro lado hay un cable para enchufarlo a nuestro terminar a nuestro móvil reloj o lo que sea por dentro no todos son iguales no porque hay algunos de esos productores de inducción o cargadores como queremos llamarlo que tienen bobinas de mejor calidad de mayor recorrido y de mayor altura que permiten que en lugar de tener un cono de emisión tengan un cilindro o sea la producción electromagnética está más concentrada entonces se despilfarra pero existe el cargador universal para cualquier tipo de dispositivo que lo dejan es que depende depende de si tu dispositivo es compatible con cómo transmite ese cargador TRANSCRIPTION TEXT TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION CHARACTERISM TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPTION TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIO TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIpción TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN TRANSCRIPCIÓN Tiene una pequeña pantalla digital y funcionaba. ¿Por electrolisis o algo? En realidad, bien puede ser por un diferencial de humedad que mueve algo en su interior o bien por un diferencial de temperatura, que ese agua provoca que haya una diferencia de temperatura y provocamos ese movimiento de cargas eléctricas. El tema es que se evapora. Un pequeño apunte. Sabéis que no se produce en una central nuclear, no se produce electricidad por el uranio. El uranio lo que hace es calentar agua a vapor y ese vapor se mueve a velocidades brutales por unas tuberías que mueven unas turbinas que eso tiene... la turbina está conectada a una dinamo que es lo que produce la carga eléctrica. No es que haya gente que se pensara que el uranio es lo que está dando chispazos y no, no es así. La energía la seguimos obteniendo con la máquina de vapor, en este caso movida por uranio. Sí, sí. Ahí toda la investigación que hizo Tesla con las dinamos y las bobinas es toda la tecnología que tenemos de batería y de producción de electricidad en la actual. Se siguen utilizando los planos de Tesla, de Nikola Tesla, para diseñar centrales tanto termoeléctricas como nucleares como hidroeléctricas, o sea... Sí, sí. Yo he leído en algún sitio que existe también una forma de obtener energía en gurables, en cosas vestibles y ponibles, por el roce, por el simple movimiento. No hablo ya del impacto como tú decías con el talón y demás, sino para cargar pequeños dispositivos pues haciendo vida, ¿no? Es decir, insertados o integrados en la ropa, este tipo de sensores que no sé lo que serían, no sé si conoces algo de ello. Sí, hay varios. Hay pequeños sensores, por ejemplo, para temas de doméstica. Hay unos interruptores, un interruptor de pared, un botón, que se comunica inalámbricamente con la central o lo que sea y no lleva ninguna batería ni nada. Simplemente con la pulsación del dedo hace un clack. Eso sí, son un poco ruidosos. Y ese clack es el que produce la suficiente energía para poder transmitir con el protocolo que utilice cada uno y comunicarse con la central y decir que has pulsado ese botón. Pero una Dynamo también, ¿no? Es similar. Más que una Dynamo es un sistema de rozamiento que hace que suba la temperatura entre 3 y 8 grados durante un instante. Vamos, el mismo mecanismo que un cipo. Le metes a la piedra del mechero, provocas esa chispa, sube la temperatura y le pones un combustible, sea gasolina o gas, y tienes la llama. Pues esos interruptores también. El problema de esos interruptores, como estaba discutiendo yo con un compañero del foro de Vida Diaria para Personas con Discapacidad, es que como tenga fibromialgia o algún deterioro muscular en la mano, no tiene fuerza suficiente porque Mientras que un interruptor necesita unos 10 newton de potencia para activarlos, un niño puede producir tranquilamente 25 newton. Ese interruptor puede necesitar unos 40 o 45 newton de media. Sí, van más duros y hacen un ruidito, además, clack, que por la noche o tal también puede ser un poco molesto. Sí, he recordado una cosa que antes quería haberla comentado y se me pasó. Hay que ser prudentes, ¿no? Y cuando nos ponemos a cargar nuestros móviles, nuestros gadgets, no hacerlo cerca de cosas inflamables como ropa, tela y demás. Es decir, está la tecnología muy avanzada, pero la chispa aún sigue saltando, ¿no? La chispa aún sigue saltando, sobre todo si utilizamos no solo cargadores o baterías de dudosa procedencia, sino los cables. Los cables muchas veces son los grandes generadores de esa chispa. De todos modos, lo que se nos ha dicho de pequeños siempre de, niño, no te acercas al fuego de la cocina, pues lo mismo tenemos que aplicar a toda vida diaria. O sea, si tú pones a cargar el móvil en una mesa y pones encima un jersey, está provocando que el móvil se caliente aún más. Pero muchas veces la almohada puede estar tocando casi, ¿no? Porque se carga en la mesita de noche y está muy próxima, es muy fácil. Sí, es fácil, pero por suerte para nosotros esa chispa inicial no tiene una apertura de salto de más de un centímetro. O sea, esa chispa, cuando se emite, ten en cuenta que es un material que se desprende, que está cargado y de alta temperatura, 90 grados, entonces se baja de temperatura muy rápido. Correcto. No va... Hombre, si encima de estar la almohada cerca, te has pulido media botella de whisky en la almohada y pegas el chispazo... Claro que es más inflamable, sí, sí. Arturo me comentaba, cuando estábamos preparando la documentación y todo esto, de una historia en un festival de drones que me impactó mucho porque... De aeromodelismo, pues uno de los participantes, que llevaba más un Phantom 4, pues le cambió la batería por una de polímero de litio para durar más en el aire. La prueba fue un éxito porque duró más de una hora volando el drone y estaba el hombre feliz, como en París. Y cuando aterrizó, pues vio que la batería estaba más caliente de lo normal. Saltó unas pequeñas chispas y como el suelo estaba pues muy seco, se produjo un incendio. Bueno, hubo suerte porque era una exhibición, estaban por ahí cerca los bomberos, lo pudieron apagar, se incendió una hectárea. Y de ahí se aprendió que había que tener mucho cuidado con las baterías y desde entonces la asociación esta de aeromodelismo tiene un protocolo para guardarlas en bolsas aislantes, para controlar la temperatura durante el vuelo y después del vuelo y tener ciertas precauciones que habitualmente no se suelen tener. Mira, el ejemplo que dices, DJ, que es uno de los fabricantes más famosos de drones, tanto civiles como profesionales, lleva seis sensores en la batería. ¿Por qué? Porque ya en estos 20 metros de altura que suben, la batería exige un esfuerzo de un 10% más. Eso se va calentando, pero sería eléctrica. Bueno, el modelo de la pasarela empezó a humear, aquello que fue un desastre, la verdad es que les hizo un flaco favor, pero parece ser, supongo que esto sería un sistema de resistencia, un circuito cerrado que produciría un calor controlado y por alguna razón, claro, es que se juntaba todo el textil. Para tejer, muy diversos, tanto de que se producía una especie de emisión de inducción de carga, o sea, podías cargar el móvil poniéndote el móvil en la chepa del abrigo, pero claro, eso no, eran simplemente, la gente no se esperaba eso. A la hora de tejer, el tejido normalmente tú lo pones en forma de rejilla. Estás tejiendo baterías. Algo así, pero había tejidos que le daban forma y el hilo tomaba una especie de espiral, entonces se producía esa emisión electromagnética. De todos modos, ya sí hay productos de mercado que llevan baterías y estamos hablando no solo de chaquetas o pantalones, principalmente siempre es para ambientes de montaña o ambientes extremos. No, no, y calurosos. Yo le he echado el ojo a una chaqueta de trabajo que tiene refrigeración, o sea, para estar fresquito. No, no, te garantizan que el tejido se va a mantener a 15 grados. ¿Quién alimenta eso, una batería? Sí. ¿Una powerbank? Una especie de powerbank, lo que pasa es que la powerbank va alojada en la espalda de la chaqueta y tiene un grosor de un cuarto de centímetro y es flexible. O sea, tú al tacto tienes que tocar mucho para detectar. Simplemente lo notarías como una chaqueta de tela gruesa. En realidad, ese tejido es una batería. ¿Y cómo es el futuro de las baterías? ¿Por dónde va a ir esto? El futuro de las baterías, en el caso de los wearables, la carga rápida va a ser por contacto, sí o sí, porque hay un tiempo de uso, sino también en los ciclos de degradación. Hay mucha esperanza en abaratar el ión sodio o hacer una hibridación con el litio sodio para que la batería al menos no te pese un kilo, que te pese 200 gramos, pero tengas una batería de móvil, de un iPhone, que te dure las dos semanas o las tres semanas. ¿Cuál sería tu sistema de carga y batería ideal? Vamos a hacer una recreación. ¿Cuál sería tu sistema de carga y batería ideal? No hablo del futuro, hablo de lo que tú desearías. Es decir, en tu día a día hay unas necesidades, realmente a todos nos marean y nos llevan locos las baterías. Para ti, hoy por hoy, con las necesidades que tienes para cargar tus dispositivos y todo lo que tengas, ¿cuál sería tu sistema de carga y tu batería ideal? Pues yo, por ejemplo, me encantaría que de verdad un dispositivo que tiene batería, cuando está siendo utilizado conectado a la corriente, la batería no sufra. Porque, por ejemplo, el equipo portátil que utilizo para trabajar diariamente, cuando me voy de viaje, sí tiro de batería, pero el 99 lo utilizo conectado a la corriente eléctrica. En teoría no debería haber degradación, pues sí la hay. Menor, pero sigue habiendo degradación. Entonces, por ahí. Y luego el tema de los dispositivos inteligentes, o sea que tengan un nivel de procesador alto, no duren un día, duren día y medio porque siempre hay imprevistos. O sea, yo todas las noches cargo algunos dispositivos y durante la mañana, durante la ducha, cargo otros. Vamos cortos, es decir, lo que nos está ocurriendo. ¿Pero tú crees que esto es porque están administrando la tecnología y la van sacando poco a poco o porque físicamente no son capaces de ofrecer una solución mejor? Yo lo comento porque recuerdo que cuando sacaron el CD, que lo sacó Philips, a mí me comentaron, el CD es el disco que había, y me dijeron que la tecnología que había en Eindhoven, en Philips, esta del CD, ya había más de 15 años inventada y el propio mercado había administrado su salida, agotando el vinilo y otro tipo de soportes, hasta que tú piensas o vosotros. Y siguen utilizando tecnologías de al menos 10 años porque la están amortizando. Correcto. Porque están amortizando y quieren seguir amortizándola porque muchas veces también, probablemente hay otras tecnologías que estén por ahí, pero tienen que seguir amortizando y quieren seguir vendiendo lo que tienen. Y también hay un limitante regulatorio, o sea, yo puedo inventarme de repente una batería que funcione con hidrógeno, le echo agua, le pongo el tapón y tengo una batería que me dura el teléfono 3 semanas. Genial. El problema de una batería de hidrógeno actualmente es que es explosivo como tenga un accidente. Se me cae el teléfono con una batería de hidrógeno en el teléfono y el explotido que tuvo la batería de litio en el desierto se queda en pañales con el daño que puede hacer eso. Entonces vamos, tenemos claro que hay una obsolescencia programada, eso está claro, y ahora podemos hablar de un racionamiento de tecnología programado para amortizar lo que ha sido la inversión. En eso estamos de acuerdo, ¿no? Sí, por parte de los fabricantes de baterías sí, y por eso hay gente como Microsoft y Apple que llevan relativamente poco, porque creo que llevan 6 años, Microsoft, tienen su propia división energética y Microsoft ya está haciendo experimentos con grupos electrógenos con energía nuclear, o sea, centrales nucleares pequeñitas, ya pueden ser del tamaño de una habitación, pero son pequeñitas. Sí, para ciudades de 40.000, 50.000 habitantes, pero que podían darles luz perfectamente, ¿no? O centros de datos que darían suministro de inteligencia artificial a toda Europa. Se comenta también que Tesla, por la necesidad que requerían sus vehículos eléctricos, también ha hecho una evolución de lo que son las baterías bastante importante, ¿no? Sí, pero ahí Tesla lo que ha estudiado es el engranado de los filamentos de batería dentro de la batería en sí, del cuerpo de batería, que una batería de un coche eléctrico es una especie de tablao flamenco de 2x4 metros que va en el suelo del coche. Entonces, dentro de ese cofre, de ese tablao flamenco, pues tú tienes, por decirlo de una manera, un montón de pilas cilíndricas una detrás de otra, por ponerlo así en realidad. Haciendo investigaciones y cómo se pueden moldear las baterías cuando son de polímero y cuando estás haciendo una batería híbrida, no solo de ion litio, puedes darle forma. Pues descubrieron que con ciertas formas fractales se protegía contra la degradación y también se aumenta la producción energética sin aumentar el degradado. Entonces, se ha avanzado mucho y se ha conseguido y se ha ratificado la teoría física de que la forma y la ordenación de los componentes influyen muchísimo, no solo en el aspecto de temperatura, sino también en reproducción, almacenamiento y descarga. Bueno, pues si os parece, podemos ir dando algunas conclusiones y podemos ir terminando. Podemos lanzar una pregunta al aire, que es el título que le vamos a dar a este episodio. Entonces, podemos decir, os lo pregunto a los dos, que la batería es el talón de Aquiles de la tecnología. Actualmente es un limitante. No tenemos ciertos dispositivos porque no podemos desenchufarlos de la pared. No hay baterías para que esos dispositivos sean útiles. Tú también lo piensas, Arturo. Sí, claramente. La tecnología podría avanzar mucho más, por ejemplo, en robótica, asistentes para hogar y cosas así, que hoy por hoy con las baterías que tenemos no es plático tener un asistente o un robot en casa que la batería dure 20 minutos. Y pese al robot 100 kilos, que es otra cosa. Para que te dure 20 minutos lleva una batería que ni el coche que tengo abajo. Yo solo con dejar de llevar el ladrón o el robacorrientes, los distintos cargadores y las powerbank van cuando viajo. Ya solo por eso, daría lo que fuera. Realmente es un rollo. Necesito media mochila para llevar todo esto. Simplemente para que funcionen los dispositivos portátiles. Sí, ahí también hay un tema de las powerbank de ahora parece que las hacen peores que las antiguas. Pues sí. ¿Tú tienes powerbank? Yo tengo varias y sigo utilizando una del año 2008 de 10.000 miliamperios con carga USB-B y sigue alimentando bien a dispositivos de ahora. En cambio, powerbank que tengo por ahí, bien que las he adquirido o me las han regalado porque antes donde regalaban bolsa con panfletos de los congresos, ahora te regalan una powerbank. Y son más modernas, se recargan mucho más rápido, pero no me hacen... Puedes decir la marca, no hay problema. Es lo típico que por fuera pone Congreso Internacional de Turismo y dentro una Hitachi Penta. Correcto. Yo es que me he pasado lo mismo con una Ronson que me dura un montón. Es que me sigue funcionando fenomenal. La tengo ya 7 u 8 años. Lo único que hago es ser con las cargas muy cuidadoso. No la dejo enchufada cargando mucho tiempo, sino controlo mucho el tiempo. Tú también, ¿no? Sí, sí. Las 3 primeras cargas hago lo que es un seguimiento de cada media hora me paso y tardas en cargarte 3 horas y media, tardas en cargarte 4 horas. Cuando pongo a cargar ese día la batería, le pido a cualquier asistente de altavoces que todos tenemos que bien empiece por A o por S o por G, cuenta atrás 3 horas y media, cuenta atrás 4 horas. ¿Y el enchufe? Paso de tener un sistema un poco más domótico con un enchufe inteligente y cuando el enchufe inteligente tiene un consumo inferior a 2W durante 5 minutos, pues se apaga. Deja de cargar la batería. Puede ser un pico. El pico puede ser por arriba o por abajo. No, pero durante más de un tiempo, claro. Pero le pones que tenga menos de 2W durante 5 minutos, por ejemplo. Lo digo porque hay baterías, o sea, PowerBand, perdón, que llevan un chip que cuando están al 90% de carga empiezan a reducir la velocidad. Entonces baja ese voltaje y te puede dar un falso positivo. Arturo, tú hablabas de dispositivos y de PowerBand, de todo, ¿no? Es decir, cuando está a cargar lo que sea. Cada dispositivo es distinto. Hay que estudiarlo un poco antes para ver la domotización. Si es por debajo de 2W o de 1W o de 3W o durante cuánto tiempo, durante 5 minutos, durante 10 minutos... Un día tendrás que contarnos con detalle todo esto de la domótica porque parece alucinante. De verdad que esto sería una solución maravillosa porque yo tengo que estar mirando el reloj o poniendo una alarma como dice Jonathan. Y me despreocuparía porque daría la orden y ya está. Lo separaría y yo haría otra cosa. Y ahí entramos otra vez en lo de cuidado con los enchufes inteligentes porque algunos no consiguen apagar toda la corriente. Te dan un 0 y en realidad es 0.8 o 1.2. Sí, sí, claro. Bueno, es que hoy no toca esto, pero bueno, ya lo hablaremos. Así que no liamos. Bueno, muy bien. Pues vamos terminando. Muchas gracias, Jonathan, por haber estado con nosotros. Esperemos que repitas. Que hayas estado a gusto y que repitas. No, no te rías. Tienes que comprometerte aquí ya en público. Ah, ya en público. Bueno, pero el tema lo ponéis vosotros. Sí, sí, como... El siguiente tema es baterías, pero de cocina. Pues de eso también hay avances tecnológicos ahora, ¿eh? Con los otros patillos también. ¿Tú controlas los temas de cocina? No, pero sí controlo el tema de electrodomésticos. ¿De electrodomésticos? Vale. Inteligentes. Sí, sí. Y tontos también. También. Bueno, pues mira, sí que es una temática bastante interesante la de los electrodomésticos. Pues muy bien. Muchas gracias, de verdad. Hemos estado muy a gusto. Un placer. Lo mismo digo. Yo la verdad que con Ricardo creo que he compartido el micrófono en alguna otra ocasión, pero ha sido todo un placer. La verdad que muy bien. Y, bueno, esperemos que los escuchantes y escuchantas opinen. Exactamente. Que nos metan caña y mejoramos así. Pues muchas gracias. Nos volvemos a oír en otro episodio. Damos los medios de contacto, Ricardo. Bueno, pues la dirección de correo electrónico es gafotas@cegatos.es. Y el WhatsApp es más 34644640792. Gracias por acompañarnos y llegar hasta aquí. Hasta luego. Hasta luego. Chao. Chao.
Gafotas, cegatos y sus aparatos #3
Fecha: domingo, 24 de noviembre de 2024, a las 00:00:00
En este episodio de Gafotas, Cegatos y sus Aparatos, nos adentramos en el mundo de Glide, un dispositivo revolucionario que redefine la movilidad para personas ciegas y con baja visión. Junto a nuestros invitados, Roberto y Moisés, exploramos cómo este asistente robótico combina inteligencia artificial, diseño ergonómico y tecnología háptica para guiarnos. Ellos han podido probar recientemente un prototipo funcional de Glide y tienen muchas cosas para contarnos, sobre todo nos hablarán de sus sensaciones desde la valiosa perspectiva de quienes han podido probar personalmente el deslizador.
Desde sus características innovadoras hasta los retos que enfrenta en su desarrollo, debatimos su impacto en la comunidad, su compatibilidad con otros apoyos y el futuro de la movilidad asistida. ¿Sustituirá al bastón y al perro guía? ¿Qué papel jugará en la vida de sus usuarios? Descúbrelo en este episodio repleto de reflexiones, sensaciones y anécdotas.
Intervienen:
Enlaces a Sitios referenciados en el episodio:
Glide: una herramienta de movilidad para personas ciegas -Doble Tap Podcast.
Primer contacto físico con Glide: conociendo un prototipo alfa – DobleTap Podcast
- Sitio Web de Glidance INC (inglés).
Bastón telescópico de aleación de titanio para personas ciegas (Tavkomco) - Amazon.
Créditos:
Duración: 01:41:09
Descripción detallada del logo de Episodio 3. Glide, aspirante a auxiliar de movilidad… ¡Empújalo y sortea todos los obstáculos!
La imagen combina elementos ilustrativos y realistas. En el primer plano, se observa una figura dibujada en estilo retro-línea clara: un hombre con gafas redondas, bigote, auriculares, gorra plana, bufanda, chaqueta y botas. Está montado sobre un patinete eléctrico moderno, sosteniendo el manillar con ambas manos. Lleva una mochila al hombro, reforzando la idea de movilidad y dinamismo. El fondo es un espacio arquitectónico realista y contemporáneo, que parece ser el interior de un edificio corporativo o una terminal moderna. Incluye amplios ventanales que dejan entrar luz natural, techos altos con estructuras geométricas, plantas decorativas, sillones minimalistas y una escalera mecánica. El suelo brillante refleja tanto el entorno como la figura ilustrativa, integrando ambos estilos en una composición armoniosa. La escena simboliza la unión entre lo clásico y lo moderno, destacando el uso de tecnología y movilidad en un entorno urbano sofisticado.
Transcripción de Episodio 3. Glide, aspirante a auxiliar de movilidad… ¡Empújalo y sortea todos los obstáculos!
Muy buenas, lo que sean. Yo soy Arturo Fernández. Y yo soy Ricardo Abad. Y esto es Gafotas, Cegatos y sus aparatos podcast. Bienvenidos al tercer episodio de tu podcast favorito. Estamos una vez más. Y bueno, aquí intentando hacer un buen audio con nuestros micros y nuestros volúmenes. Esperemos que esté todo normalizado. ¿Qué tal tu micro, Ricardo? Hola, Arturo. Pues nada, tan bien ya como el tuyo. La verdad es que estoy ya muy acostumbrado a él. Ya somos casi uno. Y bien, en principio el feedback que recibimos del sonido no es malo, con lo cual para un podcast es algo importante. Así que nada. Esa es la idea, que salga bien y que todo el mundo lo pueda escuchar agradablemente. Y bueno, hoy vamos a tener un episodio sobre ruedas, ¿no? Pues en principio sí, porque vamos a hablar de un dispositivo que va sobre ruedas. Y el episodio tiene que ir sobre ruedas también. Lo primero, y antes de que se me olvide, quiero saludar a toda la audiencia y agradecerles que estén aquí con nosotros. Y agradecerles también todo el feedback que nos han enviado acerca de los episodios anteriores. Pues sí, vamos a hablar de un dispositivo sobre ruedas que lo empujan personas que no ven. Pero primero vamos para ahí centrándonos un poco de cosas más generales a un poco a las cosas más concretas. El tema más genérico es la movilidad, especialmente para personas con discapacidad visual. Tradicionalmente cómo va esto de la movilidad también para los más profanos, cómo se mueven las personas ciegas y poco a poco vamos acercándonos al producto de hoy. Pues casi mejor hacerlo así, porque como lo había dicho yo, un vehículo con ruedas que empuje una persona que lo ve podría ser el carrito del bebé, podría ser el carrito de la compra, pero en este caso no es así. Estábamos hablando de un auxiliar de movilidad y de estos que es lo que creo que podemos comentar, cómo está el estado del arte de los auxiliares de movilidad que utilizan las personas ciegas. Básicamente utilizamos tres auxiliares de movilidad. Uno de ellos es el auxiliar humano, también conocido como lazarillo dentro de la literatura, que son los acompañantes y no tengo que decir más. Simplemente una persona ciega con una técnica muy básica se coge del brazo de la persona y es trasladado de un sitio a otro a petición y puede ser tanto un familiar como puede ser hasta un servicio solicitado. Dentro de lo que es ya la tecnología, porque tecnología es un bastón, aunque no sea electrónica, estarían también el bastón blanco que es muy conocido dentro de la gente porque es un símbolo identificativo de que la persona que lo utiliza es ciega. Si tiene banda verde pues es con baja visión, si tiene blanco y rojo es con ceguera y además sordera que es sordoceguera, que es una discapacidad con entidad propia. ¿Tú lo utilizas, Arturo, bastón? El blanco, yo utilizo el blanco y esto también de los colores va un poco también por barrios. En algunos países cambian un poco el color y tal, pero el más comúnmente aceptado es el blanco que yo creo que todo el mundo sabe lo que significa y el blanco y rojo pues que no es que sean del Atleti, sino que cada uno tiene sus peculiaridades. Correcto. Y bueno, es tecnología pero muy básica, ¿no? Es decir, un bastón en sí es un mango y luego es una vara o un palo que lo que hace es una prolongación del dedo de la persona ciega. Con ella reconoce el entorno, tanto por la percepción áptica que es por lo que vibra el bastón y le transmite a su mano y dedo, como también por el sonido, lo que se llama ecolocación, que produce el bastón al arrastrarse o golpear el suelo y que genera un paisaje sonoro que permite a la persona percibir cómo es su entorno. Y nos quedaría otro que son nuestros queridos perros guía. ¿Puedes hablarnos algo de ellos, Arturo? Pues no mucho, conozco mucha gente que los tiene y bueno, son como un paso más allá del bastón, ¿no? Y luego, además de la parte más emocional que te une con el animal, que es una extensión de la persona, ¿no? Y como pues son, bueno, como todo en la vida, tienen sus ventajas y sus inconvenientes respecto al bastón. Probablemente tenga alguna ventaja más, sobre todo para los que lo usan habitualmente, pero bueno, también tiene alguna desventaja. A veces cuando tienen que coger un taxi o un vehículo similar o cosas así, pues a veces también tienen ahí sus más y sus menos, ¿no? No todo el mundo lo entiende. A la hora de entrar a un restaurante y demás, con que por ley tienen acceso completo a cualquier parte, excepto un quirófano, pero en la práctica pues a veces tiene que pelearse un poco con ello, ¿no? Correcto. Son auxiliares de movilidad, prácticamente físicos, mecánicos y donde la persona ciega en todo momento es quien toma decisiones. Es decir, el perro no te lleva, no le dices vámonos a comer gambas. Claro. Y el perro se va. Bueno, supongo que después de muchos años, ¿no? Con la persona igual entiende lo que es ir a comer gambas, pero lo suyo es que hay que llevarlo y cuando te desplazas con un bastón blanco también tienes que saber dónde quieres ir, con lo cual la orientación es imprescindible para todo esto. Sí, eso es. Algún día a lo mejor será interesante entrar más en detalle, porque hay gente que cuando le preguntas a alguien en la calle dónde está tal sitio o no sé qué, pues hay gente que le da las explicaciones al perro y no es eso, pero bueno. No, no. En otro momento vamos a entrar más en detalle. Cuando tengamos algún tipo de intérprete traductor de Huaweis, ¿no? De español a Huaweis, pues ya lo haremos. Bueno, pues nada. Y dicho esto, creo que también es importante saber que existen otro tipo de tecnologías de asistencia para la movilidad, que normalmente son accesorios, que en sí no son auxiliares de movilidad, pero sí que prestan un servicio, como pueden ser los GPS específicos para personas ciegas, como pueden ser algún tipo de sensores que transmiten vibraciones o algún mensaje sonoro a través de un dispositivo que se cuelga, a través de unas gafas y demás. Pero esto en sí no sería un auxiliar de movilidad, sería un asistente para la movilidad y luego estarían los robots. Pero esto es una cuestión que hasta del dispositivo que vamos a hablar hoy, pues aún no hay nada en el mercado que podamos utilizar como para que sea un dispositivo externo que, a raíz de unas indicaciones o modus proprio, por que programemos algo nos lleve a un sitio específico. Pero eso ya será materia de otro podcast. Así que creo que lo que procede es que presentemos a nuestros tertulianos que saben mucho de esto. Sí, vamos a presentarlos porque saben mucho y lo conocen de primera mano. Luego nos contarán. Tenemos, repite, Roberto, muy buenas, ¿qué tal estás? Muy buenas a los dos, muy buenas a la audiencia. Gracias por invitarme otra vez. Muchas gracias por haberte dejado otra vez para hablarnos de estos temas. Roberto, muchísimas gracias por estar con nosotros en este episodio de nuevo y también presento a Moisés González. Moy, ¿cómo estás Moy? Muy buenas a todos, ¿qué tal? Muchas gracias por invitarme. Muchas gracias a ti por estar con nosotros en esta mesa camilla, como os lo decía. Encantado. Bueno, pues estas dos personas, además de saber mucho de tecnología, de muchas tecnologías, son cofundadores del dispositivo del que vamos a hablar hoy y que no es otro que Glide o como quieran nombrar a la española o a la inglesa. Y bueno, este dispositivo que aún un poco pues muchas de las últimas tecnologías que hoy en día tenemos. Era curioso que hasta ahora pues nadie hubiera hecho algo así porque nos está tocando vivir una época que tecnológicamente tenemos muchas piezas sueltas de gps, de inteligencia artificial, de reconocimiento a través de cámaras, de síntesis de voz, reconocimiento de voz. Bueno, hay muchas piezas muy interesantes especialmente para nosotros y juntar todas o muchas de ellas en un dispositivo pues podría ser algo sumamente interesante. Pero quizá podríamos empezar por describir un poco cómo es este dispositivo, ¿en qué consiste? Sí, sí, sí. Tenemos que saber, vamos, cómo es exactamente Glide o Glide porque no tenemos ni idea físicamente cómo es. Yo voy a contaros cómo es, cómo es el prototipo que yo he visto, que lo vi la semana pasada, la semana pasada o la anterior, ya se me va la cabeza. Yo creo que fue la semana pasada. Estuvieron en Londres haciendo una demostración y presentaron su último prototipo, el tipo alfa todavía. Bueno, para quien no esté relacionado con la terminología, el prototipo alfa es un paso previo antes que la beta, o sea que todavía está muy en pañales, muy en concepto. Pero bueno, para contestar a la pregunta que hacíais, vamos a ver si lo puedo describir de una forma sencilla. El dispositivo tiene dos ruedas, una base más o menos, no sabría decir si piramidal o cónica, no muy grande. Las ruedas son del tamaño de como de un carro de la compra o algo así más o menos. Tiene esta base en la que se aloja la gran mayoría de los sensores. Luego de esa base sube un mango telescópico, eso quiere decir que se ajusta en altura para diferentes medidas que se necesiten. Y arriba de esa barra, digamos, está el mango que el usuario agarra y con el cual empuja el dispositivo. Porque el dispositivo tiene que ser empujado, no va tirando de ti, sino que tú lo empujas. Y a grandes rasgos este sería el dispositivo. Las cámaras están en la parte superior de esa barra que comentaba, hay una cámara. Y bueno, yo creo que esa es la descripción. No sé si Roberto quiere complementarla. Como es de grande, de pesado, de alto, es muy armatoste, es pequeño, es como un balón de fútbol, es más pequeño, más grande. A ver, el dispositivo, ellos te enseñan en realidad, o por lo menos yo recuerdo cuando estuve con ellos en julio. Me enseñaron varios prototipos, porque en realidad tienen varios. Hay un prototipo que es el que ellos esperan que sea en diseño el final, pero que en realidad todavía no lo tienen. Te lo enseñan, pero es solo una carcasa, que es más o menos como lo que describió Moisés. Yo diría que, la gente por ahí dice, bueno, es como una aspiradora. En cierta manera sí, porque es un mango y es una estructura con un cuerpo, con ruedas. Lo que lo colocas delante de ti. Como dijo Moisés, tiene una cámara. Bueno, en realidad ya habrá decidido que va a tener dos cámaras en el arnés. Una cámara que va mirando hacia adelante, mirando el camino que tienes delante. Y una cámara que iría mirando hacia abajo, para ayudar con la detección de cosas como paso de cebra, quizás un charco de agua. Cosas que la cámara que normalmente mira hacia adelante quizás no detecte con tanta facilidad. Entonces utilizar información de las dos cámaras. Y pesado no es. Yo no recuerdo el peso exacto que ellos esperan que tenga. Me suena que son tres kilos. Como unos tres kilos. Sí, ok. Pero lo que se siente, lo cual no es confiable, porque lo que se siente no es lo que va a ser. En realidad es bien ligero. La sensación no es de que estás empujando un carro de la compra siquiera. ¿Y pensáis que eso es positivo o es negativo? El que sea tan ligero. A mí me resulta positivo, porque da movilidad, es flexible. No es inseguro, a menos de mi percepción. No se siente inseguro, pero se siente cómodo de mover. Yo estoy de acuerdo con lo que dice Roberto, pero sí que tengo que decir que hasta ellos mismos dijeron, es que nos ha dicho alguna gente, que es hasta demasiado ligero. A mí me pareció, la verdad, bastante seguro, bastante robusto. Es verdad que, rodándolo, que al final es como lo vas a usar, se siente muy ligero, más de lo que yo esperaba, la verdad. Y ellos mismos comentaban eso, que alguna gente les había dicho que es tan ligero que alguna gente sí que le transmitía un poco de inseguridad. En mi caso, igual que dice Roberto, no fue así. A mí me pareció bastante robusto, fácil de manejar, la verdad. Y bueno, en cuanto a lo que preguntaba Domínio Arturo antes, no es nada armatoste. De hecho, de alto depende un poco de cómo pongas el mango, porque como ya hemos dicho, es ajustable en altura. Pero el mango a lo mejor te puede llegar como por la barriga o algo así, más o menos. Otra cosa que ha dicho antes Roberto, y me gustaría volver a recalcarlo, porque es claro, a mucha gente le pasaba en la demostración. Cuando cogía el robot con la mano izquierda, se lo ponía como si fuera un perro, se lo ponía al lado en lugar de adelante. Y al parecer, por lo menos por ahora, el robot ha de ir delante de ti. Lo puedes sostener con una sola mano, pero lo tienes que mantener delante. O sea, tienes que mantenerte detrás del dispositivo, porque el dispositivo lo que va a hacer es ayudarte a mantener la línea recta y darte dirección. O sea, tú lo empujas y el dispositivo, si hay obstáculos, te va a inducir a girar, porque las ruedas giran. O sea, el dispositivo te puede girar en izquierda o a la derecha, o te puede hacer frenar. Pero la dirección se la da uno. Después hablaremos que tiene varios modos, o se espera que tenga varios modos de uso, pero en principio es un dispositivo que vas delante de ti y su función es, en cierto modo, parecida a la función esencial de un perro guía. Te ayuda a mantener la línea recta y cuando es necesario, te ayuda a evitar obstáculos. Es muy importante esto que comentáis, de que lo que hay ahora y lo que se espera que sea, lo que ellos esperan que pueda ser el producto final, esa diferencia que estéis haciendo continuamente, porque lo que hay ahora puede que sea o puede que no sea el producto final, ¿no? Seguro que no. Seguro que lo que hay ahora no será el producto final, eso seguro. Esperemos que no, ¿no? Yo esto sí lo digo. Con lo que hay ahora mismo, yo no saldría a la calle confiado tal y como está. No es la idea, no es la idea. Es que lo que hay ahora ni siquiera está terminado en cuanto a software ni hardware ni nada. Lo que hay ahora es un alfa. Es que ya os digo, después vendrán los beta, que ni siquiera será final, y ya después de esto, pues... Sí, pero vamos a seguir hablando de sensaciones. Ya que sois unos privilegiados y habéis podido probarlo, ¿vale? Mi mano, cuando va a empezar a moverse, ¿a qué se coge? ¿Es un alfa tipo Arnés? ¿Es un alfa tipo carro? ¿Qué es rugosa? ¿Qué sensación me da cuando está en movimiento que noto que... ¿Tiene botones a mano? ¿Algo más? Eso es difícil de responder porque ya tampoco está el diseño final del alfa. Como está ahora, o por lo menos como estaba cuando yo lo tuve, lo usé, es un alfa... ¿Cómo describirla? Horizontal, como un... Sí, es más tipo carro, yo creo, ¿no? Más tipo carro de la compra, sí. Ajá, ajá, tipo carro de la compra. Se espera que tenga botones, se espera que transmita vibraciones en la mano, se espera que tenga un altavoz, se espera todo eso. Ahora no tiene nada de eso. Es un alfa que agarras, y la sensación es esa, agarrar un carrito que tienes delante, y aquí es donde seguramente los dos tendremos percepciones diferentes. Yo fui muy escéptico a la demo, pues en general es mi actitud con tecnología, yo fue a ver qué están enseñando, qué es esto realmente. Yo lo agarré, salí caminando, y la sensación fue de... ¡Guau! Esto me gusta a mí. ¿Te gustó? Sí. Yo me sentí como si hubiera... Es esa sensación que a veces tienes con tecnología o con cosas... Esto se supo a mí. Sobre todo cuando empezó, porque voy a introducir esto ahora brevemente, el dispositivo se plantea que va a tener varios modos de uso. Tres modos, fundamentalmente. Un modo en que podríamos llamar estilo libre, le llaman a eso freestyle, en el que tú vas caminando en la dirección que quieras, y el dispositivo simplemente va tratando de que en cualquier dirección que elijas mantengas línea recta, te va a evitar obstáculos y te va a llevar a frenar si estás aproximándote a algo que él no puede manejar, como una pared o lo que fuere. Tiene otro modo que es de seguimiento, en el cual el dispositivo sigue un objetivo en movimiento. Ese objetivo puede ser otra persona, que se plantea si va a ser con la cámara, se plantea si va a ser con un beacon que la otra persona tiene. Entonces, sencillamente tú vas empujando el dispositivo y cuando el objetivo al que tú estás siguiendo cambia de dirección, pues el glide te va a inducir a cambiar de dirección. Y tienes el tercer modo, que es el modo de guiado, en el cual tú tienes una ruta prefijada y el glide va a tratar de que tú te mantengas en la ruta. O sea, estás caminando y tienes que girar a la derecha, el glide te va a dar una indicación a través del mango, gira a la derecha y va a girar sus ruedas y demás. Entonces, cuando empiezas, lo primero que te hacen en la demo es que te muestran el modo de seguimiento. Claro, como es una prueba de concepto, el ingeniero tiene un control remoto y te va guiando. Entonces, yo salí caminando con aquello y la sensación, la respuesta del dispositivo cuando estás caminando y te va tirando a la derecha, a la izquierda para cambiar de dirección, yo la sentí súper orgánica, la sentí súper fluida. Y dije, guau, esto funciona. Me imaginé inmediatamente andando por un aeropuerto, por sitios esos que son medio complicados, donde a veces orientarse es muy difícil y tener ese nivel de guía para andar rápido, para andar despreocupadamente. Y dije, guau, esto se siente bien. Qué interesante. ¿Tú también, Moi, cuando estuviste probándolo por la estación...? Sí, yo tuve dos pruebas. La primera fue en una sala cerrada, digamos en una sala de reuniones, más o menos. Y luego la otra fue en una estación de Londres, en una estación de tren bastante grande, con bastante gente. Mi primera prueba fue, como dice Roberto, primero te controlaban ellos en una sala de reuniones. Y, bueno, bien, la verdad que muy bien. Efectivamente, yo también sentí los giros bastante fáciles de identificar, bastante fácil de seguir. Yo en ese momento no tenía muy claro, en la primera prueba no tenía muy claro si tenía que ir delante o al lado, y entonces ahí tuve el minuto este, hasta que me dijeron que tenía que ir delante. Pues era un poco raro, porque, claro, él giraba, pero como no iba delante de mí, pues no era totalmente preciso. Cuando lo puse delante, pues claro, todo cambió. Pero realmente lo del guau que dice Roberto, mi guau fue en la estación. O sea, yo ponerme a andar en la estación, entre gente que me venía, columnas que yo ni siquiera sabía que estaban ahí, que luego me dijeron, es que has pasado entre columnas, yo no me había dado cuenta. O sea, es impresionante. Y eso que tenía, por supuesto, al ser un prototipo, tenía sus fallos. En mi caso, por ejemplo, los frenos no estaban funcionando en ese prototipo. Pero es increíble la sensación de decir, voy a ir andando con confianza, o como con un perro, en el sentido de que no me voy a chocar. Es impresionante, la verdad, está muy bien. Muy bien, ahora lo que tienen que conseguir es que, con tecnología, no con un control remoto, ni con el seguimiento de un beacon, que para los que no sepan lo que es un beacon, es una baliza, una especie de bluetooth de baja energía, que se lleva adelante, identifica a una persona y el dispositivo lo sigue. Es como una señal. Entonces, bueno, decía que el objetivo final que tiene LIDE es que todo esto lo pueda hacer tecnología autónoma. Y claro, es un reto, a mí particularmente me parece muy fuerte, pero bueno. Yo Ricardo, perdona, la prueba que hice en Paddington, en la estación de Londres, esa fue sin control. O sea, bueno, hubo parte con control, pero gran parte lo hice sin control, yendo para donde yo quería. Yo también. La segunda prueba que yo hice fue así también, que fue en un salón lleno de sillas, mesas, obstáculos, personas también, los otros que estaban esperando la demo, los propios miembros de la compañía que se te meten en medio para simular el juego. Entonces la instrucción es, tienes que atravesar esta sala. Hay un sonido, o sea, hay una persona que se pone fena, tienes que atravesar esta sala y agarra hasta donde yo estoy. Y esa prueba yo la hice también a estilo libre. Con el dispositivo yo sé a dónde quiero ir, pero no sé lo que tengo en medio, no sé a dónde me voy a encontrar. Y yo la hice varias veces. No sé si la segunda vez que la hice ya pensé, yo voy a ver si este aparato de verdad sirve. Y ahí prácticamente me eché a correr. Yo quiero correr con estas cosas, amor, ¿qué pasa? Lo peor que puede pasar es que me voy a chocar con algo y voy a terminar con eso. Arranqué a correr y empecé a dar vueltas por alrededor de mesas, sillas, por gente. En ese momento, y eso totalmente dependiendo del modelo que tienen ahora que está medio entrenado, la única cámara que tienen, o sea, lo básico que tienen. El modelo es su inteligencia real. El modelo es su inteligencia artificial propietaria que están entrenando ellos, que es la que toma las decisiones para que tú no choques. Exactamente. Y esa rapidez de respuesta que me tiraba a la izquierda, me tiraba a la derecha, y yo seguía sin perder la velocidad y sobre todo sin perder la confianza. A esto hay que dedicarle tiempo. A esto hay que ponerle energía. Este aparato tiene que salir del adelante. Personalmente, eso es algo que a mí siempre me ha golpeado de alguna manera. Yo nunca me he sentido demasiado cómodo caminando rápido con un bastón. O sea, yo camino confiado con un bastón, en un sitio conocido, mucho mejor, qué sé yo. Pero yo siempre tengo la sensación de que no voy con el bastón todo lo libre que yo quisiera. Y lo sé porque mi esposa es usuaria de perroguía, yo he andado con perroguía, yo sé la sensación que da un perroguía es muy diferente a la que da un bastón. En ese sentido, el perroguía te da mucha más confianza, te da mucha más libertad. Por lo menos así lo experimento yo. Y yo personalmente no creo que llegue a tener un perroguía. Pero la sensación que yo experimenté cuando esté a correr por aquel salón, con aquel aparato, es decir, esto se parece más a como yo quisiera caminar. Esto se parece más al estilo de viaje que a mí me gustaría. Por supuesto, yo no andaría por el mundo corriendo, pero un poco es la idea. O sea, puedo andar caminando despreocupadamente y con tiempo de reacción suficiente para evitar obstáculos, para cosas así. Y como concepto me encantó. Yo voy a contar lo que me pasó a mí en la primera prueba que hice en la sala, en el modo de estilo... Bueno, de hecho lo voy a contar también porque me parece importante, la verdad, cuando se hacen las cosas bien me parece importante contarlas. Yo le pedí a los tres que vinieron a Londres, le pedí si por favor podía dejarme grabar un vídeo caminando con el Clay. Y me dijeron que sí, que sin problema. Cuando me dieron el aparato, le dije, ¿en qué modo está? ¿Está en modo freestyle o en modo control? Dice, pues en el que tú quieras, graba lo que tú quieras. Lo grabé en modo libre y claro, ¿qué pasó? ¿Qué pasó? Como empezó a esquivarme cosas y en un momento dado como que... a la izquierda y caminé como un metro más recto o no sé cuánto sería pero bueno el caso es que chocó el aparato con una silla y claro todo esto está grabado en el vídeo a mí en ningún momento me dijeron oye vamos a editar esto vamos a tal no yo no dijeron nada yo les pregunté que qué había pasado que porque había chocado y lo que pasaba es que claro como en nuestro prototipo no estaban funcionando los frenos lo que me dijeron es que lo que había pasado es que el glide no tenía un espacio por donde girar y ahí lo que debería haber hecho es frenar si lo hubieran funcionado como no había manera pues no chocó él con la silla pero lo que lo que pasó fue que no giró porque él consideró que no había un espacio suficiente entre una silla y otra para meterme por medio y no había otro sitio para donde ir salvo hacia atrás y me parece muy interesante también que me dejaran grabar el vídeo sin ninguna restricción y sin incluso con el choque ni siquiera me dijeron ellos hoy lo grabamos otra vez para que no subas esto no no yo les pregunté me lo explicaron qué es lo que haya pasado y con total naturalidad me parece también muy importante pues eso no vender humo destacar esta transparencia no que tienen con la información y con lo que están haciendo no porque lo que está haciendo esta empresa que si queréis hablamos un poco haciendo un pas de quiénes son ellos los que han puesto en marcha este este proyecto y además la forma en lo que lo están haciendo y luego seguimos hablando del dispositivo así que roberto una de las cosas que me llama la atención de este proyecto es que se desmarca del estilo tradicional de las compañías que desarrollan productos para ciego y productos para personas con discapacidad donde básicamente es una caja negra un día te enteras de que hay un producto te hacen una demo en ciertos sitios y mira cómpralo y por supuesto unos precios prohibitivos normalmente tienes que utilizar beneficios tienes que tratar de tener un programa que te lo financie cosas estas estas personas se están apostando por crear una marca de consumo y por un desarrollo abierto completamente abierto desde el principio plantearon el concepto empezaron a tratar de hacerse escuchar por la comunidad de personas ciegas fueron al al cies al evento grande este de las vegas en las vegas el evento el evento este de electrónica de productos de consumo ahí bueno llevaron su primer su primer prueba su prototipo su primer prueba de concepto y desde entonces se han planteado un desarrollo abierto entonces tienen reuniones mensuales a través de zoom con los usuarios donde cualquiera puede participar uno se registra en la página web y te mandan los enlaces están viajando por todo el mundo enseñando sus prototipos para recoger la alimentación de los usuarios y saber qué es lo que funciona qué es lo que no funciona qué es lo que quiere la gente hecho el concepto ha cambiado muchísimo desde que yo empecé a escuchar sobre glide cuando se planteaba bueno un dispositivo para cubrir ciertas necesidades básicas de movilidad para personas que no tengan movilidad e ir expandiendo desde ahí y evidentemente o por lo menos la sensación que yo tengo porque nunca lo han dicho claramente pero a lo largo de los meses yo he escuchado como el enfoque del concepto ha ido cambiando ya se está hablando activamente de que el glide podría funcionar en un aeropuerto de que podría funcir que la idea es que funcione en todo tipo de terrenos incluso se habla de que hacerlo súper modular para que las ruedas se puedan cambiar porque si tú el terreno por donde tú te mueve requiere ruedas diferentes pues tendrás ruedas diferentes ya se habla de trabajar con personas sotos ciegas de un enfoque súper elemental para personas sin movilidad personas que han perdido la vista recientemente hemos pasado a un enfoque esto es para tanta gente como sea posible y vamos a tratar de desde el principio abarcar tantos escenarios como sea posible con una fundación con una base que permite extenderse entonces eso eso genera cierta confusión si se quiere sobre todo en las demos se le hace mucho énfasis a la gente lo que estás probando no es el producto final lo que estás probando es un prototipo es una prueba de concepto es lo que podría llegar a ser hecho el hecho de que una persona te esté llevando el control remoto lo que te está diciendo es esto no funciona si es en el usuario con el que están hablando tiene más o menos una formación técnica ellos no tienen ningún problema en darte detalles de la red neuronal que están entrenando de cómo lo están entrenando de lo que le funciona de lo que no en ese sentido súper increíble son súper sentís partícipe de la el desarrollo del prototipo es muy fácil sentirse partícipe porque se percibe mucho la apertura del interés la gente que lleva muchos años trabajando en tecnología que están muy acostumbrados a desarrollar de esa manera y se le sienten muy abiertos muy valiente si se quiere ellos también son usuarios de este producto amos miller que es el fundador de la empresa uno de los cofundadores y el alma del proyecto es una persona ciega varios de los ingenieros que trabajan en el proyecto son ciegos por lo menos uno de ellos es ciego yo en lo que dices también es muy importante efectivamente amos miller que además trabajó en microsoft en saunas que me parece ese proyecto en el trabajo en microsoft es el desarrollador de soundscapes actual voice vista que no son gente no son gente que que haya llegado al mundo al mundo tiflo sin ser usuario sin tener conocimiento de usuarios y te presento esto que lo hemos visto muchas veces muchos productos que te lo presentan te los venden a 5.000 euros y en realidad pues no te soluciona prácticamente nada no es eso no es eso hay proyectos académicos con muy buenas intenciones pero nunca han visto a un ciego ni en foto y quieren solucionar la vida no te pasa mucho a mí me pasa cuando hablo con desarrolladores de producto y de cosas que están hablando del producto y están hablando de personas ciegas no voy a decir nombres pero pasó me pasó hace poco con una entrevista que escuché de un producto que es cual anda tratando de llamar la atención y la sensación de que te da esta gente no tiene ni idea te hablan de los ciegos como de un mundo y entonces a veces cosas básicas y se sorprenden exacto es un mundo ajeno a veces con interés incluso la actitud no necesariamente negativa pero es parte del desconocimiento tú hablas con amos hablas con kyle al otro cofundador y son gente que saben de lo que están hablando conocen a sus usuarios se plantean problemáticas concretas las las analizan desde un punto de vista objetivo y realista y eso da mucha confianza correcto y saben que la retroalimentación de los usuarios que serán los clientes finales de ese producto es importantísima porque nada para los usuarios sin el usuario y esa máxima la llevan hasta el final y eso es buenísimo para cualquier desarrollo pues sí yo creo que de hecho ha sido lo que también ha motivado a que mucha gente bueno no sé cuánta gente pero si bastante hayamos decidido invertir tiempo y dinero en el proyecto yo por lo menos en mi caso es la primera vez que invierto las dos cosas juntas en un proyecto sobre todo tanto dinero tanto tanto tanto para una persona pero es yo en mi caso es mi primera vez y arrepentido para nada desde luego tiempo lo sabemos que has invertido y además te agradecemos que lo hayas contado porque eso también está muy bien para los que no tenemos información directa como estáis haciendo ahora roberto pero voy a haceros una pregunta indiscreta cuánto dinero os ha costado ser cofundadores y qué conlleva esto pues yo en mi caso en euros hablando en euros creo que fueron 800 y algo porque te lo ofrecían con un 40 por ciento de descuento su precio base será de 1500 dólares y te ofrecían con un 40 por ciento de descuento y un ahorro también en la suscripción mensual al sensible way finding que luego mencionamos un poco lo que es que básicamente es la red de inteligencia artificial que están entrenando ellos para guiado entonces eso yo creo que a mí me costó casi lo creo que 800 y algo 900 euros creo recordar a mí me costó 2000 dólares con impuestos y todo es lo que describe el precio aquí el precio financiera de 1500 sin impuestos cuando se habla de precios se habla sin impuestos aquí los impuestos de hecho se nos dijo que en europa todavía los impuestos no nos los cobraban porque como no sabía en qué categoría iban a ubicar el robot pues no sabía si iban a tener un iba otro otro entonces bueno eso seguramente no lo tengan que cobrar después o sea que me parece que si me lo cobraron aquí lo que sí yo estuve muy escéptico la verdad también canta el proyecto pero mantuve una posición escéptica hasta el último minuto en que me decía esto merece la pena sobre todo después de este último vídeo que sacaron de aspiracional como decir y me dije yo yo meto dinero en un montón de cosas que al final no van para ninguna parte esta gente está haciendo muy bien las cosas y además tengo muchas ganas de probar lo primero que haga así que además decirlo por lo menos en eeuu ellos se comprometen en cualquier momento te pueden devolver el dinero si quieres antes de que salga el dispositivo e incluso cuando salga el dispositivo tiene 60 días para si quieres devolverlo y reclamar te van a devolver íntegramente todo lo que has pagado yo no me planteo eso simplemente yo quiero ser parte del proyecto y quiero probarlo y la suscripción no no me apunté la suscripción mensual famosa eso lo veremos cuando salga la suscripción es objetiva o es obligatoria creo que sí es obligatoria porque si no te quedas sin las sin el sin el servicio de inteligencia artificial que al final es lo que va a guiar el aparato bueno creo el tema de esto voy a decir lo que creo puedo estar equivocado la red neuronal que están entrenando para evitar obstáculos y guiado es el dispositivo el local lo que sí es el local es un modelo en local lo que sí va a hacer falta la suscripción es porque ellos van a por supuesto proveer servicios gps para orientación con lo cual necesita conectividad móvil y se plantean también utilizar modelos con modelos de inteligencia artificial generativa para proveer cosas como descripción de imágenes claro la voz también ya eso requiere yo no sé por ejemplo ellos dicen claro que efectivamente si te quedas sin internet o te quedas y por ejemplo en un metro o en un sitio donde no haya cobertura el aparato no te va a dejar tirado en cuanto a evitar obstáculos pero yo no sé por ejemplo para el tema de buscar por ejemplo un paso de cebra o para detectar de pasos de cebra y eso yo no sé ya de dónde va a tirar si va a ser de local o no lo que están entrenando la red neuronal para para porque eso necesita ser muy rápido entonces se supone lo que tienen previsto es que la cámara nueva hasta que han puesto les sirva desde información suficiente para identificar el paso de cero claro bueno y estratégicamente es imprescindible tener esa autonomía que sólo dependa de la energía del aparato porque en un momento de sombra de transmisión te deja tirado y para una persona ciega que sin comunicaciones no poder moverse es una pena no por eso lo que es lo básico siempre va a estar en local porque si no efectivamente claro tú vas a un sitio que no hay cobertura y te quedas con un aparato y inservido nada más se supone que te va a ayudar también en interiores y en interiores en la probabilidad por ejemplo imagínate un subterráneo un metro la posibilidad de que no haya coberturas grandes y te da fiabilidad porque esa parte cuando es autónomo y él no por sí mismo va tomando decisiones y si hay un obstáculo entiendo que lo esquiva o lo rodea o algo así como sabes que lo está que te está llevando por otro camino porque hay algo ahí o porque ha salido la pinza o cómo te da esa fiabilidad y seguridad yo creo que eso lo vamos a tener que ver es que no queda otra que la misma confianza que tienes con un perro claro o sea como supongo que la persona no es lo mismo porque un perro decías porque lo hace pero en un aparato fíate de un aparato todos sabemos que los aparatos no son 100% fiables no que escucha yo por ejemplo yo tengo bastante gente bastante bastante gente que tiene perro y que lo que más le costaba era fiarse del perro claro yo sé que eso es así claro pero de un perro pero de un aparato pero fíate de otra cosa es decirte de un aparato no que la informática es la única ciencia es la única ciencia que bajo las mismas condiciones de presión temperatura húmeda etcétera cada vez hace lo que le da la gana entonces yo te podría decir por ejemplo y qué pasa yo he tenido perro vale y ahí entra también el control del usuario pero alguien te podría decir oye y qué pasa si de pronto ve el perro a un perro y se olvida del ciego y va por el perro o ve comida comida o claro eso pasa al final esto es un dispositivo muy nuevo que vamos a tener que ir descubriéndolo sobre la marcha si da confianza si no da confianza yo de hecho esa es una de las cosas que hablábamos con igual me adelanto un poco pero pero yo sé que o creo que este dispositivo no va a venir a solucionar sobre todo en una primera versión el 100% de los problemas que tengamos en la en la movilidad estoy seguro 100% de que no va a ser así pero ninguna solución tecnológica da un 100% en nada solucionar algunas cosas para otras habrá que usar otras cosas es más de hecho algo que se me ha pasado comentar antes ellos tienen pensado por conversaciones que han tenido con usuarios ellos tienen pensado incluir en el propio cuerpo del light un bastón para para temas de escaleras y bueno y bueno yo estoy un poco impresionado porque os considero dos personas sensatas con muchos conocimientos de tecnología y que habéis con este entusiasmo de lo que hoy por hoy es un prototipo y prácticamente es un concepto pero que estoy transmitiendo esta información no tan positiva la verdad es que vamos es emocionante porque a mí me hace replantearme muchas cosas yo verdaderamente aún estaba en el punto escéptico y poco crédulo no pero creo que en este momento ha cambiado un poco la cosa y si os parece podemos hablar un poco más del dispositivo de sus componentes si solo acordar eso que estás diciendo ricardo porque uno está muy entusiasmado con el proyecto ya uno pasó la fase de decidir qué iba a hacer con eso pero si es verdad que sobre todo para la gente que se podría plantear porque todavía se puede reservar o preordenar si se quiere hay mucho con el glide que todavía está sin aclarar no para nosotros sino por los propios desarrolladores que no saben qué camino va a tomar se habla por ejemplo el tema de las escaleras a día de hoy no hay una solución para subir y bajar escaleras si llegas a una escalera tienes que soltar el glide usar un bastón o como subir la escalera sin como le preguntaban a hemos ponido las escaleras mira yo agarro el glide y con el propio frontal del glide porque el glide tiene un frontal un bumper para un vehículo con eso mismo yo sí lo veo eso sí que lo veo si voy tocando los escalones pero por ejemplo qué tal qué tal lugares donde tienes tres o cuatro ciegos imagínate una convención como un puñado de ciegos con glide que va a pasar con eso o un sitio súper concurrido donde tienes un montón de gente tienes carritos de la compra cómo se las va a arreglar o cómo se las va a arreglar en terrenos accidentados pero fíjate por el tamaño que sí sí sí sí pero por el tamaño que tiene y todo y lo que ha comentado muy el llevar un bastón pegadito a tu glide o encima para momentos así un poco críticos no tiene que ser todo esto es un pensamiento propio no es una emergencia claro es decir en un momento de emergencia tengo otra alternativa es otro auxiliar de movilidad que encima tenemos la suerte de que es muy discreto ocupa muy poco es muy portable y bueno y se saca y luego como pesa poco el glide pues lo subimos lo bajamos en las mismas condiciones que llevamos un bolso con nuestro bastón blanco no entonces bueno es un planteaje es un mal para mí menor no mayor en este caso no sé cómo lo veréis vosotros yo lo veo igual que por cierto nos dijo bueno ya se lo comenté hace un mes y medio dos a los chicos de glide y nos lo dijeron ahora cuando estuvimos en londres que que les enviáramos vídeos de sitios que nosotros pensábamos que para glide pudieran ser conflictivos o sea que por ahí también están también le decíamos es que quizá en eeuu yo no lo sé porque no he estado nunca en eeuu pero siempre tenemos la imagen aquí de que en eeuu son calles más anchas calles con y aquí en europa hay muchísima calle o hay más calles estrechas callejones los cubos de basura y en una calle estrecha con lo cual ya no tienes casi espacio entonces le planteamos mucho ese tipo de dudas y ya pues eso en principio querían feedback de vídeos de sitios conflictivos o que pensábamos que podrían ser conflictivos para él sí sí claro en cada país hay una infraestructura y una forma de de gestionar los espacios y glide tiene que ser mundial me refiero tú puedes desplazarte a cualquier sitio y debes tener seguridad pero lo que tú dices yo a mí yo estoy de acuerdo contigo me parece que que si tengo un aparato que me soluciona me lo estoy inventando es que te soluciona un 70 por ciento de los problemas que tienes en tu movilidad y para el otro 20 o 30 vas a tener que utilizar un bastón a mí me parece algo realista y prefiero que sea así a que me digan que va a poder vas a poder utilizar el aparato en todo tipo de situaciones y luego resulta que llegas a unas escaleras y por lo que sea necesitas el bastón y no ya tengas que llevar algo aparte un bolso con el bastón o lo que sea y me llama mucho la atención los dos porque la sensación ha sido la misma la que habéis transmitido tanto en el salón donde corría roberto o en la estación donde tú ibas es ya la despreocupación el poder ir con algo y no estar pensando me voy a dar un golpe no me voy a dar sino esa sensación un poco de libertad no de poder avanzar sin estar pendiente de todo realmente es muy valiosa o por lo menos yo lo considero así poderse relajar caminando yo nunca he podido hacer con un bastón tampoco es quizá hay zonas y situaciones en la vida en que si ocurre un poco esa relajación hasta cierto punto pero siempre siempre hay siempre hay un punto ahí medio complejo y las así con ese prototipo es así con este dispositivo se puede mejorar eso sobre todo lugares complejos donde esos aeropuertos o quizás una cosa que pasa mucho en eeuu llegas a un sitio te deja el vehículo donde estás y tienes que atravesar una zona de parqueos para encontrar un negocio para encontrar algo eso es eso es un tema porque son espacios abiertos sin apenas referencia correcto y si bueno y el glide puede mejorar eso bueno aparentemente sí porque una de las cosas que puedes hacer es deberías poder hacer según se plantean ellos es elegir un objetivo un objetivo que esté a la vista de la cámara y que te lleve en esa dirección y una cosa que te dicen hay por ejemplo días un hotel y le puedes indicar al glide que busque el escritorio que busque el mostrador de recepción y yo le decía bueno pero un mostrador de recepción al final qué cosa es en una cosa alargada que al final te puede terminar llevando al mostrador de la cafetería no creo que sea diferente bueno pudiera ser no sé todas esas cosas las vamos a resolver pero la idea mira incluso si no pudiera encontrar objetivos tan solo poder caminar y tener la certeza de que uno está siguiendo una línea recta ya para mí es una ya para mí es un avance que en cuanto a lo de la comodidad con al caminar yo que estoy totalmente de acuerdo yo lo hablaba de hecho estos días con varias personas yo vivo a 20 25 minutos de casa de mi pareja andando es un camino sencillo lo que pasa que tienes que atravesar una calle que la calle alcalá aquí en madrid que es una calle en la que hay mucha gente y a muchas veces coge el metro porque me da pereza ir esquivando a la gente que va con el móvil que no se me da pereza de bajo el metro y hasta pero me gusta ir andando y puede ir de hecho cuando es de noche o muy pronto por la mañana si voy andando porque no hay casi nadie maravilloso pero yo creo que esa despreocupación de ir relajado caminando es algo que nos va mejor yo por lo menos lo espero como agua de mayo una cosa que plantean ellos ya para dando la transición al dispositivo es que se va a poder enseñarle rutas al clave por ejemplo si hay una ruta que tú haces con cierta frecuencia la puedes grabar de alguna manera o la vas a poder grabar en una de las visiones que ellos tienen de implementación y si le puedes enseñar una ruta que haces con cierta frecuencia por lo menos tienes la garantía que te puede relajar y arrancar a caminar si habrá un cambio significativo en la ruta ya te alertará porque eso habrá que implementarlo de alguna manera o incluso me planteé bueno qué tal explorar explorar sin sin sin rumbo en un sitio nuevo voy a salir a caminar no digo que eso se puede hacer pero yo perfectamente puedo imaginarme la sensación en la que yo le activé al clave un modo de este es mi punto de partida en algún momento yo voy a querer regresar aquí vamos a poner un beacon aquí es que eso se puede hacer incluso con cosas como la escuela exacto vamos a arrancar a explorar me perdí ya no sé ni dónde estoy hoy ya quiero regresar pero ya no sólo para ti roberto o moisés que tenéis una movilidad elevada aceptable avanzada por llamarlo de alguna forma soy bastante autónomos independientes la gente con más limitaciones que tienen menos movilidad no tienen no pueden hacer una ruta porque no controlan bien pero si el aparato es capaz de memorizar rutas alguien que le acompañe la primera vez y hagan la ruta la comparta o yo por ejemplo grabó una ruta de la comparto correcto es que son magnífico y a mí me encanta que roberto haya dicho esto de esta última cosa que ha dicho de volver a hacer salir a explorar y regresar porque es una cosa que yo tenía en cabeza se lo comentaba un amigo hace un mes así y imagínate tú vas a una casa rural vas a una casa me voy a dar una vuelta por ahí por la tarde no quiero ir solo o no quiere la pete de salir nadie me voy yo solo lo grabó mi punto de partida y cuando quiera cuando me aburra digo regresa que efectivamente no estamos diciendo que ya esté implementado eso sino que son cosas que imaginamos me gusta que más gente imagine lo mismo porque entiendo que vamos por un camino no tan no tan excéntrico no tan sí sí sí pero es repetir mejor muchas ya hechas o hacer cosas que ya están más o menos superadas con la tecnología actual no pero yo entiendo que el punto más fuerte de este aparato es la inteligencia artificial no la hora de tomar decisiones sobre la marcha de poder evitar obstáculos o yo creo que el punto más importante va a ser ese pero no sé si actualmente tenemos la tecnología suficiente para poder hacer todo eso en local en analizar vídeo en tiempo real en local y poder tomar decisiones que resuelva correctamente esas situaciones no que puedan producirse correcto si queréis hablar también un poco de los sensores mientras explicáis esto que comenta arturo todo lo que conozcáis al respecto yo de sensores se que lleva bueno las dos cámaras que ya le van a poner el siguiente prototipo dos camas dos cámaras lleva también un líder creo Uno o dos, no estoy seguro tampoco, porque eso ha ido variando. Y creo que lleva también un sensor de desnivel o algo así para... Pero no sé qué más, la verdad. Pero son componentes de automóvil, en realidad. Lo interesante es que ellos están utilizando tecnología existente y me parece que Kyle, uno de los cofundadores que tiene cierta experiencia previa en desarrollo con este tipo de componentes, se ha centrado en buscar tecnología que ya es fiable, que ya funciona, e integrarla. Y fundamentalmente es tecnología de automóvil lo que están usando. Correcto. De hecho las ruedas van por servofrenos, ¿no? Sí. Exactamente. Tengo entendido que sí. Eso es así. Bueno, pues por lo que comentaba Arturo, ¿qué pensáis del tema de cómo gestionará en local la inteligencia artificial que están entrenando? ¿Pensáis que será capaz el dispositivo de guiarnos? A ver, esa inteligencia artificial se supone que va a hacer una serie de cosas muy concretas y eso ayuda mucho. Cuando tú tienes una tarea concreta para... Eso lo vimos el otro día con el podcast que hicieron con este señor, Alfonso D. Cuando tú tienes una tarea concreta para que la inteligencia artificial haga y tiene suficientes datos, puedes entrenarla y eso puede dar muy buenos resultados. La inteligencia artificial va a hacer cosas muy concretas. Detectar obstáculos que tengas delante y buscar rutas alrededor de esos obstáculos y bueno, mantener la línea recta ya no es necesario. Y lo tercero que va a hacer es identificar cosas muy concretas. Identificar quizás pasos de cebra que tienen una configuración más o menos de estándar o si no poca variación e identificar ciertas cosas que podrían ser problemáticas como quizás agua o no sé, el otro día le preguntaba a alguien si Glide podría identificar excrementos de perro, por ejemplo. Importante, importante, muy importante. Oye, hay aspiradoras que se supone que ya las identifican, o sea, que entiendo que sí. A eso voy ahora. Todas esas funcionalidades ya son posibles con inteligencia artificial y con visión por computadora. A mí eso no me preocupa demasiado porque ya todo eso está probado en el terreno de Machine Learning. A día de hoy, entrenar un modelo para que identifique objetos, para que identifique texturas, para que identifique bordes, eso se puede hacer y ya se sabe cómo hacerlo. Ya hay arquitectura para eso, de modelos de redes neuronales para eso y hay técnicas en Machine Learning para hacer eso. Yo pienso que eso va a funcionar, al menos para los escenarios elementales. Ahora, en la práctica, y ahí es donde entra el escepticismo, ¿cuán flexible va a ser esa inteligencia artificial para lidiar o ese modelo? Y eso va a ir mejorando, por supuesto. Con imprevistos. Porque ya que ellos tengan datos, van a refinarlo. Pero, ¿cuán flexible va a ser en entornos dinámicos, en distintos tipos de terrenos? ¿Qué tal si se te enfanga la cámara? No sé, tú ni lo sabes. Que pueden pasar tantas cosas en el mundo real, ¿cuán tolerante va a ser esa inteligencia artificial? Creo que se nos olvidó contar, cuando describimos el dispositivo, que en principio lo que ellos tienen previsto es que sea resistente a lluvia ligera o media, o no a meterlo en una piscina, pero sí a lluvia ligera o media, va a ser resistente. O sea que, bueno, pues, por ese lado. Creo que es IP5. Si se moja la cámara, le caen unas gotitas a la cámara, cualquier cosa, pues, claro. Exacto. Y, bueno, son todos modulares. Así que todas esas cosas, pues, tendremos que ir descubriendo las según avance del dispositivo. Que es que a mí también es una de las cosas que más, a mí particularmente ya como usuario, pues, del tipo que soy, a mí es una de las cosas que más ilusión me genera ir en este proceso viendo cómo se van resolviendo también esas dificultades. No, sin duda. Lo que ocurre es que, por ejemplo, las aspiradoras inteligentes, que todas las habéis citado, dentro de un espacio controlado como es un domicilio, pues, los imprevistos son menos. Es decir, son situaciones prácticamente todas repetitivas. Es decir, el medio urbano, por no irme al rural, es la jungla. Es decir, es la jungla por todo lo que se puede encontrar. Y un tema que no hemos tocado tampoco y que sí que me gustaría comentarlo, que de hecho es importantísimo, es, te van a ver cuando lleves el aparato, te van a respetar, te van a identificar o te van a pasar por encima con un patinete. Claro, esto es así. De hecho, hay un proyecto, creo que lo compartí con vosotros, que era el proyecto este del VIP, ¿no? Que llevaba la maleta de la doctora. Sí, la japonesa, ¿no? Sí, exactamente, porque se dieron cuenta la gente de IBM, bueno, en concreto, un grupo de estudio, ¿no? Más que IBM era. Que para este tipo de dispositivos, cuando ocupaban la calle, era tal el descontrol, cuando habían masificaciones y demás, que no respetaban a la persona ciega ni lo que llevaban en la mano ni nada, vamos, que lo atropellaban. Entonces, es un sistema muy curioso que detecta lo que es la intromisión o el posible impacto futuro y avisa, advierte tanto a la persona que no ve, para que se ponga a la defensiva y dispare. No, eso de disparar es broma. En algunos casos estaría bien. Con la pistolita de agua, aunque sea. Una descarga o algo. Un sitio fuerte para que el despistado no arramble con el dispositivo. Entonces, bueno, yo entiendo que esto también es una circunstancia que a mí particularmente me interesa. Sí. Yo aquí te puedo decir dos cosas de lo que ya sé y luego ya podemos hablar de lo que pensamos. Pero de lo que ya sé, te puedo decir que mi experiencia de cinco minutos, por supuesto, en la estación de tren en la que estuve en Londres, no tuve ningún altercado con gente. Bueno, en general ningún altercado, pero ningún altercado con gente, de chocarme con gente, de que me atropellaran y nada. Fueron cinco minutos, o sea, que perfectamente no quiere decir nada, pero no lo tuve. Y luego lo otro que también se sabe es que el dispositivo va a ser fácilmente identificable, o fácilmente identificable o fácilmente visible, mejor dicho. Va a llevar un anillo LED, o sea que en principio se va a identificar bien. Que la gente lo asocie a que eso sea de un ciego, pues supongo que tendrá que estandarizarse o tendrá que acostumbrarse la gente a ver eso por la calle. Sí, habría que hacer campañas y todo, igual que le... Le podrían hacer que tuviera forma de R2D2, que todo el mundo sabe lo que es. Sí, exactamente. Bueno, eso no eres el primero que sugiere eso, ¿no? Bueno, lo haría mucho. Arturito. Arturito, a ti a ti, Arturito. Otra cosa que quería comentar es la fecha de lanzamiento que ellos tienen prevista, que en principio es en otoño de 2025. En principio en febrero comenzarán con las betas y de ahí a septiembre, octubre lo quieren sacar. Yo, yo ahí casi es donde soy más escéptico. A mí me cuesta pensar que, bueno, yo creo que la gente lo va a ver y lo va a ver. Yo creo que la gente lo va a ver y lo va a ver. Y casi es donde soy más escéptico. A mí me cuesta pensar que eso esté para sacar en esa fecha. Sin, sin mucho dato en los que basarme. Es una opinión sin mucho fundamento. O sea, que tampoco, tampoco sé si tiene mucha importancia, pero sí me cuesta, sí me cuesta creerlo que no vaya a haber un retraso en eso. ¿Vosotros pensáis lo mismo, Arturo, Roberto? Todo va a depender si ellos consiguen cerrar el diseño para la fecha que quieren. Y esa es la parte complicada. Después hay una parte que yo no estoy escuchando. Y mira, igual estaría bueno preguntarles de, para funcionar en cualquier país, Estados Unidos, en Europa, ellos van a necesitar certificaciones. Aprobación de la FCC por aquí, de otras, de otras agencias federales. Esos procesos toman su tiempo. Ellos están contando con el proceso, con el tiempo de fabricación. Pero, claro, quizás, depende cómo lo distribuyan. Quizás las primeras unidades las puedan distribuir porque son directos usuarios. A lo mejor se pueden plantear aquello como esto es una, un proceso de prueba extendido. No sé si eso se podrá hacer. Estoy hablando sin conocimiento. Hay muchos factores por los que esto se puede, se puede complicar. El primero es que no logren cerrar el diseño cuando quieren. Eso puede pasar con cualquier producto que se prevea que se lanza en una fecha. Después pasan cosas con la industria, pasan cosas con la disponibilidad de materiales y, sobre todo, pasan cosas con dificultades inesperadas que aparecen. A lo mejor de pronto en febrero se dan cuenta que tienen un problema de diseño y que no es tan sencillo de solucionar y tienen que volver a la fecha de diseño y cambiar cosas. A ver, ellos hablan con mucha confianza de que eso va a ser así, pero cualquiera que haya visto cómo se desarrollan productos sabe que las papeletas son para que no. ¿Pensáis vosotros que la comunidad de graders es consciente de que esto es así o la gente está muy inquieta y con ganas de que el producto llegue en 2025, sí o sí? Yo te puedo hablar de mi entorno o no te puedo hablar de mucho más, la verdad, pero de mi entorno creo que sí que la gente es bastante consciente y está el pensamiento este de que cuando llegue, que llegue bien o que no llegue una cosa a medio hacer. Creo que sí se acepta bastante el retraso, creo que la gente o por lo menos mi entorno sí lo acepta bastante. Yo creo que vamos a ver lo de siempre, si no consiguen cumplir la meta vas a ver siempre el grupo de gente que va a decir bueno mira esto no es tanto así, dijeron que en septiembre, ya estamos en diciembre y esto no ha salido, ¿qué pasa? Y ahora las reuniones con explicaciones de por qué no ha salido, dándole ánimo a la gente, eso siempre pasa y no sería la excepción en este caso. Quizás, quizás ahí es donde se va a poner a prueba cuánta confianza tienen ellos la gente, en este caso como ellos han sido tan transparentes, quizás la gente sea más tolerante, pero ellos mismos están dando gran seguridad de que van a cumplir las metas. Sí, no me parece bien cerrar ahí filas e intentar que no se despiste el equipo y trabaje con una fecha, aunque luego se demore. Eso se les ha preguntado, no somos los únicos que se cuestionan, si eso va a estar para 2025. La parte más importante es cerrar el hardware, decidir si ponerle o no un lidar o ponerle dos, una otra voz, que son decisiones que luego te condicionan el producto a futuro. Entonces, eso no son fáciles. Una cosa es también diseñarlo sobre el papel y luego a la hora de mandar eso a producción, ser capaces de tener las piezas en tiempo, en forma, con la suficiente calidad, con tal. Luego el software ya se puede actualizar, pero luego el software se puede actualizar más adelante. No, el software continuamente. Y cuenta con ello. Yo dudo que el software que recibiremos en 2025 o 2020, bueno, cuando llegue, yo dudo que ese software, eso posiblemente va a estar en un estado beta, bastante beta. Claro, pero eso es más fácil luego de actualizar. Pero lo difícil es decidir la parte de hardware hasta aquí. Una vez que ya le das al click del OK desde la parte de hardware, luego ya no puedes cambiarla, ya es más difícil. Es una decisión a largo plazo que, claro, puedes sacar otra versión de hardware, pero ya es mucho más caro y el problema es mucho más gordo. Eso hay que tenerlo muy, muy claro. La parte del software tengo más confianza porque estamos, mire, ahí que el tío controla mucho y, además, se ha rodeado siempre de gente muy pro en estas circunstancias. Roberto, tú eso lo conoces más que yo porque fuiste tú el que emitiste este comentario el otro día cuando conversábamos. Lo procuramos y la implicación. Sí, son gente con experiencia de desarrollo, no son principiantes en lo que hacen. En cambio, el hardware sí que tengo todas mis reservas, pero no con este equipo y con este proyecto, sino con cualquiera que se lleve a cabo y en estas condiciones. Estamos hablando que es gente que tiene unas condiciones económicas limitadas, que está siendo la comunidad de usuarios quien está apoyando todo lo que es el proyecto y que, lógicamente, no pueden tener muchas alegrías. Tienen que ir todo muy ajustado. Entonces, cuando llegan al punto de tener que escalar todo lo que es los componentes del dispositivo y meterlo ya en lo que es producción industrial, ahí es lo que comentaba Roberto, ahí puede pasar de todo porque el prototipo lo admite todo. Pero cuando ya vas a hacer el producto final, empiezan las cosas a desarmonizarse, a desequilibrarse y a entrar en otra fase que yo creo que no es previsible nunca. Solo el hecho de tener que trabajar con operadores móviles para implementar este servicio de suscripción mensual, que de eso tampoco se está hablando mucho porque a lo mejor ni ellos mismos lo tienen claro, eso es una historia. Eso a lo mejor no lo vemos al principio, esta suscripción mensual para guiado. A lo mejor al principio lo único que vamos a tener es lo que funcione en dispositivo, el tema de obstáculos y el tema de porque el guiado ya depende de conexión, depende de que ellos tengan un servicio de GPS. Eso es fácil, hay servicios de GPS que pueden utilizar, pero necesitas conectividad. Correcto. ¿Y el interfaz? ¿Habéis previsto alguna interfaz? ¿Tendría síntesis de voz, un reconocimiento de voz? ¿Tendría un botoncillo? Al principio va a tener, lo que no saben es qué van a meter configurable por el dispositivo y qué van a meter por aplicación, pero en principio va a tener una interfaz del propio aparato y una aplicación móvil para gestionar ciertas cosas también, como las actualizaciones. Pero no saben todavía qué va a poder gestionar el dispositivo y qué con el móvil. Están ahí pensando, por ejemplo, el otro día se habló en la reunión, cuando estuvimos en Londres, hablábamos de que había que avisarle al dispositivo en qué mano lo llevas y que no sabían si iban a meter esa configuración en el propio dispositivo o con el móvil. Entonces, bueno, están ahí en eso. Pero sí, al principio va a tener. Si llegas a una intersección, un cruce para poderle decir de alguna forma, o el primero te tendrá que decir a ti, no sé, hay una calle hacia la derecha, hacia la izquierda, de frente hay coches o lo que sea, para poder elegir por dónde quieres ir, si estás en un modo libre, ¿no? De hecho, ellos han subido algunos vídeos de lo que quieren que sea el dispositivo, hay algunos vídeos en su canal de YouTube, demostrando todas esas cosas, todas estas cosas que comentas, que se me ha olvidado decirlo antes, cuando estábais hablando de esto. Y a mí el otro día, no sé si a Roberto también le llegó o a alguien más, pero me llegó una encuesta de cómo querían que fuera más o menos el proceso de adopción de Glide por el usuario. Pues las configuraciones y demás, todo ese tipo de cosas. ¿Qué preguntas os hacían? ¿Qué preguntas nos hacían? Qué buena pregunta, con la buena memoria que tengo yo para esas cosas. Por encima, por encima, tampoco. No, nos preguntaba. Era bastante larga. Sí, es larguilla. A ver, ¿alguna pregunta que hicieron? Sí, si preferías, pues creo que una de ellas justamente era eso, si preferías configurar el aparato desde una aplicación o desde el propio aparato, o si las instrucciones preferías que fueran en Brighty o en una aplicación o en una web. Sí, te daban esas opciones, instrucciones en Brighty, aplicación o en una interfaz web o en una página web. Te ponían también cómo preferías dar direcciones, si dictándolas, si escribiéndolas o si seleccionándolas de una lista, por ejemplo. Interesante. O sea, ese tipo. Tipo de paquete, si te sentías cómodo utilizando herramientas para cortar, típico de cortar la caja. O si eso es un problema, cuán problemático era eso. Qué sé yo. Cómo preferías la documentación, si en audio, si en video con audio descripción, si en digital para móvil, si en digital para web. Era un montón, eran como 16 páginas que te preguntas. El precio puede ser un problema. Para mí, a ver si se me entiende lo que voy a decir, para mí es muy barato. Baratísimo. A ver, vamos a concentrarnos en el mercado para el que va dirigido esto, la utilidad que tiene o que podría tener y la tecnología de la que estamos hablando. Cualquier cacharro en el mundo de los productos para personas con discapacidad y específicamente de la tiflotecnología, te cuesta de 4.000 dólares arriba. Un Orcam con las mismas gafas estas de Envision, cuestan como 3.000 dólares. El NOAA, Nira. Por ejemplo, el NOAA, yo qué sé, aparatos. Las iSense, por ejemplo, que al final, o sea, no es por, o sea, ese es. A mí cuando sacaron ese precio me sorprendió muchísimo, digo, es que no. A lo mejor también, bueno, pregunto si puede ser un problema en sentido amplio. Incluso puede ser un problema desde el punto de vista de negocio. Para ellos este precio es rentable. Para ellos eso significa que tienen que vender bastante y tienen que tener un mercado, o sea, tienen que garantizar de verdad una respuesta positiva de la comunidad. Yo no sé cuánto les cuesta a ellos fabricar, por supuesto. Yo creo que no lo sabrán ni ellos todavía, supongo. Ni ellos tampoco. Claro que no, que no lo saben. Al principio decían que esto iba a costar lo que cuesta un móvil. Esto dije, bueno, esto no me lo creo yo y probablemente él va a descubrir pronto que no se puede cobrar eso. Y yo pensé, sí, cuando esto salga, esto va a costar de 2,000 para arriba. Así que cuando escuché 1,500 y además eso lo han cerrado ya porque lo están vendiendo a ese precio, que, bueno, a ver, es significativo. Que suba luego, vamos a ver. Eso lo tendrán que ir viendo. Pero la intención de ellos es crear una marca de consumo. Eso es muy importante. La mayoría de las empresas que venden para ciegos se plantean, o sea, no están apuntando al usuario, no están apuntando a nosotros. Están apuntando a los servicios, a los gobiernos que cubren estas cosas, a organizaciones de ciegos que la financian, a estructuras que pagan por este tipo de aseguros médicos en países donde eso se cubre así. Y están tratando de asegurarse precios altos y contratos de venta para, porque lo que les interesa es asegurarse unas ganancias concretas. Estas gentes se están atreviendo y dicen, bueno, yo, vamos a confiar en que la gente va a comprar esto. Y están apuntando a crear un producto de consumo que lo pague la gente. Porque están diciendo, la movilidad es de lo más esencial que hay. Es más esencial incluso que una línea braille dependiendo de qué tipo de audiencia estén apuntando. Porque todo el mundo necesita moverse. Y hay gente que no se mueve. Es que hay gente, lo que decía Ricardo antes, que a lo mejor nosotros tenemos una movilidad que nos movemos, podemos salir. Pero es que hay gente que a esto le va a solucionar la vida. En Estados Unidos eso se va a vender como pan caliente. Yo estoy bastante seguro de eso. Creo que ellos también están contando con eso. Ellos están contando en la cantidad de dinero que una persona que recibe beneficios del gobierno por los distintos planes, programas de beneficios económicos que hay aquí, se puede permitir. Y yo tengo la sensación de que si ellos consiguen sacar un producto más o menos como lo que están tratando de sacar, en Estados Unidos se va a vender como pan caliente. Hombre, a mí es que para personas que hoy no se están moviendo porque les da miedo la calle, porque no se acostumbra a ningún auxiliar de movilidad, porque parece inseguro, lo que propone Glide, simplemente para moverte por tu barrio, ir a los ultramarinos, ir a casa de tu hermana, de, bueno, donde quieras. Por terrenos controlados. Este dispositivo tiene muy buena pinta para este tipo de perfiles de movilidad bajo o limitado, ¿no? Sí, que muchas veces, y creo que es un error, que yo sobre todo, al final te vas concienciando y lo vas viendo y trato de cometer lo menos posible, pero muchas veces cometemos ese error los que tenemos un perfil en lo que sea, en movilidad, en tecnología. Un perfil un poco más avanzado o más alto, tenemos la esta de olvidar un poco que hay muchos perfiles y que la, yo creo que la tecnología está para ayudarnos a todos desde luego, pero en primer lugar yo creo, y con más ahínco si cabe, a la gente que peor lo tiene. Sí, sí, sí. Me gusta mucho también de Glidance lo que estaba comentando Roberto, ¿no? Decir que, bueno, sales con un precio que no es abusivo y la gente de una u otra manera se lo puede permitir, pero es que en sus maneras, si tú lees sus preguntas y respuestas dentro de la página web, llegan a decir que si los 30 euros que tienes que pagar por la suscripción esta para la inteligencia artificial y otros servicios tuvieras dificultad para pagarlos, que no te vas a quedar sin moverte. Decir que ellos van a tener soluciones y respuestas para esto porque entienden lo importante que es la movilidad. Es decir, que es una declaración de intenciones para mí muy interesante. A mí eso me parece, a ver si consigo que se me entienda bien, me parece un marketing muy bueno. O sea, me parece una frase que queda muy bien. No digo que sea mentira, eh. Digo que me parece una frase muy bien puesta, muy bien puesta. Habrá que ver luego qué soluciones son esas que proponen si realmente hay un usuario que no lo puede pagar. Han declarado unas intenciones. Incluso dicen que puedes pagar unos meses sí, otros meses no, dependiendo del uso que le puedas dar o tal. Eso no me lo creo yo mucho. Por eso, efectivamente, eso queda muy bonito. Yo creo que tampoco. Porque es que eso es muy complicado de implementar. Sí, pero lo ponen, lo ponen. Sí, sí, lo ponen. Sí, lo ponen. Sí, yo sé que lo ponen, sí. Yo sé que lo ponen. Y no hay, o sea, yo no dudo que están pensando cómo conseguirlo. A mí me parece sumamente ambicioso, ¿no? Yo creo que han preguntado a los usuarios qué queréis y han puesto todo en la carta de los Reyes Magos. Porque, claro, luego si haces caso a todo lo que quieren los usuarios, como un ejemplo, ¿no? Los usuarios van a pedir, seguro, que te reconozcan los semáforos si está verde o está rojo. Y actualmente, pues, sabemos que hay una aplicación que hace esto, que reconoce o que lo intenta. Que, de hecho, en principio, hasta donde yo sé, van a trabajar con ella. Claro, pues, esta aplicación precisamente lo que quería era que su público, la parte de negocio, pues, quieren hacer a través de instituciones. Lo que pasa que, pues, a veces, a lo mejor alguna institución, pues, no considera que es lo suficientemente fiable. Y, a lo mejor, pues, ahí no han encontrado quizás todo el negocio que buscaban inicialmente, ¿no? Entonces, pues, hay veces que, y eso es solo un punto muy concreto, que es la detección de semáforos si está verde o está rojo. Pues, eso es más todo lo demás que quieren ponerle. A mí me parece un proyecto súper, súper ambicioso. Y, bueno, ya veremos. Ambiciosos para el precio. Oye, ¿os apetece que hagamos una simulación como la que hace Amos Miller en el vídeo este? Que, por cierto, pondremos en la descripción el enlace y la transcripción del contenido. ¿Nos podéis explicar, tanto Roberto como Moi, cómo sería levantaros en vuestra casa y tener, estamos, es una simulación, ¿eh? Eso no, tener vuestro glida, vuestro glide ahí en el hall antes de salir, ¿qué haríamos? Bueno, podemos ir por partes. Podemos inventarnos, no sé, que estamos, a ver, yo trabajo desde casa. No tiene mucha gracia levantarse por la mañana. Lo más probable es que me desayune y me siente aquí. Pero, por ejemplo, yo me puedo imaginar perfectamente estar en de viaje de trabajo o estar en un tema de conferencia. Me puedo imaginar, por ejemplo, ir al campus de Microsoft, que tengo que viajar varias veces, por lo menos una o dos veces al año allá. Y es un campus súper difícil de navegar. Me puedo poner en esa situación, pero facilito. Así que, sí, podría imaginarme, qué sé yo, levantarme en la mañana, prepararme para salir. Y, entonces, en la habitación del hotel podría estar el glide. Claro, acabo de llegar, llegué en el avión a la 1 de la mañana, ni me fijé dónde estaba. Básicamente, llegué, me quité todo y me tiré en la cama y me dormí. Y a la mañana ya no me acuerdo muy bien ni dónde estoy. Entonces, aquí en el, por ejemplo, podría, yo no sé ni dónde dejé el glide, ni siquiera dónde dejé la maleta. Sé que al lado del glide, pero no sé dónde. Podría decir, oye, glide, ¿dónde estás? Glide, ¿dónde estás? Estoy aquí. 100% cargado, tiempo de caminata de 6 horas. Se me ha olvidado cargar. Porque se nos está olvidando y por eso se carga. Ya empezamos mal. Si sacas el 0% sacas el bastón que lo tienes debajo. Como tiene conexión USB, se está hablando de que se le podría conectar una batería externa. Si estás en una situación como esa y tienes una de estas baterías que se usa para los móviles, para una externa, la podrías conectar por ahí. Exacto. Pero bueno, sí me puedo imaginar perfectamente agarrando el glide, saliendo por ahí para allá, por el pasillo del hotel, que no me acuerdo muy bien ni cómo llegué a la habitación, porque a veces llega a la una de la mañana. Y dije, bueno, tengo que encontrar un ascensor, más o menos me acuerdo por dónde, quizás tenga algún método de detección de ascensores, no lo sé. Y bueno, vamos a buscar el ascensor. Y ya sé, quizás me encuentre por el camino los carritos del servicio de habitaciones, de la limpieza, qué sé yo, que a mí me encanta darles bastonazos. Sí. Las que me gusten, pero termino haciéndolo. Y cuando lo hago, siento, siento, me encanta cómo suena. Eso a mí me lo perderé. Llegamos al ascensor, hay gente en la entrada del ascensor, que eso es una cosa que siempre a veces me pone un poco nervioso, dejar que la gente pase y no estar en la desesperación de meterme en el ascensor antes que se vaya. Bueno, pues con el glide quizás sea un poco más fácil. Y agarrar un taxi, agarrar algo, ir al campus. Y bueno, el campus está bien mapeado, así que ¿qué podría hacer Glide? Por ejemplo, si te encontraras con un cruce, ¿qué haría Glide? Si nos guiamos por lo que plantea, te avisa cuando te estás aproximando al cruce. Podemos ponernos en situación, estoy caminando por la acera, voy hacia la parada de donde salen los autobuses para el campus y escucho el tráfico que se va acercando, con lo cual pienso, bueno, estoy llegando a la esquina y cuando estoy aproximando a la esquina, Glide me diría... Aproximándote a la intersección tal, tienes paso de cebra adelante, paso de cebra a la izquierda. ¿A dónde quieres cruzar? Bueno, con un poco de suerte lo voy a saber. Y creo, la idea es que con botones le puedas indicar, si no me falla la memoria, si te vas a ir a la izquierda o te vas a ir a la derecha o te vas a seguir. Entonces digamos que voy a seguir, pues le presionaría el botón hacia adelante, quiero seguir, y entonces Glide activaría el modo de voy a buscar paso de cebra, me indicaría, me colocaría justo en el inicio del paso de cebra y frenaría. Yo no me acuerdo exactamente cómo es que lo ponen en el video. Creo que hace algo así, te coloca en el paso de cebra y te da la indicación de, bueno, cuando estés listo para cruzar, con un ojo o con cualquier cosa, me chequeo el semáforo, vuelvo a darle la indicación de avanzar, y sobre todo en esas calles súper anchas, donde no hay muchas referencias, que yo por lo menos avanzo con el bastón, así, dando toques en el centro, pensando, bueno, con un poco de suerte llego al otro lado, si no, llegaré a ver a dónde. Bueno, pues mantengo la línea recta, llego al otro paso de cebra y sigo mi camino. ¿El camino te lo indica? ¿Él siempre indica un camino? No, pero te trata de mantener la línea recta. O sea, si yo salgo caminando con mi paso de cebra adelante, salgo cruzando, la tendencia natural, que es a desviarse, que tiene uno con el bastón, si no tiene una línea guía, como es que tengo yo, por lo menos, no hay ese problema, porque Glide intenta mantener la línea recta, está intentando que llegues al siguiente paso de cebra, entonces va a mantener esa línea recta. Es mucho más fácil mantener la línea recta si estás empujando un aparato con ruedas, que no te deja girar. Para mantener esa línea, mira, el paso de cebra que tienes enfrente y las líneas de la carretera. Si el paso no estuviera marcado, por ejemplo, se fijarían las líneas de la carretera también como guía. Y si, por ejemplo, una rama se cruzara delante de vosotros, porque sale, por ejemplo, de una estancia que hay ahí, hay una rama que está invadiendo, os va a dar directamente en la cara y tenéis posibilidad de esquivarla. Y se está hablando de que también te daría algún tipo de información audible. Y si no hubiera salida, está la rama ahí que haría Glide. Si está la rama ahí, dice no puedo ir ni a la derecha ni a la izquierda. Claramente te frenaría. Y ahí te tocará elegir qué hacer. Eso es lo que yo contaba, que me pasó a mí, que como no podía frenar, en teoría frenaría y te daría una descripción de por lo que ha frenado. Y te tocará elegir qué hacer. Si te dice que hay una rama, tocas la rama con la mano, la buscas, o bajas la cabeza y pasas con Glide delante de ti y ya sigues. ¿Te diría que hay una rama a tanta altura o te intentaría dar una descripción del obstáculo que has encontrado? Sí, en principio lo que ellos quieren es que te den una descripción de por qué se ha parado para que tú puedas tomar una decisión. A una distancia para que con la mano tú puedas quitar la rama y pasar por debajo. Si no sabes qué ha parado pero no sabes por qué, pues malamente vas a poder tomar ninguna decisión. ¿Y él solo frena o él también tendría motor para tirar y decirte hacia el lado? No, él nunca anda. El motor eres tú. Sí, solo frena y gira. ¿Gira? Si gira tiene motor para moverse. Gira la rueda, pero él no se va a mover nunca hacia adelante sin que tú lo empujes. Son los servos lo que se mueve, la dirección de las ruedas. Solo la dirección de las ruedas, no es capaz de girar. Bueno, pues está al fondo el campus con unas escaleras hermosísimas y de repente está llegando Roberto que va hacia las escaleras. Pues nada, que va hacia las escaleras. Encima no tienen barandilla. Puñet. Pues llegaré a las escaleras y me dirá... Aproximándose de escaleras hay escalones ascendentes o algo así. O escalones, bueno, en este caso... Ascendentes, sí, sí. Me diría escalones ascendentes. Quizás en el futuro me diría cuántos steps hay, cuántos escalones hay. Y bueno, lo normal en Estados Unidos es que si el edificio es medianamente moderno junto a la escalera hay una rampa. Así que si el Glypodri puede detectar la rampa, probablemente me guíe hacia la rampa. Eso no lo han dicho ellos, eso lo estoy diciendo yo porque me parece muy razonable. Si no hay rampa... ¿Está propuesto? No lo recuerdo. Yo la verdad que sí. Es muy interesante la propuesta esa, no está mal. A ver, es que ese es el tipo de cosas que a mí nunca se me ha ocurrido mencionar porque Amos vive en Seattle. Tiene que haber visto eso N veces en su vida, incluso ahí en el campus de Microsoft. Pero sería súper razonable porque además es súper estándar. Si tienes una escalera, al lado de la escalera tienes la rampa. O sea, cualquiera que esté familiarizado con ese tipo de mapeos sabe encontrarla. Entonces yo diría que el Glide debería detectar. Y si no la detecta, pues mira, le indicaré... Me moveré hacia la izquierda porque en algún punto está. Si no, sencillamente lo que se plantea es que suelto el Glide. O sea, el Glide me va a colocar frente a la escalera del lado de la baranda si hay. Si no hay baranda, pues mira, me colocará frente a los escalones. Si no hay baranda, seguramente se agarre el bastón para explorar. Si no, si hay baranda, pues probablemente agarre el Glide, especialmente si conozco la entrada. Y lo use como... Como un bolso, ¿no? Como un bolsito, lo llevarías como un bolso. Exacto. Recojo el arnés telescopico. Lo pongo en posición vertical, lo levanto. Lo llevo delante de mí. Cuando llegue arriba, quizás me quede en el último escalón de la escalera. Coloque el Glide en posición, despliegue el arnés y le indique que busque la entrada. O sea, tendrá un modo de detección de puertas, supongo. O quizás me ofrezca una lista de objetivos que esté cerca. Y uno de esos objetivos quizás sea una puerta, que puede estar directamente enfrente. O puede estar un poco a la veada. O puede estar... qué sé yo. Lo más probable es que esté enfrente. Simplemente con decirle, sigue recto. O sea, con marcarle la posición de avanzar. Y me llevará, me moverá para que justo llegue por el centro de la entrada, donde está para estirar la mano y abrir. En este caso, con Microsoft es medio complicado porque tienes que escanear la credencial. Y eso es medio difícil. Aunque no siempre están fácilmente... los escáneres están en una posición cómoda. Con lo cual a lo mejor hasta tengo que dejar el Glide en posición vertical, buscar el puñetero escáner, escanear, agarrar el Glide y correr hasta que se cierre la puerta. Pues muy bien. Ha sido muy interesante. ¡Bien! Por cierto, lo del bastón que mencionábamos antes, adherido al cuerpo del Glide, la idea que tienen ahora mismo es... Lo que pasa es que no sé cómo lo querrán hacer, si lo van a incluir ellos o no sé. La idea que tenían ellos, para que quedara más estilizado y menos armatoste, era que el bastón fuera un bastón telescópico. Que aquí en España creo que no se usa mucho, ¿no? Yo creo. O yo por lo menos no lo he visto mucho. Emos lo tenía. Él utilizaba un bastón telescópico y, claro, me lo enseñó cómo quedaría. Y, de hecho, se hasta se... Que eso ya está por ver, porque se estaba en una charla de bar casi. Pero decían que a lo mejor una de las ideas que tenían era que el bastón se adhiriera magnéticamente al Glide. Bueno, está muy bien. Sí, como la pluma del iPad. Sí. Nosotros hemos visto ahora muchos compañeros y compañeras comprar un modelo de bastón chino que justamente es telescópico. ¿Ah, sí? Sí. ¿Y dónde lo compran? ¿En Temu o algo de eso? ¿En AliExpress? En Amazon. En Amazon también está. Bueno, chino que no es chino. Inicialmente estaba en Estados Unidos. Yo inicialmente lo compré con otros compañeros. Nos juntamos en un grupito y compramos la versión de Estados Unidos. Bueno, estamos... Igual he de enviarse del tema, pero te voy a preguntar que qué tal es. Depende. A ver, hacer un bastón telescópico, pues claro, está todo milimetradamente para que encaje un palito dentro del otro, ¿no? Son seis o siete, creo, elementos. Claro, con el uso, si uno de los elementos se dobla un poquitín, pues ya no va a encajar todo el negocio. Entonces, pues, la vida útil, si lo usas mucho, pues... No es de trote. Pero para esto sí, ¿no? Para subir unas escaleras, bajarlas, para unas... Yo lo uso para cosas así. Yo lo uso cuando voy con alguien y tal. En principio no tengo pensado utilizarlo, pero si en una emergencia lo tengo que utilizar, pues lo saco. Lo pondremos en la descripción, por si alguien tiene interés. Así que lo compartiremos. Otra cosa que se discutió también es si podría llegar a ser configurable el nivel de prudencia que debiera tener el aparato. Por ejemplo, si quieres que realmente pase muy lejos de los obstáculos, o si prefieres que sea un poco menos prudente y no te choque desde luego, pero que sí que pueda tener un margen más corto. Incluso he oído por ahí algo de desobediencia activa, ¿no? O algo así. Desobediencia inteligente, sí. Lo típico que tú vas andando y quieres girarlo hacia un sitio en el que no puede porque te vas a chocar, porque no te debería dejar. A mí me preocupa mucho con el Glide, siempre lo he dicho, justamente el público que más lo necesita. El público de la gente con pocas habilidades, que necesita un dispositivo confiable y que no tiene recursos propios para lidiar con fallas. Y esto tiene tanta tecnología que yo creo que como ellos no consiguen minimizar las fallas y hacerlo muy tolerante a fallos, a mí me preocupa mucho esa gente porque a uno le falla el Glide y a uno le va a agarrar un bastón. O lo va a llevar en la mochila, o lo va a sacar del mango y va a buscarse la vida. Pero las personas que más necesitan este aparato tienen mucho menos recursos para lidiar con ese tipo de eventualidades. Y eso me preocupa bastante. Y es que como estamos hablando, aquí el nivel de tolerancia de errores es que es cero. Porque si un semáforo te lo confunde el verde por el rojo, pues le ha liado parta. Esto tiene que funcionar casi como un calefactor. Encenderlo y que funcione. Y con una fibridad 100%. Incluso un perro guía no te lo dan si no tienes un buen nivel de movilidad. Y aquí se está hablando de darle esto a gente sin movilidad porque es una solución para rápidamente recuperar cierta vida activa. Y ese tipo de gente necesita mucho. Un friki puede entender si ha hecho esto o no porque tal. Porque igual a lo mejor lo puedes entender y lo puedes incluso consentir. Incluso en un teléfono cuando no funciona bien. Y bueno, tengo que reiniciarlo, tengo no sé qué. Un friki pues bueno, lo aceptamos. Pero un civil no lo va a aceptar. Sí, eso está claro. Oye, y no hemos hablado de una cuestión. Vamos, hay cámaras, están viendo a la luz del día todo lo que tienen delante. Cuando cae la noche, ¿qué tienen previsto? Porque claro, también hay que salir con poca luz. Sí, en principio está pensado. No sé exactamente qué tecnología utiliza para la visión nocturna. Pero en principio sí que se ha hablado de que está contemplado. Es decir que puede ser golfo y tener tu glide. Sí, luego seguro que según lo golfo que sea, igual lo pierdes por ahí en algún momento. Yo me lo pienso ya. Pero sí, sí. Otra cosa de la que se ha hablado que es muy interesante es la posibilidad de hacer rutas. O sea, de correr con el glide. Esto que quise hacer yo. Se lo he preguntado a la gente. Y a mí me gustaría correr. Desde que perdí la vista ya no corro. ¿Qué tal? ¿Podría el glide hacer un circuito? ¿Podría ayudarme a una pista de carrera? Yo lo veo muy complicado eso, Roberto. Y te voy a decir por qué. Nada más que por la posición que es la que lleva el líder ya lo veo complicado. Porque vas con una mano rígida. Bueno, rígida... Rígida quiere decir que tú cuando corres vas moviéndolo brazos así. Sí, claro, vas balanceando. Eso también lo pensé. Y para correr un momento sí, pero para correr así de diario... Un circuito. Lo veo difícil. Tendrían que plantearse un tipo de arnés diferente. Correr empujando el carrito a la compra es un poco complicado. Un poco raro. Pero bueno, se les ha planteado. Mucha gente podría tirarle para atrás el hecho de que no fuera lo suficientemente plegable y portable. Para subirte a un avión, para subirte a un tren, para viajar con él. ¿Qué tienen previsto? Es plegable. Y en principio las medidas que tienen previstas es que quepan debajo del asiento de un tren o de un avión o en el maletero de arriba. O sea que en principio esas medidas están previstas. Sería pequeño. Por problemático que sea eso va a ser mucho más manejable que un perro. Totalmente. A la hora de meterte en un automóvil, de meterte en un avión. Va a ser mucho más sencillo. Si yo me podía meter en un taxi, me puedo meter con cualquier cosa. Alergia, no deja pelos, no huele. No requiere documentación adicional. ¿Cómo veis el futuro de esto? ¿Por dónde puede ir? La comunidad de usuarios es muy activa. ¿Están escuchando realmente a los usuarios? ¿Cuáles son los siguientes pasos de este prototipo? Los siguientes pasos van a incluir necesariamente beta testing. Que ellos lo van a empezar a hacer, no sé si en enero. Creo que enero o febrero decían. Enero o febrero. Para saber si definitivamente se puede cerrar el diseño. Para ir a fábrica. Y, con suerte, ya lo hablamos. Sacar el primer lote de unidades para los que preordenamos en otoño. Y a partir de ahí, creo que ni ellos mismos se plantean. Bueno, ellos seguramente se lo plantean. Pero a partir de ahí empieza la aventura, de verdad. Creo que nos volveremos a reunir. Para sacar el primer lote en otoño, tienen que mandarlo a producción como pocos meses antes. Como poco. Como muy poco. Habéis dicho que aún la gente puede participar. Igual alguien escucha este podcast y se da cuenta. Sobre todo porque vosotros lo habéis planteado así. Que este tipo de proyectos que pretenden ser finalmente un producto de consumo. Y que se está gestionando de esta manera. Precisan de financiación también por parte del usuario final. Como es vuestro caso. Pero alguien ha comentado que aún está a tiempo la gente de contribuir. Aunque no como cofundadores. ¿Hasta el fin de año? Sí, hasta diciembre. No sé exactamente la fecha. ¿Y qué reciben a cambio por colaborar ahora? Un 30% de descuento. Y creo que también reciben el descuento en la suscripción. Si la pagan ahora. Si se comprometen a pagar. En la pre-reserva tienes la opción de incluir cierta cantidad de meses de suscripción. Y si lo haces, te dan un descuento. Y si no, hasta el 31 de diciembre. Después, ellos han dicho que van a trabajar de manera personalizada. Con la comunidad de gente que se ha apuntado. Que ha dado el paso al frente. Para asegurar que el proceso de recepción del dispositivo. El proceso de empezar a usarlo. Sea tan apto como sea posible. Y también para aprender de ese proceso. Y poderlo mejorar para el resto. Qué bien. ¿Y mientras? ¿Seguirán haciendo sus reuniones mensuales a través de la plataforma Zoom? ¿Y explicando todos sus avances? ¿Esto lo van a mantener? Entiendo que sí. ¿Puede participar cualquier persona en esto? ¿Si hablas inglés? Sí, sí, sí. Si efectivamente ellos hablan inglés. Y si hablas inglés no hay ningún tipo de limitación. Seas cofundador, no seas cofundador. Hayas pagado, no hayas pagado. Si te bajas el audio no puedes participar en el momento. Pero luego sí que puedes. Ellos tienen dos formas de que tú participes. Una es levantando la mano y preguntar por audio. Pero también puedes preguntar por el chat. Con lo cual es más fácil traducir. Si no sabes inglés es más fácil. Claro, claro. ¿Y qué hay que hacer para participar en estos eventos? Pues en su página web suelen poner un enlace para registrarte. Y si te apuntas a la newsletter de ellos. O como se diga. Te mandan correo también. Sí, vale. Lo pondremos en la descripción. Para facilitar el tema. Por si alguien quiere estar más cerca de este proyecto. Y verlo evolucionar. Y si quiere participar. Y la idea supongo que es un 30% de descuento. Del primer dispositivo. Porque luego se supone que saldrán más versiones. Si todo va bien. Pues irá evolucionando. Habrá accesorios. Lo del bastón. De 1500, vamos. 30% sobre 1500 dólares. Exacto. Yo le quisiera decir a la gente que se esté planteando. Sobre todo si nos escucha que se esté planteando. Me voy a apuntar. Entender que lo que se está pagando. Ahora mismo es por una prueba de concepto. Hay que entender que ese 30%. Es simplemente porque estábamos comprando. Un dispositivo que no está terminado. Que es una cosa que se ve más comúnmente. En la industria de consumo. Pero no se ve a menudo. En el tema de los productos para ciegos. Normalmente si te compras una línea braille. Esperas que esa línea braille llegue funcionando. Si es una foco quizás no sea tanto. Pero ya es otra historia. En este caso. Literalmente no tenemos certeza. De qué es lo que nos van a dar. Y por eso es que nos dan 60 días. Para devolverlo. Pero lo que intento apuntar. Es a establecer las expectativas. La expectativa no es que voy a pagar ahora. Un precio, un descuento. Y en otoño me van a dar un dispositivo. Voy a salir a la calle. Y me va a cambiar la vida. Es fundamental entender. Que lo que nos están dando. Es la oportunidad de ser. No sé si en español ese término existe. Early adopters. Adoptar tempranamente una tecnología. Que está sin terminar. De ser parte del proceso. Exacto. Y hay que disfrutar de eso. Por cierto. Lo de la política de devolución. Lo tienes que tener 30 días. Y si a los 30 días no te convence. Tienes otros 30 días para devolverlo. Te llega el dispositivo. Y a los 3 días no lo quieres. Tienes que quedarte los 30 días. Ellos quieren asegurarse que lo pruebes. Que realmente le des oportunidad. Y que si no te interesa los 30 días. Ya si tienes otros 30 días para devolver. Exacto. Yo creo que esto es importante. Para ir concluyendo un poco. Actualmente es un prototipo. Que tiene muchas expectativas. Que ya veremos hasta que punto. Llegan a cumplirse o no. O si nos quedamos a medias. Que promete mucho. Pero que actualmente. En la realidad no hay nada todavía. Correcto. Eso es. Esperemos que dentro de un año. Podamos estar de nuevo esta mesa. Aquí convocada. Yo creo que antes habrá alguna novedad. Yo creo que para principios del año que viene. Pero para hablar de Glide. El primer trimestre del año que viene. Yo creo que sí. Yo creo que algo habrá. Tienen que mantener la expectación. Genial. Pues muy bien. Muchísimas gracias. Gracias a vosotros. Muchas gracias. Por haber estado hoy con nosotros. Vamos despidiéndonos. Los medios de contacto. Correo electrónico. gafotas@cegatos.es A través de Whatsapp. +34 644 640 792 Por mensaje de texto o de audio. Solo mensajes. Muchas gracias por llegar hasta aquí con nosotros. Nos vemos en el próximo episodio. Adiós.
Gafotas, cegatos y sus aparatos #2
Fecha: jueves, 14 de noviembre de 2024, a las 11:30:00
En este episodio iniciaremos junto a Alfonso Calvo, experimentado informático y excelente divulgador, una exploración a fondo sobre la inteligencia artificial (IA), analizando sus fundamentos, avances y desafíos. En nuestra conversación recorreremos la evolución de la IA desde sus inicios en los años 50, pasando por su implementación en el ajedrez y el Go, hasta la llegada de la IA generativa que hoy conocemos... y mucho más. Analizaremos cómo esta tecnología está transformando la sociedad y plantea preguntas sobre su impacto futuro. ¡Bienvenidos y gracias por acompañarnos!
Intervienen:
- - Arturo Fernández.
Enlaces a Sitios referenciados en el episodio:
- El día que Kasparov perdió contra Deep Blue – Ethic.
La inteligencia artificial de Google derrota al campeón europeo de Go.
Qué es la caja negra de la Inteligencia Artificial – BeeDIGITAL.
OpenAI traza el mapa hacia la super inteligencia artificial | WIRED.
Créditos:
Duración: 59:27
Descripción detallada del logo de Episodio 2. Inteligencia artificial: De la fuerza bruta a la IA generativa.
La imagen muestra una escena futurista y elegante donde el personaje del logo del podcast y un robot humanoide juegan una partida de ajedrez en un ambiente refinado. El hombre, de aspecto clásico, lleva un traje beige, pajarita roja, gafas redondas y un característico bigote. En sus oídos lleva auriculares que se integran con su estilo retro. El robot, de diseño metálico dorado y altamente estilizado, presenta una figura femenina con detalles futuristas, incluyendo unos auriculares circulares integrados y gafas redondas. El tablero de ajedrez es de diseño sofisticado, con piezas metálicas que combinan con el ambiente lujoso. El fondo incluye mobiliario clásico como sofás de cuero, lámparas vintage y grandes ventanales que dejan entrar una iluminación cálida y suave, creando una atmósfera de mezcla entre lo retro y lo futurista. La escena transmite una combinación de inteligencia, estrategia y tecnología en un entorno artístico y cuidadosamente diseñado.
Mostrar transcripción de Episodio 2. Inteligencia artificial: De la fuerza bruta a la IA generativa.
Transcripción de Episodio 2. Inteligencia artificial: De la fuerza bruta a la IA generativa.
Muy buenas, lo que sean, yo soy Arturo Fernández Y yo soy Ricardo Abad Y esto es Gafotas, Cegatos Y sus aparatos Podcast Bienvenidos A este segundo episodio De tu podcast favorito Bueno, yo soy Arturo Fernández Y por aquí Está Ricardo y su micro ¿Qué tal Ricardo? ¿Cómo va eso? Bueno, pues sigo con mi micro Ahora con más habilidad que el episodio anterior Me golpeo menos contra él Pero sigo cometiendo Mis errores de novato Pero muy contento Y sobre todo por Saludar a la audiencia Que ya estamos en nuestro segundo episodio Eso es, ahí vamos Poco a poco, pasito a pasito Fenomenal, como solemos decir nuestro lema Aprender y divertirnos Exactamente, estamos aquí para aprender y divertirnos Y si podemos hacerlo todos Mejor que nosotros dos solos Y hoy tenemos un tema también súper interesante La inteligencia artificial Cuéntanos, ¿de qué va esto? No sé lo que es ¿Qué es la inteligencia artificial, Arturo? He oído hablar de ella Fenomenal, pues nada Pues tenemos hoy un invitado Que nos va a ilustrar O por lo menos dar unas pinceladas iniciales Porque esto daría para hablar de muchos temas Hola Alfonso, ¿cómo estás? Muy bien, un placer acompañaros en el programa ¿Qué tal Alfonso? Bienvenido Muchas gracias Muchas gracias en primer lugar Por estar con nosotros y acompañarnos Que seguro que vamos a aprender muchas cosas interesantes quien quiera saber también un poco más De quién es Alfonso Pues en las notas del programa Vamos a poner también un enlace Pues cuéntanos, Ricardo Bueno, pues esto de la inteligencia artificial Que antes bromeaba con ella Que no sé lo que es Pues sí que sé lo que es De hecho, hoy creo que todo el mundo sabe lo que es Mi nieta de cuatro años sabe lo que es Porque todo es inteligencia artificial De hecho, se utiliza para el marketing En las últimas ferias como IFA En la CES De Las Vegas En todos los electrodomésticos Tenían ese problema de que no se podía usar el teléfono En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas Vibration En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas En la CES de Las Vegas Normalmente, la herramienta la proporciona un cierto laboratorio, vamos a decir. Eso viene entrenado con los expertos del laboratorio, que son esa gente muy buena. Pero luego, digamos, hay un tramo final que requiere que los especialistas del centro hagan ajustes finos. Entonces, depende de la dificultad de las enfermedades que estén tratando y de lo similares que sean diferentes enfermedades entre sí, pero que sea muy importante el acertar correctamente con el diagnóstico, cabe la posibilidad de que se requiera un entrenamiento final por parte de algunos empleados del centro. Claro, y el problema es el posible error humano, ¿no? Sí, exactamente. O sea, daros cuenta que normalmente estos sistemas están acertando en torno al 80%, vamos a decir. Pero un fallo del 20%... Se considera hoy en día un fallo muy alto. Eso quiere decir que para pasar del 80% al 98% se requiere un esfuerzo descomunal. No es lineal, es asintótico. Eso quiere decir que en el tramo final, pequeñas mejoras en el porcentaje de diagnóstico requieren inmensos esfuerzos de entrenamiento. En el ejemplo que has puesto de científico, pues a lo mejor con los conocimientos y la experiencia que hoy tienen esos científicos, esos médicos, pueden pensar... Pueden pensar que al ver esta determinada fotografía, pues esto es una... Es esta determinada enfermedad, pero luego a lo mejor con el tiempo descubrimos que hay otros factores. De hecho, eso ha sucedido ya, ese tipo de situación. Entonces, fijaros bien cuál es, digamos, la ventaja que tiene la IA como herramienta. La IA es una nueva herramienta. Hablamos de IA, hablamos de la IA generativa, no hablamos de otros tipos de inteligencias artificiales. La IA es creativa. Que en este caso... Que en este caso, ¿qué significa? Es que puede alucinar y dar diagnósticos erróneos. Esa es la parte negativa. Y luego tiene otro componente y es que aprende. Aprende de una manera, vamos a decir, asombrosa. Una vez que se le suministra al módulo de aprendizaje una información muy, vamos a decir, muy bien clasificada, muy, muy bien clasificada, lo que sucede es que normalmente estas IAs... Adquieren nuevas reglas de conocimiento que los humanos no poseemos. Y entonces, a la hora de realizar diagnósticos, si la información de partida es muy, muy, muy buena y muy extensa, es decir, hay docenas de miles de casos estudiados, entonces resulta que ese nuevo aprendizaje que adquiere es un aprendizaje que es superior al que poseemos los humanos. Y es un aprendizaje nuevo, es decir, se basa... Se basa en decisiones que los humanos no poseemos. Sería un observador más óptimo que un humano. Lo sería. Pero para eso hace falta tener un conjunto de casos muy, muy bien clasificado y tienen que ser muchos casos. No basta con tener 100 casos o 1.000 casos. No hacen falta docenas de miles de casos muy bien clasificados. Entonces, los sistemas de IA generativa... O sea, con un módulo de aprendizaje profundo, son capaces de obtener nuevas reglas de conocimiento que al aplicarlas, estos sí que dan ya unos aciertos del 99,8% aproximadamente. Bueno, una maravilla. Con lo cual, digamos que en ese sentido tienen una capacidad de acierto normalmente mayor que los mejores expertos humanos. ¿Pero por qué? Porque tienen unas reglas de conocimiento que son nuevas. De hecho, los ingenieros... Los ingenieros que construyen otros sistemas lo que hacen es abrir el conjunto de reglas y estudiar esas reglas para comprender cómo está generando ese diagnóstico final, de manera que lo que se hace es mejorar con esto el propio conocimiento humano. Claro, pero esto es tema científico totalmente objetivo y temas muy, muy limitados y... Son temas a día de hoy muy especializados. Muy acotados, muy especializados. Claro, eso es. Esta situación que describimos solo se da en ámbitos, por ejemplo, unas ciertas retinopatías muy concretas. Entonces, son sistemas muy, muy, muy limitados. Muy limitados. Pero lo que sí es cierto es que antes eran menos sistemas y más limitados. Y hoy en día hay más sistemas y menos limitados. Es decir, la tendencia que se observa es a ir creciendo en cuanto a número de... ámbitos de actuación y teniendo capacidades de actuación cada vez un poco más amplias. Es decir, la especialización se está tendiendo a disminuir. Pero hay mucho trabajo por hacer todavía. Pero hay mucho trabajo por hacer todavía. El asunto es que como esto se está empezando a generalizar, ¿no? Y el ser humano, pues somos un poco, pues, eso, como la parte social y polémica que tenemos. Pues nos da por pubertos de cosas polémicas y el bicho no sabe qué decir. Lo que está influyendo en esto es la cantidad de dinero que se está poniendo en inteligencia artificial. Es decir, en la historia de la tecnología humana, en un cierto ámbito de la tecnología humana, como es la inteligencia artificial, nunca ha habido una inversión... No ha habido una inversión económica tan grande como la que está recibiendo la inteligencia artificial. Jamás. Y hay que rentabilizarla. Eso es. Entonces, ¿qué es lo que ocurre? Que todas esas docenas de miles de millones de euros que se están invirtiendo, claro, lo están haciendo en ciertas áreas de conocimiento. Entonces, aquellas que reciben esa millonada, digamos, de dinero, pues, con toda esa cantidad de dinero, pues se pueden obtener resultados generalmente excepcionales. Y como hay muchas de esas áreas que están recibiendo... esas ingentes cantidades de dinero, pues el resultado es espectacular. Pero, ¿qué hay detrás de todo esto? Docenas de miles de millones de euros. ¿Tú piensas, Alfonso, que gracias a eso han sido más transparentes con lo que están haciendo y han hecho los chatbots que son más...? Bueno, a ver, están siendo transparentes porque los usuarios que se han visto... Para que pasemos por caja. Sí, bueno, a ver, sí. Es decir, nos han hecho una especie de juguete para que paguemos una cuota y podamos colaborar en este... A ver, lo de la cuota es anecdótico. Aquí lo importante es que... Lo importante son las empresas, las que tienen el dinero son las empresas, ¿vale? Entonces, digamos que el haberlo puesto, daros cuenta que quien ha puesto la IA generativa al alcance del público es una organización sin ánimo de lucro, que es OpenAI. Era, era, era, ¿no? Bueno, digamos que en este proceso es sin ánimo de lucro. Ahora ya en breve dejará de serlo, pero tenemos toda esta capacidad de acceder a la IA gracias a esa organización sin ánimo de lucro. Pero es la única. Quiero decir, todas las demás organizaciones que están metiendo dinero en la IA, como Microsoft o Google o Meta, Facebook, Elon Musk... Es decir, estamos hablando de que todas esas otras compañías que están, vamos a decir, un poco por detrás de OpenAI, pues estas tienen un afán económico y quieren recuperar multiplicado su dinero. Entonces, no lo van a recuperar de, vamos a decir, de los ciudadanos. Lo van a recuperar a través de las empresas, lo van a recuperar las empresas que tendrán ciudadanos y otras empresas como clientes. Pero todavía está por ver todo esto. Es decir, ahora mismo el balance económico de la IA es claramente deficitario, claramente además. Es decir, que todavía no hay un modelo de negocio rentable para la IA. Lo habrá, porque daros cuenta que esto es un problema de madurez de mercado. Básicamente, esto es un mercado incipiente. Hay muchos actores intentando quedarse con un trozo del mercado. Y todo esto, normalmente lo que ocurre es que de un plumazo, pues solamente ciertos actores se quedan funcionando. El 80% de los otros actores desaparece y todo eso ha de venir. Es decir, estamos en un mercado en su estado infantil, básicamente. ¿Realmente es tan costosa y con un impacto ecológico tan grande? Es terrible, es terrible. Es terrible por ese entrenamiento que os decía antes que es tan absolutamente gravoso. ¿Por qué? Porque solamente los humanos podemos entrenar apropiadamente a una IA. Se ha intentado que una IA entrene a otra y lo que se consigue son sistemas inestables a día de hoy. Entonces, eso quiere decir que el esfuerzo de entrenamiento sigue siendo manual y extraordinariamente gravoso. En términos de tiempo, de personas. El esfuerzo. Ahora, una vez que se consigue estabilizar el entrenamiento, pues el resultado es espectacular. Es espectacular, pero económicamente no equilibra. Económicamente no equilibra. Daros cuenta que solamente la infraestructura hardware que hace falta para que funcionen estos sistemas, pues viene a ser como entre 100 y 1000 veces superior a cualquier otro programa de ordenador. El asunto es lo que le das de alimento para todos estos sistemas. Es decir, si le das la Wikipedia o le pones a leer Twitter, pues pasa lo que ya ha pasado. Claro, efectivamente. Daros cuenta que lo que se ha comprobado es que la forma de entrenar una IA sesga a la propia IA. Entonces, si no tienes cuidado con la información que le das, sí, puedes tener una IA entrenada, pero mal entrenada. Y el esfuerzo es multiplicador. Es devastador. Recordáis una noticia que... De hace cuatro, cinco, seis años que tuvo mucho alcance, que estaban todos como muy sorprendidos, todos los científicos, porque le habían dado una API o varias APIs de redes sociales, que son las conversaciones que tenemos los humanos del mundo, y la IA que habían entrenado, con lo que nosotros hablamos diariamente y comentamos, era una IA intolerante, racista... Bueno, ¿recordáis aquella noticia? Sí, sí, sí, perfectamente. Sí, efectivamente. Entonces, por eso os digo que... Claro, que realmente... La cantidad de información que utilizas para entrenar una IA es descomunalmente grande, pero tiene que ser una información, vamos a decir, de calidad. Y conseguir eso también cuesta un dinero descomunal. Hay que destinarla, hay que destinarla, sí, sí. Efectivamente. Entonces, todo eso, digamos, limita enormemente la evolución de la IA. Sí que es cierto que aprendemos... De nuestros graves errores, como ese que habéis comentado, de la IA racista, ¿no? Y cada vez hay mejores mecanismos de control para evitar, digamos, las desestabilizaciones de la IA. Pero, como cada vez tendemos a IAs cada vez más grandes, dos mil millones de parámetros, cuatro mil millones de parámetros... No se pueden pasar de frenada, porque estamos viendo que en nuestra sociedad, por ejemplo, por ese excesivo control... Se ha perdido, bueno, la gente ya no puede hacer cierto tipo de humor, porque resulta muy lesivo, no puede hacer un montón de cuestiones, que verdaderamente tampoco, según quién, las valores son tan... Bueno, son graves o no, pero bueno, al limitarlas se ha quitado un poco este encanto, ¿no?, de la espontaneidad y de... Sí, de hecho, hay que entender que hoy en día las redes sociales están monitorizadas en su actividad por inteligencias, artificiales, que en cuanto detectan algo que consideran que está fuera del uso aceptable, pues te impiden ese diálogo. Entonces, a mí me ha ocurrido estar en Facebook y trasladar la opinión de una persona, que no voy a decir su nombre, esa persona no se lleva bien con Meta y Meta lo censura directamente. Correcto, lo cancela. Lo cancela, entonces, efectivamente, ¿qué es lo que ocurre? Que en función de las filias y las fobias... Claro. ...del dueño... ...del dueño de la red social, se permite o no una cierta opinión. Entonces, toda aquella opinión que no gusta resulta que se cancela. Creo que eso no es admisible. Es una atmósfera un poco distópica a la que no deberíamos llegar nunca, ¿no? Pero que ya sucede, es decir, ya estamos en ella. Y yo, de hecho, ya no puedo verter opiniones de ese experto en Meta porque sé que al final lo que va a ocurrir es que me van a expulsar a mí. Claro, aunque sean opiniones objetivas, aunque sean con datos, con cifras... Sí, sí, efectivamente. O sea, ese experto, lo único que ocurre es que no es del gusto de Meta. Y entonces lo que han decidido es que cualquier cosa que proceda de ese experto se va a considerar como fuera del uso afectable. No, no es fuera del uso afectable, es fuera de tu gusto o de tu interés. No de un uso afectable. Esa persona no está hablando de terrorismo, de violencia, no, no, no. Lo que ocurre es que la opinión de esa persona no es favorable a Meta. Lo que decide es cancelarla. Y pero cancela a esa persona y a todos los que apoyemos a esa persona. Yo viví un episodio que a mí me inquietó muchísimo porque, os lo cuento ahora y os daréis cuenta, que no infringía absolutamente nada. Una revista muy prestigiosa que desgraciadamente ya no se publica aquí en España, se llama Investigación y Ciencia, en 2020 aún publicaba. Y en marzo de 2020, plena, bueno, comienzo de la pandemia, había un artículo. Sobre los coronavirus y el coronavirus en general, donde decía que pasara lo que pasara en dos años estaba solucionado. Porque esa era la vida normal de un virus, ¿no? Y iría auto replicándose y hasta el final moriría de éxito, ¿no? Y ya... Era un, vamos, era un artículo científico. Bueno, pues lo pasé por Meta, en aquel momento Facebook. Y entonces, de lo primero que me dijeron es que ese artículo... Que no era ni mío, yo no era ni una opinión. Vamos a ver, era un artículo de una fuente muy prestigiosa. Que de momento ya pasaba a la cola de todo. Que no iba a tener visibilidad. Y que mucho cuidado porque otro como ese iba fuera. Me asusté. Y fue así. Sí, sí, a mí... Yo solo he vivido con frecuencia y con tristeza. Porque lo que veo ahí es el sesgo de los dueños de esas redes sociales. Entonces, si... Si tú no respetas ese sesgo, te echan. Y a mí ya me ha ocurrido ser expulsado. Entonces, como ya he vivido esa experiencia y no quiero repetirla, pues me tengo que ser dócil ante ellos. Hay que portarse bien y no rompétese con los jefes, sí, sí. Has comentado que hay diferentes marcas o sabores. Oímos que está el ChagPT, que sigue el Gemini. Sí, a ver, esto fue una sorpresa para todos. Yo también, como experto, reconozco que no vi ya la jugada. O sea, yo estaba en la inteligencia artificial, yo soy informático, entonces, bueno, pues yo estaba trabajando en inteligencia artificial, desde un punto de vista profesional, digamos. ¿Yo hubiera supuesto que esto iba a transformarse como luego ha ocurrido? Bueno, os aseguro que no, honestamente. Ahora, yo a mi entorno sí que les decía, mira, yo creo que esto tiene futuro. Pero una cosa es que yo afirmara que eso tenía futuro y otra es lo que ha ocurrido. Entonces, siendo honesto, digo, mira, yo percibía un futuro, pero aseguro que no como el que tenemos ahora mismo. O sea, que el impacto tan amplio y tan intenso y con las prestaciones que tiene, ahí no llego, seguro. Eso ya estaba fuera de mi valoración. Entonces, ¿qué es lo que ocurre? Pues que OpenAI, bueno, ¿qué es lo que ha hecho? No ha inventado nada, realmente. Lo que ha hecho ha sido utilizar tecnología que construyeron otras compañías. Por ejemplo, pues la propia Google o similar. Es decir, lo que sí han hecho ha sido integrar con mucha habilidad toda una suite de tecnologías y ponerlas a funcionar. Y yo diría que por una cuestión, voy a decir que es casual, les ha salido esto. Y han sido los primeros en hacerlo. Es decir, lo sorprendente es que los dueños de esas tecnologías no hicieran eso. ¿Por qué no lo hicieron? Porque ya estaban posicionados en el mercado y no querían canibalizarse a sí mismos. Mientras que OpenAI, como no tenía que dar explicaciones a nadie porque era una organización llena de lucro, pues tiró para adelante, hizo lo que a los otros no les convenía, pero nadie pudo impedir que hicieran esto, y sacaron al mercado algo que, siendo... en sus componentes conocido, sin embargo, el resultado era espectacular. Y fueron capaces, además, de presentárselo de una forma muy sencilla al gran público. Es la primera vez que se presentaba de una manera fácil la inteligencia artificial. Y el público compró eso, esa aproximación. En términos bélicos, se saltaron a arreglar del campo de batalla y montaron un comando de guerrilla. Y dijeron, vamos por aquí. Sí, porque como no eran un elemento competitivo, el mercado, porque entre otras empresas como Google o como Apple, tienen su mercado muy consolidado y lo que no quieren es que cambie nada. Pero llega OpenAI, que es una empresa que ha llamado de lucro, y puede hacer lo que le dé la gana. Y nadie se preocupa por OpenAI porque es una empresa fuera del mercado. Ahora, ha puesto algo encima de la mesa que ha roto el mercado. Yo diría que ellos han roto el mercado, no lo han transformado, lo han roto. Realmente. Pero OpenAI... Es más que una empresa con gente poco conocida. Está Microsoft detrás, es un accionista. Sí, a ver, los accionistas, entre comillas, los que ponen dinero para OpenAI, son empresas del mercado. Pero ellos no esperaban que OpenAI sacara algo así. Hacerá todo esto. Nadie esperaba algo así, de verdad. O sea, de alguna manera, OpenAI lo que ha hecho ha sido un cóctel de soluciones. Y ese cóctel, sorprendentemente para todos. Incluso para la propia gente de OpenAI, ha funcionado. Pero nadie esperaba que esto ocurriera. ¿Para ti es la mejor hoy por hoy? ¿O la que mejor es prestación? Sigue siendo la mejor. Sigue siendo la mejor. Yo también lo pienso. Sí, todavía sí. Lo que ocurre es que, bueno, hay cada vez competidores más cercanos. Por ejemplo, la propia Nvidia ya tiene unas soluciones interesantes. Google con Gemini. Entonces, bueno, pues hay más actores. Pero... No es cuestión ya de que haya más actores. Sino que el efecto de mercado lo sigue controlando OpenAI. ¿Me entendéis? Como ha sido el primero que ha conseguido el mercado, aunque fuera peor, seguiría siendo líder. ¿Me entendéis? Porque es cuestión de quién es el primero que golpea el mercado. Sí, no, está clarísimo. De hecho, fijaos cómo son las cosas ahora. Apple vende una inteligencia artificial que aún no tiene, pero que ya está ahí en marketing, ya está vendiéndola. Y la misma gente de OpenAI hace un año, hace una demostración. ¿Qué pasa? Veía que era en tiempo real. Enseñando todas las funciones multimodales de la inteligencia artificial. Y la verdad es que funciona muy bien. Le enseña una hoja con un problema, lo resuelve, habla perfectamente, le contesta, le interrumpe. Todo lo que se verá. Bueno, pues ha pasado un año y aún no lo tenemos integrado. Y nos lo vendieron hace un año. Sí. Bueno, yo creo que inevitablemente habrá soluciones tecnológicas que superarán a OpenAI. Pero repito, el mercado es de OpenAI. Porque es el primero que ha golpeado. Y precisamente para garantizar que se quedan con el mercado es por lo que están mutando la empresa. La empresa que hasta ahora ha sido sin ánimo de lucro, ahora ya tiene ánimo de lucro. ¿Por qué? Porque tienen el mercado y lo quieren mantener. Y para mantenerlo hay que comercializarlo. Si no, lo pierden. Entonces, muy habilidosamente, pues esta compañía está en un proceso de transformación. Que ha hecho que algunos de sus científicos, pues por ejemplo, abandonen la empresa. Porque no quieren, digamos, tener ese ámbito comercial. Y otros lo han abandonado asustados de lo que tienen por ahí dentro. Y eso les preocupa más. Los que se han ido por miedo. Antes estabais hablando del impacto social, de la inteligencia artificial, bueno, de esta última fase. Y dentro de los mitos y de los comentarios, ¿no? Así, tópicos que hace la gente. Bueno, lo comparan casi como el impacto que tuvo las máquinas en 1850, cuando la revolución industrial que inquietó tanto a la población. Porque les iba a perder el trabajo. Esto hoy por hoy también se dice. Es decir, los trabajos... A ver, el impacto va a ser peor. ¿Sí? Sí, mucho peor, claro. Porque mucho peor, sí, sí. Desafortunadamente, sí. A ver, nos encontramos con que la IA generativa es una nueva herramienta Sí, es cierto. Pero cuando usamos la palabra herramienta, nos quedamos cortos con la semántica de la palabra. A ver, esta herramienta que disponemos hoy en día posee dos características que en la historia de la humanidad ninguna herramienta tenía. Primero, la herramienta es creativa. Es creativa. O sea, genera resultados que no se le han suministrado como parte de la entrada. Correcto. Hay una relación, evidentemente. Tú pides una cierta entrada y la salida está relacionada con la entrada. Pero cualitativamente es mejor. No es una relación directa entrada-salida, sino que hay una transformación y el resultado es cualitativamente mejor hasta el punto de ser creativo. ¿Creatividad? Creatividad. Tiene creatividad. La IA generativa es creativa. ¿Vale? Bien. Segunda característica novedosa. Es una herramienta que aprende. Eso antes tampoco nos había ocurrido. Y aprende en unos términos, en cuanto a velocidad y en cuanto a lo que es capaz de aprender, que son muy superiores a la capacidad humana. Como programa de ordenador que es. Es decir, que eso no nos debería extrañar. Pero claro, cuando hablas de aprendizaje, quisiera poner un ejemplo para que se entendiera como a qué velocidad aprende un programa de IA generativa. Antes mencioné el juego Go, que hasta hace 4 o 5 años no se podía ganar con un programa de ordenador. Bueno, pues cuando ya se definió un programa ganador por inteligencia artificial generativa, ya que había en aquel momento que era muy limitada, pero bueno, existía. Pues lo que ocurrió fue lo siguiente. Esa instancia, ese programa, que ya jugaba como un maestro al Go, era reciente, flamante ganador, vamos a decir, del Go a nivel mundial, pues se enfrentó a otra instancia, a otra inteligencia artificial que no sabía jugar al Go. Vale. La primera, que es un maestro, se enfrenta a una segunda que no sabe jugar al Go. ¿Vale? Muy bien. Entonces, la ponen a jugar al Go. Y no se puede jugar a las dos. Naturalmente, la maestra derrota sistemáticamente a la alumna. ¿Vale? Ha sido entre el primer día, el segundo día, 10 días, 11, 12, 13... En el día 14, la alumna empieza a derrotar sistemáticamente a la maestra y gana a partir de ese momento todos, todas las partidas, la alumna se las gana a la maestra. ¿Ha observado o ha aprendido? ¿Por qué? Porque tiene un módulo de aprendizaje. Entonces, ¿qué es lo que ocurre? Que observan los ingenieros que la forma de jugar de la alumna, de la IA alumna, no le entienden por qué está jugando de esa manera. ¿Por qué? Porque ha aprendido en esa forma alienígena que os decía antes. ¿Vale? Es decir, no es una mente humana. No funciona ni se transforma siguiendo los parámetros humanos. No es una entidad humana. Es un programa de ordenador con una tecnología sofisticada de aprendizaje que le hace a base de ensayo-error, a base de haber perdido, pues probablemente haya perdido 8 o 9 millones de partidas, pero después de haber perdido 8 o 9 millones de partidas, ha analizado por qué ha perdido y ha conseguido generar un conocimiento sobre cómo ganar partidas. Y ha aplicado ese conocimiento en dos semanas la alumna de la IA. Y ha hecho una derrota siempre en todos los juegos ya a la maestra. Es superior. Es una jugadora superior. En dos semanas. Es decir, la maestra hizo falta aproximadamente como unos 70 años de desarrollo tecnológico, de inteligencia artificial, para ser construida. 70 años requirió de desarrollo tecnológico. Y sin embargo la alumna en dos semanas ha sido capaz de jugar mejor que la maestra. En dos semanas. Una base genérica y luego aparte todo lo que aprendió, ¿no? Básicamente todo lo que ha aprendido. ¿Vale? Entonces, ¿qué es lo que ocurre? Pues que nos encontramos ante un futuro en el cual la evolución del funcionamiento de la IA es inmenso. Es decir, es una revolución como la revolución industrial. No es más. Porque aquellas máquinas eran unas máquinas muy grandes. Las máquinas eran máquinas muy limitadas. Las primeras, digamos, máquinas de vapor eran... Bueno, funcionaban casi por casualidad, diría yo. Estas, las IAs, funcionan. ¿Sabes lo que funcionan? No sabemos muy bien por qué funcionan en el detalle. ¿Vale? Sabemos que funcionan. Pero sobre todo se transforman a una velocidad que es... No voy a decir que es infinita, pero tiende a infinito. Y además exponencial, porque además yo creo que tiene esas dos características. Que es exponencial cómo va aprendiendo y luego a lo mejor da un poco de miedo, ¿no? Como precisamente es una herramienta, como decías, que escapa del racionamiento humano, ¿no? Claro, por eso grandes científicos humanos escribieron una carta hace más de un año diciendo cuidado con la IA porque la puede destruir. Se referían a esto. Pero es real. Es real que no lo sabemos. Sí, hay una, digamos, base objetiva y es la transformación de la IA no está sometida a un control humano, salvo que esos controles se establezcan y lo respetará o se lo saltará. Pues ahí había algunos ejemplos en los cuales las IAs se han saltado los controles humanos. Entonces, claro, eso significa que si la evolución de estas IAs... escapa a ese control humano y tiene capacidad operativa de influir en el mundo, pues nos puede hacer daño. Hombre, sí. Otro de los ejemplos que se ponen y que tuvo también mucha trascendencia y que dejó a la gente reflexionando y pensando fue cuando pusieron a hablar dos IAs entre ellas y entre ambas llegaron a la conclusión de que podían hablar con un idioma que no es el que se les dio, que sería el inglés, supongo, y generaron su propia lengua donde eran mucho más ricos. Y eso es lo que nos hace pensar que las IAs son cosas rápidas y eficaces. Eso no sabemos qué tiene de leyenda urbana o qué tiene de realidad, pero sería un poco lo que tú estás comentando, ¿no? Sí, esto fue un caso recoro recordar que en Microsoft y efectivamente cuando los científicos percibieron que las IAs dialogaban en un idioma que no sabían cuál era, las apagaron directamente porque no sabían lo que estaban intercambiando. Entonces, aquí, ahora mismo, las IAs se pueden apagar con facilidad porque son tremendamente limitadas y controladas. Pero en la medida en que las IAs vayan expandiéndose, esa posibilidad de apagarlas va a ser un poquito más complicada. Y tengan su ejercito de androides, ya se conectarán y se desconectarán conforme ellas quieran. Entre ellas mismas. Bueno, a ver, eso dependerá un poco de si las IAs tienen acceso a recursos en la nube y esos recursos no se sabe bien cuáles son, porque están aprovechando... Recursos legítimos de forma ilícita. Entonces, si una IA llegara a tener capacidad para hacer eso, pues efectivamente nos encontraríamos en ese escenario. Ahora mismo no nos consta que eso esté ocurriendo. ¿Nos preocupamos? Hombre, nos tenemos... Más que preocupar, nos tenemos que ocupar. Yo tengo un amigo que dice que de los problemas hay que ocuparse, no hay que preocuparse. ¿Y qué podemos hacer? Ah, es lo que podemos hacer. Vale. Aumentar los mecanismos de trazabilidad de las IAs. Eso en primer lugar. Porque ahora mismo, tal como están construidas, pues no es posible trazarlas. No podemos saber qué está ocurriendo. No podemos entender por qué han llegado a esa conclusión las IAs. Entonces, bueno, hay que hacerlas más trazables y, sobre todo, la responsabilidad final cae en los usuarios de las IAs. Es decir, recordemos que una IA es un programa de ordenador. No tenemos interés en nada mundano, ni en política, ni en economía. Es un programa de ordenador. Pero los usuarios que utilizamos las IAs sí que tenemos intereses mundanos. Y es posible que, persiguiéndonos esos intereses, tomemos decisiones que perjudiquen a otras personas. Y eso es lo que tenemos que tener, una ética y una moral muy estricta del uso de las IAs. Porque si no tenemos eso, el futuro va a ser complicado. Y, por supuesto, el kit, ¿no? Tenemos que ver qué limitaciones se pueden poner. Si se pueden poner limitaciones, qué tipo de limitaciones, qué moral, qué ética utilizar. Sí, veamos. Todas las IAs comerciales ya tienen implementadas limitaciones. Pero el problema es que hay otras IAs que no son comerciales. Esas no tienen limitaciones. Son IAs privadas, vamos a decir, donde tú, en un exterior de ordenadores, las arrancas y esas IAs son libres. Y no tienen puertas al campo, como se suele decir. Claro, entonces, el problema son las IAs libres. ¿Qué van a ocurrir con las IAs libres? Las comerciales no me causan ninguna inquietud porque la legislación las va a tener supervisadas. En España hay una agencia de supervisión que va a tener inspectores. Es decir, todo lo que está en el ámbito comercial no me causa especial inquietud. Lo que sí me genera, digamos, dudas es qué pasa con las IAs libres. Eso sí que me causa... ¿Crees que las sociedades del crimen ya están trabajando también para poner IAs a su servicio? Sí, sí, de hecho, el cibercrimen, pues hoy en día, está generado a través de IAs. Y van por delante que el resto, además. El pirata siempre va por delante del defensor. Siempre. Siempre. Bueno, pues con estas primeras pinceladas para este primer episodio, yo creo que puede ser muy interesante todo este abanico. Todo estos... puntos que se nos abren. Y puede ser también muy interesante continuar en otros momentos para no alargarnos demasiado. No sé si lo ves que hay esperanza. ¿Es buena? A ver, esperanza la hay porque tenemos que dejar a nuestros hijos algo que sea un futuro viable. Pero es responsabilidad nuestra, de quienes estamos hoy en día, usando los sistemas informáticos, entre otros, las IAs. Entonces, es en nuestras decisiones, en donde pueda haber... ¿Puede haber un futuro para nuestros hijos o no? Pero está en nuestras manos ahora mismo. Genial. Pues si te parece, continuaremos concienciando y hablando. Y estos temas son muy interesantes y a todos nos afecta. Y nos va a afectar esto de uno u otro modo. Yo sé la gente le interesa a Arturo. Podemos seguir, y si no le importa a Alfonso, porque creo que nos hemos quedado con muchas cosas en el tintero. Sí. Y yo he hoy aprendido mucho y me he divertido también. Pues ese es nuestro objetivo. Que aprendamos y que enseñemos a la gente y que entre todos vayamos aprendiendo cosas interesantes. Ha sido un placer compartir con vosotros el espacio y, bueno, queda a vuestra disposición en el futuro, pues para charlar un poco sobre qué podemos hacer. Yo creo que sí que tenemos un futuro, pero va a ser... hay que trabajarlo de forma intensa. Y hay que hacerlo ya. Te lo agradecemos mucho, esa disposición, porque lo explicas muy bien. Así que muy agradecido. Pues muchas gracias. Muchas gracias, Alfonso. Y continuaremos con otras tertulias. Vamos despidiéndonos, Ricardo. Recordamos los medios de contacto. Pues sí. Nuestro correo electrónico es gafotas@cegatos.es. Y nuestro WhatsApp, el más 34 644 640792. Bueno, esto es Gafotas Cgatos y sus aparatos, episodio 2. Gracias por acompañarnos. Muchas gracias y nos escuchamos. Adiós.
Gafotas, cegatos y sus aparatos #1
Fecha: lunes, 4 de noviembre de 2024, a las 12:00:00
En este primer episodio hablamos de un dispositivo wearable de consumo, un accesorio de moda, que, al integrar distintos componentes electrónicos en su montura, se presenta como algo más... Hablamos de las gafas Ray-Ban Meta. ¿Podríamos considerarlas tecnología de asistencia? Para hablar de ellas, de su uso, su potencial y su proyección, contamos con Roberto Pérez de Paz, quien, además de ser un gran entendido en tecnología y explicarlo todo muy bien, las tiene desde hace tiempo y, como está en la costa este de Estados Unidos, en La Florida, las disfruta sin limitaciones. ¡Bienvenidos y gracias por acompañarnos!
Intervienen:
Enlaces a Sitios referenciados en el episodio:
- Cómo Utilizo Las Ray Ban Meta En Mi Día A Día - Canal de YouTube de Alicia Carreño (@AliblueBox).
- Llega el idioma español a las Ray-ban Meta (aunque con limitaciones) - DobleTap Podcast.
- Double tap Radio-podcast de Steven Scott&Shaun Preece en inglés.
- Conoce los modelos y características de Ray-Ban | Meta smart glasses 2024 | Ray-Ban® ES.
- Preguntas frecuentes sobre Ray-Ban | Meta | Ray-Ban® ES.
- Blind Users of Ray-ban Meta Smart Glasses | Grupo de Facebook en inglés.
- AIRA, servicio profesional de interpretación visual.
- Solicitar participar como Betatester del asistente ALLY de Envision:
- TunnelBear, app de VPN con 2 GB mensuales gratuitos en la App Store.
Créditos:
Duración: 01:21:54
Mostrar descripción detallada del logo de Episodio 1. Ray-Ban Meta, gafotas inteligentes.
Descripción detallada del logo de Episodio 1. Ray-Ban Meta, gafotas inteligentes.
La imagen muestra unas gafas inteligentes de diseño clásico, de la marca Ray-Ban, en color negro mate. Están etiquetadas con anotaciones que indican la ubicación de diversas características y componentes tecnológicos integrados. Entre los elementos destacados se incluyen: - Cámara: Situada en el frente, cerca de las lentes, para capturar fotos o vídeos. - Micrófonos: Ubicados en las patillas para captar audio. - Altavoces (Speakers): Integrados en las patillas para emitir sonido hacia los oídos del usuario. - Botón de captura (Capture Button): Localizado en una de las patillas para tomar fotos o iniciar grabaciones. - Superficie táctil capacitiva (Capacitive Touch): En una de las patillas, diseñada para interactuar con gestos táctiles. - Indicador LED de captura (Capture LED): Cerca de las cámaras, probablemente para informar cuando están activas. - Botón de encendido (Power): En el extremo de una de las patillas para encender o apagar las gafas. El diseño es funcional y mantiene un estilo elegante, integrando tecnología avanzada de manera discreta y accesible. La imagen es en blanco y negro, resaltando los detalles técnicos y estructurales del dispositivo.
Mostrar transcripción de Episodio 1. Ray-Ban Meta, gafotas inteligentes.
Transcripción de Episodio 1. Ray-Ban Meta, gafotas inteligentes.
Muy buenas, lo que sean. Yo soy Arturo Fernández. Y yo soy Ricardo Abad. Y esto es Gafotas, Zegatos y sus aparatos. Podcast. Bienvenidos al primer episodio de tu podcast favorito. Por aquí está Arturo Fernández. ¿Y qué tal, Ricardo? ¿Cómo va ese micro? Bueno, pues aquí estamos peleándonos con el micro y con la interfaz de audio. Ya sabes que los que venimos de situaciones mucho más modestas. Yo utilizaba micros de 5 euros de estos de tubito o de diadema que iban en los auriculares. Ahora a tener un micro que impone, que pesa un kilo. No vale un kilo, pero pesa un kilo. Y una interfaz de audio y eso, pues acostumbrándome. Pues mira, de momento tengo que ir midiendo distancias. Lo tengo aquí con un brazo. De vez en cuando, al no verme lo como. Pero bueno, esto lo voy manejando medio bien. Y luego con la interfaz de audio, pues aunque es muy básica, los potenciómetros no tienen ninguna marca para saber exactamente dónde estoy. Así que a veces, bueno, que me disculpáis si salgo saturado porque tampoco veo el LED. Hay un LED que cuando saturo se pone en rojo y de momento no encuentro nada que me avise de que estoy saturando. Pero quitando de esto, bueno, de esta experiencia, por lo demás encantado de estar aquí. Y bueno, pues nada, hola a toda la audiencia. Pues nada, fenomenal, que somos esos aficionadillos con la intención de hacerlo lo mejor que se pueda. Pero bueno, ahí estamos. Y bueno, dado que este podcast se llama gafotas, cegatos y sus aparatos, pues queremos empezar por la primera parte de gafotas. Más adelante hablaremos de cegatos y de sus aparatos. Pero hoy queremos hablar un poco de gafas, que últimamente están bastante de moda. ¿Qué nos cuentas de estas gafas? ¿Cómo va esto, Ricardo? Bueno, en principio está de moda todo lo que son nuevos soportes con nuevos sensores. Y sí, las smart glasses están ocupando su terreno. Mira quién lo iba a decir. Y un poco han hecho válido todo lo que preveía la ciencia ficción. Y sí, va a ser un soporte que parece que se está destacando entre otros. Y no sabemos si realmente sustituirá o complementará al terminal móvil, pero está ahí. Y bueno, lo importante de esto es que hemos conseguido en poco tiempo tener cámaras en nuestros dispositivos de tanto gafas, terminales móviles y de otro tipo, con lo cual podemos ver el mundo. Hemos tenido que tener buenos micrófonos, uno, dos, tres, cuatro, cinco, hasta como estas gafas de las que vamos a hablar hoy tienen, con lo cual escuchamos muy bien el mundo. Buenos también altavoces y auriculares. Y lo que ha venido a revolucionar todo, que es los modelos de inteligencia artificial entrenados con redes neuronales Transformer, que han conseguido con la integración multimodal de los distintos recursos, pues que todos estos terminales puedan ver fotografías, hablarnos de ellas, describirlas, preguntarles sobre ellas, generar voces casi humanas con expresión, que nos interrumpen, que las interrumpimos. Y todo esto en todo tipo de terminales, comenzando por nuestros dispositivos móviles, terminales móviles. Luego otros específicos como el ARX Vision, como puede ser el NOAA también, que es un dispositivo de orientación, que también tiene pues todo lo que acabo de decir. Como puede ser, bueno, un montón de ellos y un montón de aplicaciones también dedicadas a esto. Y las gafas, así que esto puedo decir. Sí, a mí me parece muy interesante la parte de la miniaturización, de cómo pues poco a poco pues ya somos capaces de meter varios micrófonos, una cámara de fotos o de vídeo, con una batería razonable, en un peso razonable, y pues ir incorporando diferentes dispositivos más o menos pequeños, pues que podemos llevar encima. Y hoy, pues para hablar también de todo esto, tenemos a un invitado. Tenemos con nosotros a Roberto. ¿Qué tal estás? Hola, buen día. Hola a los dos y a todos los que nos escuchan. Pues muy bien. Grabando tempranito aquí desde la costa este de la Florida, en Estados Unidos. ¿Qué hora tienes? Roberto Pérez de Paz. Ahora mismo tengo las 8 y 52 de la mañana. Bueno, pues sí que es temprano. Buenos días, Roberto. Buenos días. Pues bueno, podemos hablar, decir ya, desvelar de qué vamos a hablar hoy, que creo que es el dispositivo que está de moda. Está en todos los corrillos, estamos viendo demostraciones en inglés, en español, en podcast, todo el mundo habla de ellas. Y bueno, unos las conocen, otros no las conocen. Y nosotros, bueno, con este, con esta tertulia, que es lo que pretendemos que sea esto, queremos ser una parte más que da una opinión de lo que pensamos que son este tipo de dispositivo, que no es otro que... Adelante, Arturo. ¿Las Meta Ray-Ban? Sí, señor. Smart Glasses. Que bueno, ha habido varios modelos, ha habido tal, pero bueno, ahora pues Roberto que nos cuente un poco más en detalle, ¿no? Para empezar, pues quizás los datos más objetivos, ¿no? De qué son estas gafas objetivamente, físicamente, por fuera, por dentro. Bueno, estas gafas han sido todo un fenómeno. Yo creo que han sorprendido empezando por Meta, que ya lo han dicho, que no se esperaba que fueran lo que han sido, porque estuvieron un modelo anterior que eran las Ray-Ban Stories, que no dio mucho de sí. Y esto, a ver, las gafas Ray-Ban probablemente mucha gente las conoce. Son gafas muy famosas, casi un clásico de las gafas, que ahora, con la combinación de Meta, pues adquieren una serie de características inteligentes. Esto de gafas inteligentes es un término bastante cuestionable en este caso, porque estas gafas al final son simplemente un altavoz Bluetooth, un altavoz Bluetooth con cámaras, porque la inteligencia realmente se encuentra en el móvil, en el dispositivo móvil que usemos, ya sea iPhone, ya sea Android. Las gafas, pues son unas gafas muy sencillitas, muy corrientes. De hecho, la mayoría de la gente que lo ve a uno con estas gafas no se imagina, salvo que las conozca, que específicamente sepa que son las Meta Ray-Ban y demás, no se imagina que son unas gafas diferentes, porque tienen un aspecto muy normal. Tienen en la parte derecha, desde la perspectiva del que las lleva, por ejemplo, sí que se nota un LED que indica cuándo las gafas están grabando. Y en la izquierda, en el borde del marco a la izquierda, tienen una pequeña cámara de, me parece, 12 megapíxeles. Sí, sí, 12 megapíxeles. Entonces, las gafas utilizan la tecnología de Open Ear, Open Audio, o sea, audio abierto, no sé cómo se traducirá esto, pero tienen unos pequeños altavoces en las patillas que dirigen el sonido directamente al oído, de manera tal que si hay alguien cerca, probablemente escuche que están sonando, pero no es tan inteligible. Sin embargo, uno que las lleva puestas es como si tuviera el sonido a su alrededor. Ya contaremos más adelante un poco de la experiencia, pero es súper impresionante cuando haces un vídeo con Air, por ejemplo, que escuchas el vídeo, es difícil, hasta cierto punto, separar el sonido del entorno del sonido del vídeo que estás escuchando, porque suenan muy bien. Entonces, para concretar, pues son eso. Altavoces Bluetooth con cámara, con una serie de funcionalidades propias. Las gafas en el lado derecho, sobre la patilla derecha, justo entre la unión del marco, la armadura, y la patilla, hay un botón. Este botoncito, si lo presionamos una vez, tira una foto, que después podemos ver en el móvil. O sea, se guarda en el almacenamiento interno de las gafas, y después con la aplicación de Metaview, que es la aplicación para manejar las gafas, pues se puede transferir al móvil. Si lo presionamos durante más de un segundo, podemos hacer un vídeo. Pueden ser vídeos cortos, me parece que son de tres minutos como máximo. Pero, Roberto, ¿es botón o superficie táctil capacitiva? No, es un botón tradicional, un botón que puedes presionar. Sí, bueno, y también en la varilla o patilla de la derecha, hay una superficie táctil capacitiva que te permite realizar varios gestos. Por ejemplo, con un toque puedes pausar o volver a reanudar la reproducción de algún audio. Con dos veces, se puede avanzar al siguiente audio. Con tres, retroceder. O, deslizando el dedo hacia adelante, subir el volumen. Y deslizando el dedo hacia atrás, para poder bajar el volumen. Exactamente. Vamos a comentar que nosotros, aunque las conocemos, ni Arturo ni yo las tenemos. Solo las tienes tú. Así que quien hable con propiedades es tú. Por eso estamos aquí. Son, la verdad, muy bonitas. Yo recuerdo cuando nos decidimos a comprarla. Digo, esto hay que probarlo. Vienen en un estuche muy chulo. Bueno, son Ray-Ban. Es muy agradable. Es una presentación muy agradable al tacto, muy sencilla, con una caja así muy... Eso, es agradable de tocar. ¿La caja empaquetado o el case? Las dos cosas. Las dos cosas. Es una caja alargada. Una presentación que un poco recuerda a Apple, desde mi punto de vista. De percepción táctil, no sé si visualmente se parece. Y después, el estuche de las gafas es un estuche que simula cuero por fuera. Un estuche duro, pero con una cubierta que simula cuero. Y el estuche es un cargador. Eso, es que además de un estuche que sea para la protección y para guardar las gafas, es algo más, ¿no? Es decir, es un centro de una power bank y al mismo tiempo donde las gafas se conectan y se interrelacionan también con MetaView y no es un simple estuche. Las gafas siempre están conectadas con MetaView a través de Bluetooth. En todo momento. Bueno, mientras estén encendidas. Entonces, cuando las colocas en el estuche, lo que hace es que empiezan a cargarse. El estuche es un cargador en sí mismo. Y eso es la única manera de cargar las gafas, poniéndolas en el estuche. El estuche tiene un conector USB-C en la parte por debajo y tiene un botoncito muy difícil de percibir por detrás que se puede utilizar para emparejar las gafas cuando no están. O sea, para forzar las gafas a entrar en modo de descubrimiento, para ser descubiertas en Bluetooth, para emparejamiento. Esto es correcto. Aquí estaría conectada la caja y las gafas, perdón, la caja a través de las gafas a MetaView, ¿no? Exactamente. Las gafas se conectan a MetaView, la caja en sí misma no tiene Bluetooth, no tiene ninguna capacidad de ninguna conectividad, pero por supuesto, cuando introduces las gafas dentro, pues... Ofrece información de carga y todo, ¿no? Exactamente. Puedes consultar información de carga desde la aplicación. Bueno, a ver, puedes en teoría. En la práctica, eso es bastante poco confiable porque no siempre aparece. Yo no tengo claro si es un problema mío, no tengo claro si es un problema de accesibilidad, no tengo claro si es un problema de MetaView, porque toda la gente que le pregunto me hace una historia diferente. Entonces, parece que esto es un poco raro. Aleatorio. Bueno, lo que sí que es cierto es que me han dicho que lleva ocho cargas el estuche este. Posiblemente. Yo no las he contado, pero aguanta muchísimo. Lo he leído en la web de MetaView. Sí, es posible. Parece razonable. Yo nunca, como chequeé la carga de la funda, es un poco difícil, yo nunca dejo que se descargue, pero tampoco estoy encima de eso. Puedo estar usando las gafas dos o tres días, y las uso mucho, y no sé, no me quedo sin cargas. Luego nos contarás esto. Vamos a seguir hablando, si os parece, ahora me decís, de qué puedes hacer con las gafas, pero sin la inteligencia artificial, únicamente como dispositivo autónomo. Porque las gafas, eso, de forma independiente, sin conectarlas al móvil, pueden hacer algo. Pueden hacer, sí como no. De hecho, yo llegaría al punto de decir que, a ver, la inteligencia artificial es interesante, vamos a hablar de ella más adelante. Pero las gafas en sí mismas ya son un cacharrito muy interesante, porque, lo que dije, son un altavoz Bluetooth con Open Audio. Quiere decir que podemos escuchar VoiceOver, podemos escuchar todo el sonido del móvil. Puedes escuchar VoiceVista y, en realidad, probablemente más que la inteligencia artificial, esa fue la motivación inicial mía para comprarla. Porque yo no tenía, o sea, no estaba nada claro si la inteligencia artificial iba a ser útil o no, en aquel momento todavía nadie lo sabía con certeza. De hecho, ni siquiera estaba formalmente todavía disponible. Pero yo andaba buscando un Open Audio para usar con VoiceVista y para usar con estas aplicaciones y nada de lo que probaba me convencía. Y estas gafas me convencieron. O sea, como Open Audio, para mí es el mejor Open Audio que he usado, con diferencia. He probado Open Feed, he probado los Sony Link Bots, estos que tienen un agujerito, los AirPods, todo lo que se me ocurre, que se ha mencionado por ahí, lo probé y estas gafas fueron las que me convencieron. Ahora, la cosa no acaba ahí. Incluso sin la inteligencia artificial, las gafas entienden comandos de voz. Pueden preguntarle cosas como qué hora es, no sé, no mucho, pero... Sí, recuérdame esta cosa... Lo de recuérdame ya depende de la inteligencia artificial. Sí, ah, pues pensaba que era una cuestión interna de las... No, puedes preguntarle la hora, puedes pedirle que te ponga música, porque la puedes conectar ya sea con Spotify o Apple Music o Amazon Music. Puedes pedirle que te ponga música. Se te haga llamada. Exacto, las gafas se vinculan con WhatsApp, con Messenger, con la aplicación nativa del teléfono. Con lo cual puedes hacer llamadas telefónicas o recibir llamadas telefónicas de manera totalmente manos libres. Llamadas y videollamadas. Exactamente, que es lo más interesante. Si utilizamos WhatsApp o Messenger, se pueden hacer videollamadas de tal manera que la persona con la que uno está hablando puede ver a través de las gafas. Lo que se llama visión subjetiva. Bueno... Es decir, la persona recibe lo que tú estás viendo desde tu cámara y tú puedes consultarle, ¿no? Decirle qué tengo delante, qué es esto... Por supuesto, estas gafas no fueron diseñadas con ninguna motivación en relación con la discapacidad visual. La idea fue que tú pudieras hacer una llamada y mostrarle algo a alguien. Y claro, a nosotros eso nos viene de maravilla. Podemos llamar a alguien en WhatsApp. Una vez que la llamada se establece, se presiona dos veces el botoncito que mencioné que sirve para tomar fotos. Lo presionas dos veces y la persona comienza a ver en su pantalla de WhatsApp lo que la cámara está viendo. Es una función muy adelantada del propio Meta porque ellos concibieron también estas gafas para que los influencers, youtubers y la gente en general pudieran emitir streaming en Instagram, en todas sus redes sociales, Facebook y demás. Y lógicamente también a través de Messenger y de WhatsApp. Y una vez que estamos tratando este tema, que a mí me parece determinante, al margen de la inteligencia artificial, podemos hablar también de servicios que están ahí pidiendo entrar, como son Be My Eyes y Aira, que supongo que los conocerás a fondo. Muy a fondo. Así que, cuando quieras, comentamos también eso, que creo que es interesante. Sí, pero si quieres, antes de llegar ahí, me mencionabas que con las gafas se puede hacer streaming. Que eso tampoco depende de la inteligencia artificial. Pero también se pueden hacer fotos y videos. Y a eso yo lo encuentro súper interesante. Específicamente porque al ser unas gafas, las fotos y los videos que hagas con ellas son muy estables. Porque tienen la estabilidad del cuello. Y yo me estoy encontrando a mí mismo haciendo muchísimas fotos porque tengo un gran nivel de confianza en que lo que voy a retratar es realmente lo que quiero. Es decir, tú no ves nada. Tú estás enfocando lo que tienes enfrente, lo que escuchas. Exactamente. Yo simplemente dirijo mi rostro en la dirección del sonido de lo que quiero capturar. Y sale bien. Sale bien. Incluso después lo describo con las aplicaciones estas de inteligencia artificial generativa y salen bien las descripciones. En cuanto a los videos, el sonido de los videos que hace es muy bueno. Es muy bueno. De hecho se le está pidiendo a Meta, por favor, por favor, por favor, danos la función de grabar audio. Bueno, van a tener que ir sacando el audio a los videos. Aquí por lo que he leído, y si ahora me corriges y realmente esto no es así, el dispositivo, las gafas disponen de cinco micrófonos. Dos en la patilla derecha, dos en la patilla izquierda y otro en el puente. Esto lo que hace es que cuando estás grabando video, hace lo que se llama sonido inmersivo. No llega a ser holofónico, pero bueno, casi es. Es un sonido muy de entorno y la verdad es que tienes toda la razón. Los videos que hemos escuchado son alucinantes. Es que es un paisaje sonoro muy bueno y de una calidad muy alta. ¿Qué ocurre? Que cuando está grabando audio, ellos lo han condicionado. Te lo digo que es por lo que he leído. Han condicionado dos de los micrófonos para la cancelación de ruido cuando haces audio. Entonces, en audio te están escuchando con tres micrófonos y otros dos están dedicados para la cancelación. Está muy bien hecho. Es muy inteligente lo que ha hecho Meta, pero claro, en algún momento sí que tendrían que dar al usuario la posibilidad de decir, un momento, no quiero cancelación, déjame los cinco micros, te quiero grabar audio, como de hecho iPhone ha hecho con las notas de voz. Si os dais cuenta, en los nuevos iPhone, la grabación en notas de voz es... Bueno, me salí un poco del tema, pero esa es la historia. Y no te interrumpo. Claro, no, no, no, sí, sí. Es súper válido lo que estás diciendo, claro que sí. Es que además es muy interesante porque hay que tener en cuenta que esto no lo hicieron pensando en Civos ni mucho menos, ni en la accesibilidad. Nosotros lo podemos aprovechar de rebote y lo podemos aprovechar muy bien, pero esto no lo hicieron pensando en nosotros. Lo hicieron más pensando en los que graban vídeos para Instagram, como has dicho, tiktokers y similares, ¿no? Sí, sí, sí. El perfil que usa, es que estas gafas son muy interesantes porque cuando haces vídeos, por ejemplo, esos vídeos se hacen totalmente en local en las gafas y es una de las razones por las cuales suenan tan bien, porque no tienes la pérdida asociada a la transmisión Bluetooth. Ese audio que se está capturando inmersivo, que se está capturando con los cinco micrófonos, se está haciendo totalmente en las gafas y después tienes que transferir ese fichero al móvil, en tanto que cuando utilizas grabación de audio desde el móvil, ya lo que estás recibiendo es un audio Bluetooth a través de un audífono Bluetooth típico. Ahora, tiene una ventaja muy interesante que no tienen otros dispositivos de este tipo. Como tienes un micrófono sobre el puente de la nariz, que es el que de hecho recibe el audio que se está transmitiendo, puedes hablar muy bajo y las personas te oyen perfectamente. Incluso cuando hablemos de la inteligencia artificial, yo puedo usar la inteligencia artificial de Meta en público y nadie se da cuenta, porque puedo hablar en voz muy baja y me escuchan. Lo que hemos observado también, por gente que nos ha llamado desde sus gafas, es que cuando nos hablan, por ejemplo desde un vehículo como puede ser un agua o un autobús, que se oyen habitualmente, son muy viciosos porque es así, aunque sí que pierde un poco de calidad lo que es el audio, lo que llega es sin ruido. Es decir, no se escucha absolutamente nada. Me parece muy conseguido por parte de esta gente, porque no es fácil en un lugar bullicioso, en un metro, el poder emitir. Y las gafas lo hacen bien, lo hacen muy bien. Bien. Bueno, toca ahora hablar de Be My Eyes y de... Pues sí, aunque no están pensadas para accesibilidad, tienen muchas funciones que son muy accesibles y que resultan muy interesantes. Esa de que no están pensadas para accesibilidad es cosa del pasado. No se pensaron así inicialmente. Meta no lo consideró, pero a día de hoy Meta ya tiene muy claro. De hecho, quien pudo escuchar el Meta Connect lo sabe. Ya ellos lo tienen clarísimo. Y ya Meta tiene recursos dedicados a la accesibilidad. Tiene personal dedicado a trabajar con Be My Eyes específicamente. Y hay dos proyectos de integración que son muy prometedores. El primero es Be My Eyes. Be My Eyes está trabajando directamente con... Bueno, hay tres proyectos en realidad. Be My Eyes está trabajando directamente con Meta en este momento. Y aquí se activó porque dije su nombre. Está trabajando con Meta para integrar la funcionalidad de Be My Eyes dentro de MetaView. Expliquemos, expliquemos lo que es Be My Eyes porque habrá gente que no es ciega y no lo utiliza. Be My Eyes es una aplicación, eso lleva ya varios años. Recuerdo desde qué año estaba Be My Eyes por ahí. Que conecta a una red de voluntarios con personas ciegas para proveer asistencia visual. Proporcionan una plataforma en la cual te puedes registrar como usuario ciego de la plataforma o como voluntario para ofrecer asistencia visual. Ahora no recuerdo cuántos... Es más de un millón de voluntarios me parece ya a día de hoy. Bastante más. Sí, sí. No sé si tres o cuatro millones. Es una burbuja. En la aplicación se ve. Si abres una aplicación se ve cuántos voluntarios hay en cada momento registrados. Y lo bueno es que hay voluntarios en un montón de idiomas. En la aplicación móvil puedes elegir qué idioma utilizas como lengua principal y te conecta con voluntarios que declaren hablar esa lengua. Con lo cual tenemos español, inglés, chino... Y hasta ahora tú, por ejemplo, ¿cómo lo haces? ¿Coges tu terminal móvil? ¿Tienes, por ejemplo, delante de ti una documentación o unos discos que no sabes de qué son? ¿Y qué harías? ¿Llamarías a través de Be My Eyes a un voluntario? Exacto. Be My Eyes tiene una serie de pestañas. Una de esas pestañas es obtener asistencia. Y tienes un botoncito que es llamar a un voluntario. Y ahí le das. Y claro, como hay tantos, los tiempos de espera son bastante cortos en general. Y te responde un voluntario que, claro, aquí entra la voluntariedad. Lo mismo te encuentras una persona que está trabajando en la cocina, está fregando las vajillas que una persona que está en un automóvil. La verdad es que es muy divertido porque terminas hablando con alguien que en realidad no es un profesional de la rehabilitación ni nada de eso. Es simplemente alguien que está ahí. Pero te presta sus ojos. Y si no te descuidas te pones a conversar. Hay historias de gente que hasta ha conseguido trabajo con llamadas a Be My Eyes. De momento es con el terminal móvil, la cámara del móvil, el propio voluntario te puede orientar. Se enfoca más hacia la derecha, hacia la izquierda, hacia abajo. Ya lo estoy viendo. Así miras un disco de Nina Simone, tal, lo que sea. Pues eso es lo que estoy buscando. Eso con el móvil. ¿Y ahora se integrarán esto en las gafas? Claro, lo que se va a poder hacer y probablemente se va a lanzar, si no este mes de noviembre, probablemente antes del año que viene. Lo que vamos a poder hacer es que estamos con nuestras gafas de meta y desde las gafas sin tocar el móvil podemos llamar a un voluntario de Be My Eyes que va a ver a través de nuestra cámara de las gafas, escucharnos a través de las gafas y nosotros lo vamos a poder escuchar a través de las gafas. Y tú con las manos libres. Pero totalmente, simplemente utilizando la inteligencia, utilizando la asistente de meta vamos a poder llamar al voluntario y tener asistencia visual. Suena muy bien. Además, estas gafas, no hemos hablado de las otras gafas parasitas que hay, pero una de las diferencias que estas gafas tienen, que las hacen muy convenientes, es también una desventaja, pero yo la veo como una gran ventaja desde el punto de vista de utilidad. Las gafas funcionan por Bluetooth fundamentalmente. Tienen la posibilidad de conectarse a Wi-Fi para ciertas cosas, fundamentalmente para transferencias de ficheros, pero en general funcionan a través de Bluetooth. Eso quiere decir, no hay que preocuparse si hay Wi-Fi, no hay que preocuparse por llevar un punto de acceso por ahí, en la calle. Simplemente si el móvil está a una distancia de Bluetooth y hay cobertura, van a funcionar. No hay que hacer emparejamientos raros, ni que se te cae el hotspot. Es una cosa que pasa con otras soluciones de este tipo. Es decir, que son muy fáciles de emparejar y de... Exacto. Y una vez que está la conexión establecida, eso funciona. Claro, es Bluetooth. Te puede pasar, por ejemplo, hay una... Está claro, las gafas hacen streaming, graban vídeo en local, porque mover un vídeo en tiempo real a través de Bluetooth es problemático. Así que por ahí es posible que experimentemos algún tipo de dificultad, pero de funcionar, funciona. Y ventajas e inconvenientes respecto a otras gafas así similares de este tipo. Como has dicho, hay otras gafas que a lo mejor solo tienen audio, no tienen la parte de poder hacer fotos o vídeos y no te permitirían hacer cosas de estas del streaming, con el Pimax Ace o similares. Hay otras gafas que más que gafas son cascos, como las de Apple, que utilizan más la realidad aumentada, realidad virtual, inmersiva, más que realidad aumentada o similares. Respecto a otras gafas, éstas tienen un equilibrio bastante bueno. Yo no compararía estas gafas con algo como Apple Vision, porque son conceptos muy diferentes. El Apple Vision es una computadora en sí mismo, es un ordenador y su funcionalidad más que servirte para comunicarte con el mundo, es una especie de interfaz computacional en la cara, que la usas para interactuar con el ordenador, para ver vídeos, para manejar aplicaciones. Como era HoloLens. Exacto, como era HoloLens, como es MetaQuest, también es ese concepto. Son más llamadas gafas porque son más un visor, un casco. Pero en cambio sí que hay gafas. Están las Envision, las Google Glass adaptadas y las Celeste. Estas son ya de gafas pasivos, ya son gafas específicas. Sí, gafas pasivos. Entonces, para no perder el hilo con los servicios, pues esta es la integración con VimayaVisor. Está también la integración con Aira. Aira es un servicio de interpretación visual, en este caso un servicio pagado, aunque ellos dan cinco minutos gratis cada día y ahora tienen una oferta que si autorezas que usen tus datos para entrenar AI, te dan diez minutos gratis cada día. Entonces, lo que tienen es, ya no son voluntarios, son agentes pagados que están entrenados para asistencia visual. Reciben información, son profesionales. Tienen acuerdos de confidencialidad, con lo cual, en teoría, puedes mostrarles documentos con información confidencial. Ya es otro concepto. Tienen tiempos de respuesta en su contrato, cosas así. Aira no tiene como tal, a día de hoy, según la información que hay disponible, Aira no ha conseguido realmente trabajar directamente con Meta para integrar el servicio. Hasta en un puente, ¿no? Exacto. Entonces, están utilizando WhatsApp como puente. La manera en que esto funciona es que llamas a Aira a través de la aplicación móvil. Tienes que iniciar la llamada desde su aplicación móvil. Entonces, el agente de Aira te envía un enlace a una llamada de WhatsApp. Lo que pasa es que lo han hecho muy bien porque cuando la aplicación sale, el agente te envía este enlace a través del propio chat de la aplicación móvil, porque la aplicación móvil tiene un chat para intercambiar información con el agente. Entonces, cuando la gente envía este enlace, la aplicación sola, de en sí misma, lanza WhatsApp. Entonces, lo único que uno tiene que hacer es aceptar la invitación. Se corta la llamada del móvil. Ya tienes una llamada de WhatsApp en curso y ya tienes la comunicación con el agente de Aira. Y doble toque, ¿no? En la patilla. Exacto. Ahora, ¿qué problema tiene esto? Los agentes de Aira tienen toda una serie de herramientas a su alcance cuando utilizamos Aira. Por ejemplo, ellos te están controlando por GPS para el guiado en la calle. Tienen la habilidad de hacer fotos con la cámara del móvil. Tienen todo un dashboard con eso, con tu posición por satélite, el vídeo de la cámara por otro lado, la posibilidad de hacer fotos. Cuando pasas a la modalidad de WhatsApp, a través de MetaDriven, todo esto se pierde. Porque ya es una plataforma que ellos no controlan. Entonces, mucha de la funcionalidad de Aira se pierde. En Android la han mantenido, pero te obligan a tener la pantalla desbloqueada y la aplicación en primer plano. Ajá, mira, no lo sabíamos. Iba a decirte, este servicio solo es para Norteamérica y Canadá, ¿no? Exacto. Y de momento está en beta. No lo han lanzado todavía. Está en beta. Y solo tienen un grupo de agentes formados para utilizarlo. En realidad no se puede usar todavía. No se sabe cuándo se lanzará. Ellos han dicho que están ahí y que van a intentarlo y de momento lo van a hacer de esta manera y supongo que al final conseguirán algún tipo de convenio. Eso es lo que realmente quieren conseguir, una alianza con Meta para poder hacer lo que está haciendo Vimai Ice, que es integrar. Lo mismo que quieren hacer en Vision con Ally, ¿no? Con el aliado, ¿no? Esa historia es bastante más compleja, porque ellos están trabajando con Meta para, específicamente, para desarrollar su asistente utilizando Lama, las nuevas versiones de Lama que son multimodales. Entonces ellos quieren desarrollar su asistente que se llama Aliado, como tú bien dices, que se supone que va a ser el típico asistente con el que puedes conversar, que te entiende, que sabe cómo quieres que te describan las cosas, que tiene una personalidad definida. Pero ese asistente va a estar en las gafas de Vision, no en las gafas de Meta. Nadie ha dicho que no van a estar en las gafas de Meta. De hecho, podemos especular en ese sentido un poco, pero la información que tenemos disponible de manera tangible en este momento es que va a estar en las gafas de Vision. De hecho, ya han anunciado una presentación para este mes para hablar del lanzamiento del Aliado en las gafas de Vision. De hecho, hoy puedes solicitar ser beta tester, aunque no tengas las gafas en Vision, y bueno, tienen 4 o 5 perfiles con distintas voces y caracteres, creo que en inglés en principio, y aunque no tengas las gafas puedes probarlo desde el PC, porque lo que supongo que están haciendo ahora son pruebas. Ya dejaremos en las referencias de este podcast el enlace por si alguien quiere probarlo. Pero tienes razón, no. Lo que pasa es que ocurrió algo extraño, porque cuando era la MetaConnect, al mismo tiempo dio un paso adelante en Vision y nos habló de su aliado y de su propósito de incorporarlo a las gafas. Y aprovecharon el momento. Claro, claro, claro. Cogieron la ola y dijeron, bueno, está la nave y la cabalgamos. De hecho, estuvieron ahí en MetaConnect, los invitaron, uno de ellos estuvo ahí. Porque sí, están trabajando con Meta, pero en otro sentido. Claro, porque esto de las gafas se ha puesto muy de moda, pero también hay gente que dice, claro, que todo lo que puede hacer con las gafas ya lo puede hacer con el móvil, el Be My Eyes, o incluso el Voice Vista, otras aplicaciones, preguntarle la hora, no sé qué. Todo lo que se puede hacer con las gafas se puede hacer de otras formas. Yo te diría que incluso desde el móvil puedes hacer mucho más, porque la calidad de la cámara del móvil es muchísimo mejor que la de cualquier gafa disponible a día de hoy, excepto quizás la del Apple Vision, que no es una gafa, ya lo hemos dicho, y que no siquiera se puede acceder a la cámara por parte de las aplicaciones. Pero ninguna de estas cámaras, ni las gafas para ciegos, ni Meta Rayman, tiene la calidad de la cámara del móvil, ni tiene el tiempo de respuesta, ni la capacidad de procesamiento que tiene el móvil. O sea, con el móvil puedes hacer mejor CR, puedes tener mejor video. Lo que pasa es que el formato no es el idóneo. Tienes que andar con el móvil en una mano. ¡Ey, ey, ey! Ahí, esa es la diferencia. La comodidad. Cuando llevas las gafas, claro, comodidad. No tienes las manos agumaladas. No es nada nuevo, no se puede hacer nada que no se pudiera hacer antes, pero te aporta esa comodidad que te deja las manos libres. Y lo que ha dicho Roberto de las fotografías, él con el móvil, estoy seguro que nos conseguía. Es que no se me ocurrió. A ver, alguna vez lo hice, pero tienes que esperar que voy sobre y te empiece a decir, cara centrada, cara arriba, cara a la derecha. Es más o menos tratar de entender la perspectiva. ¡Ey! No queda bien. No queda bien. En cualquier momento, en la calle, ves cualquier incidente, cualquier cosa y es súper rápido y súper cómodo. ¡Exacto! Y se la mandas a alguien. ¿Tú estás contento, Roberto? ¿Estás contento con la adquisición? A mí me encantan las gafas de metal. A mí me encantan. Yo estoy súper contento. ¿Cuántos, si no es indiscreción, cuántos costó allí en Norteamérica? ¿Cuántos ha costado? El precio regular es 300 dólares. Con impuestos se monta en 330, me parece. Vale. Igual que aquí, 329 euros. Exacto. Aquí, 329 dólares. Justo lo mismo. Ellos tienen modelos un poco más caros que tienen ya lentes de transición, pero tampoco mucho más caros. Porque entiendo que las tuyas son las Black, ¿no? Las Wayfarer Black. Exacto. Después me arrepentí. Después me arrepentí porque yo tengo un poquito de percepción de luz. Entonces, ese poquito de percepción de luz con las gafas puestas desaparece. Y descubrí, como alguien que no está acostumbrado a usar gafas, porque yo nunca he querido usar gafas, nunca me ha hecho falta, nunca. Nunca me ha gustado llevar gafas. Y claro, me di cuenta que el poquito de percepción de luz que tenía básicamente se pierde. Entonces, si me hubiera pensado, me habría comprado las de transición. Claro. Esta es la cuestión que es un factor que hay que destacar. Es que son Ray-Ban y Exilor, ¿no? Es decir, los mejores creadores de las marcas más famosas del mundo de gafas y los mejores haciendo lentes. Exilor. Exilor Luxottica es la empresa. Entonces, tienen todo lo que tienen ellos. Es decir, las lentes son fotocromáticas. No solo eso, tienen también las transicionales, que son las que estabas comentando tú ahora. Y es más, puedes por prescripción tener unas graduadas e incorporártelas. Es que es una pasada. Es una pasada. La verdad es que son un cacharrito muy conveniente. Es un punto interesante, ¿no? Que no sé hasta qué punto... Bueno, de momento está claro que han tenido muchísimo éxito. Además, es un artículo también como de moda, ¿no? Las gafas que mucha gente las lleva para la moda. Pero, ¿hasta qué punto? Gente que hasta ahora no llevaba gafas puede quererlas llevar, ¿no? Con algo como esto. O, ¿hasta qué punto? Incluso gente que se operaba de miopía y demás para quitarse las gafas. Y ahora les vas a hacer que se pongan otra vez unas gafas. ¿Qué recorrido crees que puede tener esto? Bueno, yo te voy a decir que, como dije antes, yo nunca he sido una persona de gafas. Nunca me han gustado, me molestan. Yo he usado las gafas de Envision. Las gafas de Envision pesan. Son incómodas. Toda la electrónica de las gafas de Envision es incómoda. Las gafas de Envision pesan. Son incómodas. Toda la electrónica está en la parte derecha de las gafas. Con lo cual, tienes una pata súper gruesa. Que es más gruesa. No entra en la oreja. Básicamente, va sobre la... Es súper incómoda. ¿Vas de lado? Bueno, no tanto. Yo no repito esas gafas por más de media hora. Me molestan. Me da calor. Me cuece la cara. No me gustan esas gafas. Estas gafas yo las puedo llevar todo el día. La única razón por la que no las llevo todo el día es porque se acaba la batería. ¿Por qué hay que cargarlas? Es que yo las usaría hasta para conectarme a las reuniones de trabajo, si pudiera. ¿Cuánto viene a durar una batería? Depende de lo que estés haciendo. Si te pones... Como hoy quise hacer una vez que las quise usar para conectarme a las reuniones de trabajo. Porque son tan cómodas. Como en dos horas y pico, tres horas, me consumí. ¿En streaming? Exacto. Consumí la batería usando como audífono Bluetooth. Si no estás en esas cosas tan intensas, te pueden durar quizás medio día. Si estás constantemente preguntándole cosas a la inteligencia artificial, lo cual lleva también a hacer fotos usando el sonido de Bluetooth, bueno pues, te pueden durar. En el sitio web de Meta hablan de cuatro horas. Los usuarios que yo he visto dar datos dicen que entre tres horas y veinte, tres horas... Cuarenta. Una cosa que se puede hacer es apagarlas. Si no vas a usarlas en un momento concreto. En la pata izquierda, justo donde se une con la armadura, por la parte interior hay un pequeño interruptor, que incluso viene en la posición de encendido cuando compras las gafas. Es un deslizador, ¿no? Es un deslizador con lo cual puedes cortar la alimentación y apagar las gafas. Lo que pasa es que si la enciendes, cuando la enciendes tarda un poquito en iniciarse. Pues al final esto no deja de ser un móvil con Android. O sea, no un móvil, un dispositivo Android. O sea, se tiene que inicializar y tiene que volver a establecer la conexión Bluetooth. ¿Y son estables la conexión por Bluetooth? ¿Y a la hora de interactuar con ella son estables? ¿Hay cortes? ¿Funciona bien? El Bluetooth es una cosa que, por más que saquen versiones, no termina de funcionar del todo bien. Ahora, dentro de lo que cabe, yo las encuentro muy estables. O sea, te puede pasar en un momento dado que tú quieres usarla y te diga ¿No hay conexión? O sea que, bueno, pues mira. Las reinicias ya. Pero pasa poco, la verdad. Pasa bastante poco. O a mí me pasa bastante poco, a lo mejor. Depende de las condiciones de cada cual. Yo no las encuentro menos estables. O sea, las encuentro más estables que otros audífonos Bluetooth que he usado. Sí. Hay latencia cuando usas VoiceOver, por supuesto. Como cualquier audífono Bluetooth. Si usas un OpenFit, más o menos vas a encontrar una latencia parecida. Pero de milisegundos, ¿no? Sí. Es un poco pegajoso. Yo lo noto muchísimo. Sobre todo cuando uso la entrada de Braille en pantalla. Lo noto muchísimo. Pero lo noto con cualquier audífono Bluetooth, no solo con la gafa. O sea, no es peor. Que no sea un AirPod. Ah, exacto. Exactamente. Ahí no hay latencia. Bueno, y el tema que más expectativa, ¿no? Ha causado que llevamos más de 40 minutos y casi nos vamos sin hablar de ello, ¿no? ¿Qué tal la inteligencia artificial, no? Que tanto revuelo ocasiona en general y en estas gafas en particular. Sí. Bueno, inteligencia artificial, en general podemos hacer otro episodio. Sí, vámonos. En estas gafas específicamente. Como está pasando con la inteligencia artificial generativa en otros campos. Esto está cambiando por días. O sea, lo que yo diga hoy, puede que el mes que viene no sea válido. Y estoy hablando literal. Yo creo que el mes que viene no va a ser válido. Esto es una expresión para editar el audio prontito. Porque si no, se nos va a quedar anticuado. Exacto. Edítalo rápido que puede que pase algo en noviembre. Se nos va a quedar anticuado. Esta inteligencia artificial, Meta.AI. Se habla mucho, por supuesto, de la descripción de imágenes. Hace mucho más que eso. O sea, la inteligencia artificial de Meta.AI es un asistente en general. Puedes lo mismo preguntarle por las noticias, que preguntarle por el tiempo, que hacerle una pregunta general, que pedirle que te busque algo en la web. O sea, hace mucho más que solo describir imágenes. Y eso me parece útil decirlo. Porque normalmente no se valora ese detalle. Y es conveniente a Meta.AI. Necesita saber una cosa, está con las gafas, pues simplemente le pregunta. Te puede pasar que lo que te ha respondido no tenga sentido. Y por eso te va a pasar con cualquier aplicación de inteligencia artificial generativa. Y ha mejorado muchísimo. Tiene unos tiempos de respuesta muy cortos. Los podemos probar. Los podemos mostrar. Muy, muy, muy cortos. Y en lo tocante a descripción de imágenes, hay que entender. Número uno, no fue diseñada para ciego. Aunque creo que eso va a cambiar. No está pensada para describir imágenes, sino para utilizar la funcionalidad multimodal para cosas como, sugiéreme qué comprar basado en lo que tengo en el refrigerador o de este menú, qué es lo que me conviene comer. O dame un criterio sobre cosas. Los usos que hace de esto, la mayoría de la gente que ve. Que no les interesa, que le cuenten cómo es algo. Entonces, si comparamos las descripciones que hace con lo que hacen aplicaciones especializadas como pueden ser BeMyAI, o como puede ser Aira Access, o incluso ShareGPT. Cuando se le explica cómo una aplicación es especializada, las descripciones que hace son bastante escuetas, bastante poco útiles. Si simplemente le pides, describe lo que tengo delante, o lo que vas a recibir es algo que puede que no te sea muy útil. Incluso eso ha mejorado con el tiempo, pero sigue siendo, en comparación con estas aplicaciones, bastante limitado. Y ahí fuimos. Y ahí fuimos. Y ahí fuimos. ¿Hay forma para que te extienda esa descripción? Si lo hay, puedes pedirle más detalles. No siempre es útil pero puedes decirle que expanda en cierto aspecto. Por ejemplo, vamos a ver si esto funciona. Tengo delante una computadora y quiero saber si la pantalla está encendida o apagada. Le voy a preguntar a Meta.AI si la pantalla está encendida. Está encendida. Eso es lo que pasa cuando se le hace una pregunta muy literal. Pregunta, ¿está la pantalla encendida? Perdón, tendría que haberle dicho que lo dijera en español. Voy a arrepentir a ver si sale. Dígalo en español. Lo haré de otra manera. Voy a decirle que mire y me diga si la pantalla está encendida. Sí, la pantalla está encendida. Dígalo en español. La pantalla está encendida. Puedes ver varias ventanas y aplicaciones abiertas en la computadora portátil. La laptop parece estar funcionando correctamente. No hay ningún error o mensaje de advertencia visible en la pantalla. Bueno. Has sido generoso. En español has sido muy generoso. En español has sido muy generoso. Sabía que lo estabas grabando. Y de escueto nada. En inglés simplemente me respondió, sí, la pantalla está encendida. En español no. Como así te habla de la higiene y te dice que tiene los dedos llenos de dedos grasosos, toda la pantalla que tienes que limpiar. Podría haberlo dicho, la verdad. Podría preguntarle si la pantalla luce limpia. Sí, sí. Lo que intentaba demostrar. Si uno le hace una pregunta muy concreta, la respuesta es bastante probable que sea buena. Por ejemplo, la pregunta típica, coges algo del refrigerador o lo que sea, una lata, un pomo, y le preguntas, hey, Meto, what am I holding? O sea, a ver, me va a responder. Aparece que no hay nadie teniendo nada en esta imagen. Hay dos laptops y otros objetos en la superficie de la mesa o de la mesa. Dígalo en español. Bueno, traduzco yo. Como dije una frase que entiende, le dije, what am I holding? Que estoy sujetando, que estoy agarrando. Tiró una foto y, por supuesto, me respondió que no estaba sujetando nada, que nadie estaba sujetando nada. Que hay dos laptops y otras cosas. Otras cosas. Y me dijo, bueno, ¿qué es lo que estás sujetando? ¿Qué es lo que estás agarrando? ¿Qué es lo que estás agarrando? Y otras cosas. Y de pronto le dije, dilo en español. No entendió lo que estaba diciendo. Pero eso, si se le hacen preguntas concretas y después se le pide que lo traduzcan, lo hacen. Por ejemplo, una función que yo uso mucho es coger una carta, un sobre, un correo, mirar el sobre y decirle, look and read it, o sea, y te lee, te lee lo que está en el sobre. A veces te lo leo, a veces no. Inteligencia artificial generativa, impredecible. Nunca sabes, nunca tienes la certeza si va a funcionar. Claro, eso es importante, que la fiabilidad no es 100%. Cada vez siempre tenemos ahí esa duda de si nos ha engañado, lo ha inventado o ha acertado. ¿Y se puede inventar una historia? Ya lo hace menos, pero se inventa historias. Sí, paremos aquí un momento, porque esta parte creo que sí a la comunidad, sobre todo de personas ciegas, le puede interesar. Es la capacidad de OCR que tienen las gafas a través de la inteligencia artificial. Realmente no están haciendo un OCR real, que es una tecnología muy concreta que tiene que trabajar en condiciones muy específicas y no tiene nada que ver con la inteligencia artificial. Es lo que el reconocedor óptico de caracteres. Aquí lo que tenemos es una inteligencia artificial que se ha entrenado el modelo, enseñándole un montón de caracteres, letras y todo. Sí que es más versátil, pero al mismo tiempo es más impreciso y creo que no hace lecturas literales del texto que tiene delante. Se trabaja sobre un resumen inicial y luego se va especificando, realizándole preguntas, porque sí que tiene acceso a la imagen. Un OCR, por ejemplo, de una carta, te leería de P a PA, es decir, toda la carta, y aquí te daría un resumen y tú luego tendrías que ir preguntándole, por ejemplo, si es una factura del recibo de la luz o algo de esto, datos, qué consumo he tenido, cuánto tuve el mes pasado, y ahí sí que es capaz de encontrarlo dentro del documento. Pero hacer lo que es una lectura, ¿no? O me estoy confundiendo. No, no, eso es correcto. Eso es correcto, sobre todo porque Meta, específicamente Meta.AI, tiene unos tiempos de respuesta muy cortos. O sea, para decirlo, la ventana de tokens, o sea, los tokens son, por decirlo de alguna manera, imaginemos que hay una cantidad de dinero disponible para realizar una función. En este caso, contarte lo que hay en una imagen y que cada palabra que la inteligencia artificial produce cuesta una cantidad de dinero. Bueno, dinero no es literal, pero probablemente se entienda. A Meta le dan muy poco dinero para responder, con lo cual la respuesta tiene que ser escueta y precisa. Eso también da lugar a que no pueda leer documentos enteros, más allá de que, como tú dices, Ricardo, la inteligencia artificial generativa no es OCR, su función no es leer un documento. Con otras aplicaciones, como SharkGPT, se puede conseguir hasta cierto punto que lo haga, simplemente porque dispone de más tokens de los que mencionaba antes. Entonces se puede conseguir incluso que haga cosas muy chulas, como una lectura como la que haría una persona que ve. Por ejemplo, que te diga, el documento tiene un título que está en la parte superior del centro, que dice tal cosa, tiene un logotipo de tal, y a continuación el texto dice, y que te lo reproduzca literal. Eso lo puedes hacer con SharkGPT, con Meta AI no lo puedes hacer, porque no tiene suficientes tokens y el modelo no es lo suficientemente bueno. Entonces estamos hablando que es una cuestión de tiempo, la tecnología está ahí, y hay que habilitar esos tokens, pero probablemente en un futuro lo haga sin ninguna dificultad. Y también depende de cuán bueno es el modelo. En este caso creo que todavía están usando, no sé si ya están usando el Ama 3.2, o todavía siguen usando 3.1, como decían antes, con otro modelo separado para analizar imágenes, no lo sé. En cualquier caso, la calidad, el rendimiento del modelo también es fundamental. hablar en otro momento un poco más de detalle, pero hay muchas IA's distintas de muchas compañías que están especializadas en diferentes cosas y esta pues de forma nativa usa la suya, usa la de Meta. Pero lo que quizás se pueda concluir es que no va a leer un documento entero. Ahora, puede que sí te lea el remitente de un sobre o puede que te lea una dirección. Y aquí encontramos otro gran problema de Meta. Hay que entenderlo y saber que está ahí. Meta IA tiene unos filtros de contenido muy fuertes porque esto no está pensado ni para accesibilidad. Hay una preocupación muy grande con la privacidad. Preocupación muy entre comillas. Eso se puede hablar mucho, pero de cara a la galería se hacen cosas como por ejemplo meterle filtros de contenido muy fuertes y te puede pasar que le digas a quién va a dirigir la carta y te diga no puedo no puedo hablar de información personal, no puedo decir nombres ni direcciones, ni no sé qué más. O le puedes pedir tengo una persona delante y puede que te lo responda, pero después le digas la persona está sosteniendo un batón. No puedo discutir la apariencia personal de la gente, ni su identificación, ni nada. Por ahí anda un post de Facebook que dice, que habla de que se puede, incluso explica cómo hacerlo, hacer que Meta RayBan identifique personas. Yo no voy a decir que eso no es verdad. Lo que sí voy a decir es que eso yo no lo he conseguido y que más bien es todo lo contrario. Meta AI se niega a dar información que pueda identificar a alguien. Y por otro lado no tiene memoria. Meta AI va a entre comillas recordar lo último que se le dijo durante un periodo de tiempo determinado. No recuerdo cuánto es ese periodo de tiempo, pero es muy breve. Incluso si le pidieras que mirara algún sitio y le explicaras esta persona es fulanito de tal, lo recordaría probablemente durante los siguientes 30 segundos. Correcto. Si no tiene la potencia de una versión de pago como el ChatGPT Plus, que tiene una memoria brutal y recuerda creo que meses de todo lo que, y de hecho te saca a colación cuestiones que tú ya habías olvidado que se lo habías dicho. Esto es otra circunstancia que está ahí, es otro modelo y lógicamente pues ya está. Sí que es cierto, y esto debe conocerlo la gente, que hubo un trabajo muy interesante entre la gente de Be My Eyes, la aplicación de la que hablamos antes, y la gente de OpenEye entrenando el modelo para personas ciegas. Y eso le ha dado un valor distintivo frente a cualquier otra inteligencia artificial en cuanto a la eficacia que tiene para describir imágenes y orientar a personas ciegas. Es por un entrenamiento específico que es lo que Meta en este momento, y Meta ahí no ha hecho, suponemos que lo hará, ¿no? Es bastante probable porque están trabajando con gente como Envision, hay otros trabajos que se están realizando de los cuales no se habla. Por ejemplo, una cosa que ellos dijeron en MetaConnect es que Meta en las gafas va a poder trabajar hasta cierto punto con vídeo en tiempo real, va a poder describir acciones en tiempo real ocurriendo en un vídeo, y eso posiblemente lo veamos muy pronto. Pero, stop, vamos a ver a nivel del procesador y consumo energético, cómo va a gestionar esto. ¿Qué hace en realidad? Claro, pero, Roberto, ¿cómo vamos a ver? ¿Es que el procesador es pequeño, la batería es pequeña y grabar en tiempo real...? No, eso se va a hacer en la nube. Me imagino que lo que va a usar es la misma función de streaming que utiliza para enviar vídeo en tiempo real a Instagram o a Facebook, y va a utilizar ese streaming en la nube para extraer algún tipo de información. Eso lo digo yo, no lo dice Meta. Con lo cual, podría hacerse. Ahora, vamos a ver qué tan útil es. Claro, y qué delay tiene, porque hoy por ahí no se puede hacer, y para saber si un semáforo está rojo o verde, pues hoy por hoy no vale. Exacto, y lo que decía Ricardo, este modelo no está entrenado específicamente para responder a las necesidades de una persona ciega. Eso se nota mucho. Realmente decimos que las AIBAN Meta no se pensó para personas con discapacidad como una tecnología de asistencia, y así es. Y quería hacer referencia a un artículo de Nature, que, bueno, pondremos también en la descripción el link para que lo podáis consultar, donde distintas universidades de Europa y Norteamérica relacionadas con la oftalmología y la óptica, y bueno, el artículo viene a hablar del potencial que tiene este dispositivo tecnológico, Ray-Ban Meta, para asistir a personas con distintos problemas visuales, desde la ceguera hasta problemas de baja visión. Es decir, que ya hay universidades y ya hay gente viendo en el dispositivo un potencial que se va a utilizar sí o sí para la asistencia, aunque no nació así. Exacto. Esto va a cambiar, y creo que es un buen momento para meterse en este mundillo y empezar a aprovecharlo. No sé si quieren hablar. ¿Qué le dirías a la gente? Porque nosotros aquí en Europa no podemos utilizar la inteligencia artificial. Tendrían que usar una VPN para iniciar sesión. De igual, está haciendo mucha gente. Se ha hablado de si eso es legal, si eso es ilegal. No sé si queremos meterlo en esa cuestión. La verdad es que a Meta eso no le interesa. Meta no ofrece el servicio en Europa, pero si alguien en Europa lo utiliza, no necesariamente significa que está violando términos del servicio. O sea, lo está usando bajo su propio riesgo y responsabilidad. Pero muchísima gente lo está haciendo. Usar una VPN no es nada que no sea... En el mundo empresarial, en el mundo tecnológico, las VPN se usan todo el tiempo. Las VPN son productos que cualquiera puede usar. No son ni herramientas de hacker, ni herramientas para saltarse contenidos por países, aunque se puedan usar para cosas de ese tipo. Una VPN es simplemente una herramienta que cualquiera puede usar de manera legítima. De otra forma, la VPN sólo sirve aquí en España para activar de nuevo el servicio de MetaID y luego desconectar la VPN y sigues trabajando durante un mes. Sí, no sé si funciona un mes o más o menos, pero exacto. Una vez que está iniciada la sesión, que está establecida la ubicación, ya se puede dejar de usar. Ahora, lamentablemente, como lo hemos visto, hay que hablarle en inglés. Eso sí, no tiene mucho arreglo. Sí, una VPN es un programa que se instala en el móvil, en el dispositivo en cuestión, en el ordenador, en el router, en algún sitio. Y normalmente cuando nos conectamos a internet, pues las empresas saben desde dónde nos estamos conectando, desde qué país sobre todo, que es lo que les interesa para ver qué tipo de contenido nos pueden ofrecer. Y una VPN es un programa con el que puedes simular que te estás conectando desde otro país, aunque tú estés donde estás físicamente, pero la IP, tu dirección, pues figura como que es de otro país. Entonces te permitiría, en un caso como este, que las gafas no están disponibles para poderlas activar en Europa, pero podrías emular que estás en otra localización y entonces sí que te lo permitiría. Meta por lo menos no está poniendo problemas para evitarlo. Ellos autorizan la conexión desde Norteamérica y Canadá. Se está expandiendo, ahora también la autorizan desde Reino Unido, Irlanda... Entonces Commonwealth, ¿no? La Commonwealth. No sé si podríamos hablar de la Commonwealth en su totalidad, pero por lo menos sabemos que esos países, Australia parece que también. Ahora no tengo la lista de países concretas desde las que están ofreciéndolos. Lo que sí quiero comentar yo es que la gente está diciendo que es por el reglamento o la reglamentación o ley europea de inteligencia artificial, por lo que no tenemos aquí el servicio y yo creo que es una cuestión de escalabilidad. No lo tenemos aquí porque no lo ha autorizado Ray-Ban Meta, que sí pueda haber un factor de futuro que estén negociando las condiciones, pero en este momento creo que lo han hecho porque no tendrán máquinas suficientes como para soportar todas las demandas a nivel mundial. Posiblemente por un lado por escalabilidad y por otro lado también pues está por la incertidumbre. Normalmente las empresas en los sitios donde hay incertidumbre pues tampoco se quieren meter, no hace que luego tengan que recular y tengan que ir para atrás. Es muy complicado a día de hoy. Esperar hasta que vean a ver qué decisión se va a tomar finalmente en Europa. Pero en Latinoamérica no tienen prohibición de ningún tipo. Se están extendiendo, sí. Ya está disponible en Latinoamérica desde hace no sé cuántos días. Hace poquito ya abrieron para México varios países. Pero ya sin VPN en México también. Qué interesante. Pues yo lo desconocía todo esto. No tienen esa incertidumbre política que los políticos de Europa pues han demostrado expresamente. Ahora el problema es que si lo pones en español, por ejemplo, pierdes toda la funcionalidad de Meta.AI. No porque haya un tipo de restricción, sino porque todavía Meta.AI no... el soporte de idioma español no está presente. Claro, porque el corpus de la IA es en inglés, todo lo trata en inglés. De momento pues el español es una traducción de eso que te está describiendo, de eso que te está haciendo, pues como mucho te lo traduce a español, no está todavía integrado de forma nativa en el corpus. Exacto. La mayoría de las IA, sí, sí, lo hacen así desgraciadamente porque hay una traducción por el medio. Es que este es uno de los handicaps por lo que, vamos, a mí a mí las gafas me encantan. Las he tocado, las tiene un amigo, las he probado y todos son sensaciones muy positivas. Me gusta mucho también cómo interactuar con ellas, lo que me devuelven. Pero lo de la VPN en principio me daba rabia y estaba un poco ahí quemado. Pero lo que, pese a tener un nivel de inglés suficiente, que no es por vacilar, pero bueno, para entenderlo, pero no me resulta cómodo interactuar con ellas hablando el inglés, ¿no? Entonces yo lo tengo un poco en stand-by, de hecho me las iban a regalar y paré todo el proceso hasta que se solucionan estas dos circunstancias. Lo que pasa es que, Roberto, te escuchan hablar a ti y a otra gente y es que claro, cada vez te dan más ganas de tenerlo, aunque sean con auriculares. Es que yo las tendría con auriculares, si me quitaran MetaID ahora mismo yo seguiría contento, porque son muy buenas como auriculares. Pues con esto nos vamos a quedar, que es decir, aunque no sepas inglés o no te conectes por la VPN, las gafas en sí, como auriculares y para hacer ciertas gestiones, son extraordinarias. Si quieres usar MetaID te puedes aprender dos o tres frases en inglés, tampoco son muchas, aunque sea para lo básico, por ejemplo, look and read, look and tell me what's in front of me, mira y dime lo que tengo delante, what am I holding, que estoy sujetando, te puedo aprender dos o tres frases y cuando te diga lo que sea, tell me what's in front of you. O incluso hay gente que cuela en Spanish en la propia fase, por ejemplo, what am I holding in Spanish. Y les funciona. Pero bueno, como auriculares, yo las quiero. ¿Tú cómo las conociste? Wow, pues no me acuerdo. No sé si como en una conversación. ¿Tuviste un sueño premonitorio? ¿Tuviste un sueño premonitorio? No, no sé si hablando con un compañero de trabajo que las mencionó, o me encontré con una referencia en YouTube. Sí sé que la primera persona ciega que le oí hablar de MetaRayBan, que las estaba usando y todavía sin AI ni nada, simplemente como auriculares, hay un podcast que se llama Double Tap Podcast, y Steven Scott, uno de los conductores del podcast, se compró las MetaRayBan. Fue la primera persona ciega que yo le escuché decir que se las había comprado. Yo ya sabía que existían, no había dudas de hablar de ellas. No les había prestado demasiada atención porque en general, bueno, era otro cacharro más. Pero ya cuando él en el podcast habló de que, oh, me compré las MetaRayBan y suenan genial, y VoiceOver funciona, oye, VoiceOver y puedo hacer videos y el video suena genial, ya les empecé a prestar atención. Entonces empecé a buscar información y recuerdo que me encontré estos videos en YouTube con la gente que estaba usando el MetaEye con Early Access. Oh, esto está interesante. Oye, yo las quiero probar también. ¿Cuánto tiempo hace que las tiene? No sé si un año ya. Sí, poco menos de un año. Sí, desde octubre están, sí, sí, del año pasado. Yo creo que me las compré, no sé si en marzo o abril del año pasado. A ver, yo viajé a Redmond en mayo del año pasado y ya las tenía, así que probablemente en abril me las compré. Muy bien. Pues aquí en España, hombre, tenemos conocimiento de ellas porque hay, bueno, por distintas vías, ¿no? Tenemos a LibluVox y su canal, que ha hecho unas demostraciones muy interesantes y últimamente ha hecho una para los visionarios cejanos, que la recomendamos y la pondremos también en la descripción. Tenemos también a May Rodríguez, que ha hecho desde su canal, que se llama también DobleTap, pero este sin la U intermedia. Por cierto, muy recomendable, ha hecho también un par de demostraciones, también las pondremos. Y luego aquí existe un grupo de WhatsApp que lo llevan Roger y Jordi, que es un grupo de ayuda mutua, que entre usuarios se van contando unos a otros lo que van descubriendo y cómo utilizarlas. Es el típico grupo que es de autoaprendizaje y que también lo facilitaremos para la gente que quiera compartirlo. Tenemos también referencia de un supergrupo en inglés que hay en Facebook, que es Blind Users of Rival Media o algo así. Sí, que parece ser que también lo conoces, ¿no? Me uní hace dos o tres días. Casi igual que nosotros, sí, sí, sí. Bueno, está bien, ¿no? Son 1.200 o 1.400 usuarios, ¿no? Es una barbaridad lo que tiene. Ahí fue donde encontré yo el podcast que hablaba de cómo hacer que MetaRival identifique personas. Pero bueno, esto es bastante cuestionable. No lo sé. Que la gente lo pruebe. Bueno, pues lo pondremos también, ¿no? En referencia para que la gente, si quiere inscribirse y controla el inglés, lo pueda ver. Fenomenal. Yo creo que ya por hoy ya nos hemos alargado mucho, ¿no? Podemos ir dejándolo por ahí. Otro día también podemos continuar con este o con otros temas. Bueno, hablando con Roberto, me dijo que podría ser una gran idea tener como un tema transversal para sacarlo en próximos episodios, que sería algo así como inteligencia artificial en el día a día de personas ciegas y con baja visión. ¿Es así, Roberto? Sí, que también podemos hacer eso. Yo he estado recopilando casos, escenarios, pero todo con muchas expectativas. Sí, fundamentalmente con muchas expectativas. La verdad es que es lo mejor que funciona a mi modo de ver. Por ejemplo, identificar personas y cosas de esas. Sería súper interesante, ¿no? Porque muchas veces oí hablar mucho de la IA y mucha gente... oímos que hace muchas cosas y que está muy bien, pero muchas veces pensamos, ¿y esto a mí qué? ¿Qué puedo hacer yo con esto? Claro. Correcto. Sí, y la gente que va haciendo cosas también nos lo está contando, con lo cual es importantísimo que todo el mundo tenga acceso a cosas que, si Roberto las puede hacer, que no ve, las puede hacer todo el mundo, lógicamente con las indicaciones oportunas y además lo explica muy bien. Además te da ideas que a lo mejor ese caso de uso en concreto no tiene sentido para ti, pero se te ocurre a raíz de ese caso de uso. Exacto. Ocurren otros casos que sí son muy útiles para ti, ¿no? Por ejemplo, hace poco escribí a alguien preguntando, ¿cómo puede leerse una presentación de PowerPoint con chat GPT? No es tan difícil. Sabemos que no a todo el mundo se le ocurre pedir las cosas de una manera... El prompt. El prompt es súper importante y lamentablemente entre los Alexa y los Siri de este mundo nos han entrenado a hablar de maneras muy raras. Y la gente pretende hablar así con chat GPT y con la IA generativa y no funciona. Bueno, pues llegados a este punto, yo creo que vamos a acabar hablando de Ray-Ban Meta. Sí. ¿No? Para que entre un poco el tema. Bueno, estamos lógicamente todo el mundo encantados con esta tecnología. Nos llama mucho la atención de cómo empresas pequeñas como fue Ray-Ban en sus inicios o como fue la propia Luxottica y el propio Facebook han conseguido llegar a generar este tipo de dispositivo porque verdaderamente todos vienen de modelos de empresa muy local y muy pequeños. De hecho, Bounce and Lomb comienza a ser la Ray-Ban por una petición del ejército americano en el año treinta y pico cuando se dan cuenta de que hay una demanda por parte de los aviadores en la Primera Guerra Mundial, después de la Primera Guerra Mundial, de cuando toman cierta altura el sol los deslumbra y les produce también náuseas y mal cuerpo. Y es cuando esta empresa que está especializada en generar lentes para microscopios, miras telescópicas para ver más lejos y matar mejor y todo esto pues comienza a hacer unas gafas que se salen de lo que es la óptica de corrección y simplemente es un filtro solar para esto. Aquí comienza lo que es la historia de Ray-Ban. Llega el año noventa y nueve donde ellos se especializan en lentes de contacto de gel, en temas de cirugía ocular y otro tipo de lentes y venden a Luxottica que es una empresa también muy pequeña en el año noventa y nueve de la zona norte de Italia, del Véneto de Agorno, creo que se llama el pueblo, donde Leonardo de Vecchio, que así se llama el hombre, una persona hecha a sí misma, verdaderamente con una infancia muy complicada, pues primero empieza con un pequeño taller donde hace accesorios y piezas para otras empresas hasta que un día consigue, bueno, él tiene una idea de empresa que a mí me parece interesantísimo y hace lo que es un proceso vertical, dice no voy a fabricar para nadie, voy a hacer lo que es una gafa desde el principio hasta el fin con todos sus accesorios, piezas y ya forma Luxottica y el primer contrato fuerte es hacer de Armani las gafas, a partir de ahí ya consigue capital y ya compra lo que es Ray-Ban en el noventa y nueve y luego estaría Exilor que es la otra empresa que también entra aquí y eso que son los mejores haciendo lentes, que estos vienen del siglo diecinueve, es que es alucinante todo, eran la cooperativa de ópticos franceses, sí, sí, sí, que hacían lentes y luego esto era Exxer y xilor, era otra empresa que fueron los que hicieron las lentes Barilux, los filtros monofotocromáticos, bueno, una pasada, todos eran empresas pequeñas, ya han ido a converger junto a Meta, la antigua Facebook, que no os voy a decir el gigante que es, en este producto las Ray-Ban Meta Smart Glasses, gafas electrónicas que ahora nos comentará Arturo, no fueron fáciles de desarrollar, puesto que las primeras que fueron las Stories, que Dampia estas, les pilló en plena pandemia. Esto ha ido evolucionando desde las Stories, incluso antes también hubo intentos por parte de Google, de las Google Glass, por allí por el 2012-2013, pero yo creo que no era el momento, que no estaba todavía el mercado lo suficientemente preparado para este tipo de tecnología y luego Meta sacó las Stories, que bueno, también empiezo con ello, yo creo que la clave de todo esto es que la tecnología, hacerla lo más transparente posible al usuario, que nosotros como un poco frikis que somos, pues nos gusta saber que tiene 5 micrófonos, que la lente de la cámara está en la parte izquierda, que en la derecha está el LED, que no sé qué, pero yo creo que la clave quizás está en hacerlo lo más transparente posible, que el usuario no tenga que saber todo esto, sino que simplemente es un dispositivo que se lo pone, igual que se ha puesto las gafas toda la vida, y funciona de la forma lo más fácil posible. Con tecnología muy bien integrada, como decía Roberto, que no se nota, tú estás llevando, realmente estás llevando el modelo normal Wi-Fi, que es uno de los modelos Skyler o Headliners, que son los tres modelos que por lo menos se venden aquí en Europa, no sé si en Norteamérica será así, más todas las combinaciones que os podéis imaginar de Ray-Ban, de cristales y demás. Es decir, tú estás llevando estas gafas, que no hay ninguna diferencia entre las gafas cuando no tenían electrónica. Que ya existían, son gafas normales que ya existían, son modelos, han estado siempre en Ray-Ban. Estos quizás tienen la patilla un poquito más gruesa para llevar un poquito la batería y lo que lleva dentro, pero es el mismo modelo de siempre. Con una gran aceptación social, porque es algo conocido, no es nada invasivo ni intrusivo. Es decir, conocen perfectamente esas gafas, no te ven como algo extraño y no estigmatizan, lógicamente. Exacto, este punto es súper importante. Para mucha gente se plantea usar gafas específicas para ciegos como llamar la atención, porque son unas gafas raras, más allá de que se vean mejor o peor, son algo diferente. Pero al llevar un dispositivo como este, que lo puede llevar cualquiera, no te hace diferente. Estás utilizando una tecnología de apoyo, porque ya se puede hablar de Meta Ray-Ban como tecnología de apoyo, a día de hoy se puede con Be My Eyes, la integración con Be My Eyes que ya está anunciada. Tienes un dispositivo con tecnología de apoyo que no es diferente del que usaría cualquiera y que puedes usar de manera discreta, en tus términos, pero que no es algo que te identifique como persona ciega necesariamente. Y eso es importante para alguna gente. Genial, Roberto, qué interesante. Mil gracias, amigo. Gracias por invitarme. Muchas gracias. Y seguiremos hablando de muchos temas muy interesantes, siempre y cuando quieras. Aquí tienes el micrófono. Gracias. Y nosotros encantados. Bueno, pues nada, estamos al final, primer episodio de Gafotas de Gatos y sus aparatos. Cuéntanos, Ricardo, los métodos de contacto, cómo pueden contactar con nosotros, correo electrónico, Whatsapp, cómo pueden ponerse en contacto con nosotros. Bueno, yo digo uno, tú dices otro. Vale. Por correo electrónico es gafotas@cegatos.es. Y el Whatsapp, también tenemos habilitado un Whatsapp en el teléfono español con el prefijo más 34 para España, 644 640 792. Genial, pues muchas gracias a todos por escucharnos y nos interesa mucho porque es nuestro combustible, vuestra opinión. Así que escribirnos, comentarnos cosas y decirnos qué os apetece escuchar y de qué queréis que hablemos. Nosotros estamos encantados de estar aquí y teneros a vosotros como audiencia. Muchas gracias y nos escuchamos en el siguiente episodio. Adiós.
Gafotas, cegatos y sus aparatos #0
Fecha: domingo, 6 de octubre de 2024, a las 00:00:00
En este episodio 0, o número piloto, Arturo Fernández y Ricardo Abad presentan su declaración de intenciones para "Gafotas, Cegatos y sus aparatos". Se trata de un espacio para explorar tecnologías de asistencia enfocadas principalmente en la ceguera y la baja visión, ocupando un lugar también muy importante los temas de tecnología en general, y aquellos que sirvan para facilitar la vida de las personas. . Compartirán información práctica sobre dispositivos accesibles, conocerán personas que están innovando en este campo y lo harán de una manera amena y sencilla. ¡Bienvenidos a este nuevo proyecto!
Intervienen:
- Ricardo Abad.
Créditos:
Suno.ai.
Duración: 09:32
Mostrar descripción detallada del logo de Episodio 0. Piloto.
Descripción detallada del logo de Episodio 0. Piloto.
La imagen muestra al personaje del logo, un locutor de podcast con un estilo vintage y sofisticado. Lleva gafas de sol, auriculares y un bigote destacado, acompañado de una bufanda de lunares y una chaqueta elegante. Está frente a un micrófono clásico y una consola de mezclas, con un ordenador portátil que muestra una onda de sonido y la palabra "PODCAST". El fondo incluye paneles acústicos y líneas dinámicas que sugieren energía y sonido.
Mostrar transcripción de Episodio 0. Piloto.
Transcripción de Episodio 0. Piloto.
Muy buenas, lo que sean, yo soy Arturo Fernández Y yo soy Ricardo Abad Y esto es Gafotas, Cegatos Y sus aparatos Podcast Bienvenidos a este episodio cero O número piloto Donde vamos a intentar contar un poco Una declaración de intenciones De que pretendemos en este proyecto ¿Por qué ese título tan original, Ricardo? Bueno, pues nada, es un título que realmente Ya solo cuando dimos las primeras vueltas Entre amigos y familiares Para recabar las opiniones Ya vimos que había una división, claro Había gente que les encantaba el título Gafotas, Cegatos y sus aparatos Y otra gente que verdaderamente Le daba un poco de grima Y no llegaba a entenderlo Pero bueno, así es la vida Nosotros, generacionalmente Venimos de un momento humorístico Distinto al actual Pero nos apetecía mucho Salir con este Un título de Gafotas Un título algo provocativo Eso es, porque en nuestra época Rompetechos era algo gracioso Hoy en día sería políticamente incorrecto Y a su creador lo hubieran colgado de algún sitio Pues sí, al gran Ibañez Lógicamente por Rompetechos le hubieran cancelado De hecho, Rompetechos Para el que no lo conozca Era un señor bajito Que además llevaba gafas En aquel momento se llamaban culo de vaso Que sería un Gafotas Y cabezón encima Y entonces, bueno, pues se veía envuelto En aventuras muy curiosas Por su falta de visión Y su despiste en general Y bueno, ese era Rompetechos También estaba Pepe, Gotera y Otilio Chapuzas a domicilio Sí, sí, qué tiempos Por eso hoy en día todo esto sería mal visto probablemente Pero bueno, es nuestra época Y también pretendemos ser un poco Diferentes, tener nuestro toque De humor peculiar Y ser un poco diferentes Al resto de cosas así más formales Que en el fondo No somos tan diferentes Porque no hace más de dos décadas Elvira Lindo Pues sacó una novela Que luego se hicieron series y películas Y su protagonista era Manolito Gafotas Sí, eso es Y el hermano de Manolito era el imbécil No sé si... Bueno, en otros tiempos Era este tipo de humor Y tenemos también Una base histórica Donde apoyarnos para que nos apeteciera También tener un título Como este para nuestro podcast La publicación que tienen Los militares y guardias civiles Con discapacidad del Estado español Se llama Soldados viejos y estropeados Por circunstancias, cuando la conocí Me llamó mucho la atención ese nombre Digo, el día que hagamos cualquier cosa O pongamos una revista O algo, me gustaría tener Un... Un título así, ¿no? Con esa fuerza Realmente es un nombre histórico Es como denominaban a las milicias Que volvían de la batalla ya muy ancianos Porque habían estado toda la vida Guerreando O a la gente que perdía miembros Se llamaban soldados viejos o estropeados ¿No? Y bueno, es el propio Miguel de Cervantes Quien utiliza este nombre Para referirse a esta gente Y bueno, después de este rollo Pues por todas estas causas Y algunas más Pues nos apetecía ponerle este nombre Y es lo que hemos hecho Porque nuestra intención es Esta, ¿no? Es hacer lo mismo Pero también distinto, ¿no? ¿Cómo vamos a llevar a cabo el podcast? ¿Qué tipo de contenido vamos a tener? Bueno, pues sí Es más de lo mismo Pero diferente Aunque suene a contradicción Nuestra idea es Dar información De todo lo que son tecnologías De asistencia Orientadas a la ceguera y a la baja visión Pero al mismo tiempo También nos interesan mucho Las tecnologías en sí Ubicar La nuestra dentro del conjunto Y conocer mucho Del estado del arte De estas tecnologías Para saber hacia dónde nos movemos Y en qué punto nos encontramos Y otra de las cosas que nos interesa mucho Es conocer gente que hace cosas Pero nos interesa todo tipo de gente ¿No? Gente que hace cosas Desde el rincón Más recóndito del mundo Pero tiene allí su ordenador Su computadora Y tiene algo de qué hablarnos Como el ingeniero Que ha hecho una investigación O un hallazgo Como cualquier persona que haga cosas Y esté relacionada también con la tecnología O con la ceguera O la baja visión Pues nos interesa Eso es Por circunstancias personales O profesionales Pues intentamos estar un poco Al día de las últimas novedades Que pueda haber en cuanto a accesibilidad Y cómo la tecnología Puede ser beneficiosa para todo y para todos Como se nos contarda habitualmente Y aunque a veces podemos tener además La ceguera del analista Que pensamos que todo el mundo Sabe todas estas cosas Pero no siempre es así Entonces también queremos transmitirlo De forma amena, sencilla Para que todo el mundo pueda conocer Esas herramientas Estas Aparatos Estos objetos que hay Que nos pueden hacer la vida Quizá un poco más fácil Y bueno, luego pues que Ya cada uno tendría que valorar Y ver sus necesidades Y si lo puede aplicar o no A sus circunstancias O bueno Por lo menos el conocer Que eso está ahí Y a lo mejor para nosotros O para algún amigo nuestro O lo que sea Pues le puede resultar de utilidad Sí Porque damos por hecho Que todo el mundo tenemos conocimiento de todo Y no es así Entonces el objetivo es ese Ojalá lo que se pueda hacer Lo consigamos Porque tampoco tenemos Un patrón muy establecido Y sí que estamos abiertos a Bueno, pues A ver qué interés hay Y qué interés despierta Este tipo de contenidos Y podemos modificarlos Poco a poco Conforme Bueno, por demanda prácticamente Por demanda de audiencia Tenemos total flexibilidad Cosas que Habrá cosas que las contaremos nosotros Otras que tendremos invitados Esperemos O bueno, ya veremos cómo Va evolucionando Esto Y que de roteros terminamos Esperemos que Correcto La gente nos hable Nos escriba Y nos cuente Cómo lo ve Pues para ir pudiendo evolucionar Muy bien No es un podcast solo para cegatos Y gafotas Sino es para todo el mundo Y nos encantaría que Nos conocieran Y no solo eso Sino que participaran De todo Sí Pues bueno Lo vamos a hacer Y nos vamos dejando por aquí Este primer episodio No nos enrollamos más Esperemos que los siguientes Tengan un poco más de contenido Y nos vamos despidiendo Pues muy bien, Arturo Pues dinos antes Desde dónde nos hablas Pues yo estoy por aquí Por los madriles ¿Y tú? Pues mira Yo estoy ahora En día de Terral Fíjate Otoño pero con Terral Llevamos tres días seguidos En Málaga, la bella Tierra de los boquerones Y el que diga Lo contrario Que me toque Que me toque por teléfono Me haga una llamada O una perdida Y lo discutimos Pues muchas gracias Pues muy bien Un saludo a todos Nos escuchamos
(c) 2025 por Arturo Fernández - Actualizado: viernes, 10 de octubre de 2025, a las 01:32:23