Inteligencia Artificial
Apple trabaja en AirPods que podrían leer la mente
Estos dispositivos podrían interpretar la actividad cerebral captando y analizando las señales eléctricas del cerebro en tiempo real
Apple está desarrollando AirPods con inteligencia artificial que podrían interpretar la actividad cerebral captando y analizando las señales eléctricas del cerebro en tiempo real.
Este avance promete que dispositivos cotidianos como los auriculares no sólo reproduzcan sonido, sino que puedan reconocer estados mentales y detectar condiciones neurológicas sin intervención directa de especialistas.
La innovación de Apple se basa en la integración de sensores y electrodos ultra pequeños dentro de los AirPods, que recogen datos desde el canal auditivo, a diferencia del método convencional de electroencefalografía (EEG) que utiliza electrodos sobre el cuero cabelludo.
Esta tecnología aprovecha un algoritmo llamado PARS (Pairwise Relative Shift), que emplea el autoaprendizaje para identificar patrones temporales en las señales eléctricas y puede clasificar etapas de sueño, niveles de atención y posibles alteraciones neurológicas.
Los registros obtenidos igualan o superan la precisión de los métodos tradicionales, lo que podría democratizar y facilitar el acceso a monitoreos cerebrales antes exclusivos de equipos médicos especializados.
Gracias a estos sensores biométricos, los AirPods podrían alertar sobre diferentes estados fisiológicos y mentales, como detectar el inicio del sueño, episodios de estrés o primeros indicios de enfermedades neurológicas como epilepsia o trastornos neurodegenerativos. Además, el análisis se complementa con la integración de otros sensores que captan pulsos de volumen sanguíneo, movimientos musculares faciales y oculares. Los datos recogidos se procesarían en dispositivos conectados como el iPhone, donde la inteligencia artificial filtrará el ruido externo y transformará las señales en información útil para el usuario o profesionales de la salud, siempre con permiso del usuario.



