11 mar 2026

IA en Medicina 2026: La Revolución Silenciosa que ya mejora tu atención sanitaria


 





En 2026 la inteligencia artificial se ha convertido en una capa invisible que atraviesa buena parte del sistema sanitario. No sustituye al profesional, pero sí amplifica su capacidad diagnóstica, reduce tiempos de espera y permite tratamientos más ajustados. Lo más relevante es que puede que tú ya te estés beneficiando de estos avances sin ser plenamente consciente de ello.

La radiología es uno de los campos donde la IA ha alcanzado mayor madurez. En mamografías, modelos desarrollados por Google Health superan el 90% de precisión, por encima de la media humana. En radiología pulmonar, herramientas como Lunit INSIGHT CXR detectan nódulos con una fiabilidad cercana al 94%, mientras que Viz.ai identifica accidentes cerebrovasculares isquémicos con sensibilidades que rondan el 97%. Para el paciente, esto se traduce en diagnósticos más tempranos, menos pruebas repetidas y una reducción real del riesgo de pasar por alto lesiones críticas.

En dermatología y oftalmología ocurre algo similar. Los sistemas de clasificación de melanoma alcanzan precisiones cercanas al 95% en estudios comparativos, como los publicados por la American Academy ofDermatology. En retinopatía diabética, modelos validados por la FDA como IDx‑DR superan el 94% de precisión. Cuando estas herramientas se combinan con el juicio clínico, la precisión conjunta puede acercarse al 98%. Para el usuario, esto se traduce en detección precoz, menos derivaciones innecesarias y un seguimiento más fino de enfermedades crónicas.

La gestión hospitalaria también está siendo transformada por la IA, aunque esta parte es menos visible para el ciudadano. En urgencias, los sistemas de triaje basados en IA reducen tiempos de espera en torno al 35%, según estudios publicados en NatureDigital Medicine. La planificación de camas mejora la ocupación y reduce cuellos de botella, y la programación quirúrgica permite aumentar el número de intervenciones diarias sin comprometer la seguridad. En España, hospitales como La Paz, Vall d’Hebron,  Clínicde Barcelona,  San Carlos o Virgen delRocío ya utilizan IA para gestionar listas de espera, priorizar pruebas y detectar riesgos en tiempo real. En la Comunidad de Madrid, herramientas como SermasGPT ayudan a miles de médicos de Atención Primaria a identificar enfermedades raras con mayor rapidez, mientras que el Hospital Gregorio Marañón ha automatizado procesos administrativos, ahorrando miles de horas de trabajo manual.

El descubrimiento de fármacos es otro de los grandes beneficiados. Insilico Medicine ha llevado a Fase II el primer medicamento diseñado íntegramente por IA, ISM001‑055. RecursionPharma prueba millones de compuestos por semana gracias a modelos generativos que aceleran un proceso que antes llevaba años. Además, los gemelos digitales permiten simular la evolución de enfermedades como el Alzheimer, una línea de investigación impulsada por proyectos europeos como VirtualBrainCloud. Para el usuario, esto significa terapias más rápidas, más ajustadas y con menos efectos secundarios.

La interacción directa con el paciente también está cambiando. En España, servicios de salud como el de la Comunidad de Madrid están implantando sistemas de inteligencia artificial capaces de transcribir en tiempo real las consultas de Atención Primaria y extraer información relevante para la historia clínica, reduciendo carga administrativa y acelerando la atención. Cataluña es uno de los referentes europeos más activos en salud digital, según informes como Digital Health in Catalonia presentados por Biocat, con un uso intensivo de la telemedicina y plataformas como La Meva Salut, que han demostrado un impacto significativo en la atención no presencial. Empresas españolas como SpotLab desarrollan soluciones de telemedicina basadas en IA para el diagnóstico remoto de enfermedades infecciosas y crónicas, apoyadas por programas europeos de innovación. Esto muestra cómo la IA se está integrando de forma válida en la atención sanitaria en España.

A nivel internacional, la adopción de la inteligencia artificial en sanidad avanza a gran velocidad. Más de mil hospitales utilizan Aidoc para el triaje radiológico y la detección temprana de patologías urgentes. En Reino Unido e India, Qure.ai apoya a los servicios de urgencias en la identificación de hemorragias intracraneales y otras lesiones críticas, reduciendo tiempos de diagnóstico y mejorando la priorización de pacientes. En Estados Unidos, la Mayo Clinic ha demostrado cómo la automatización inteligente puede acelerar el teletriage, permitiendo que pacientes con sospecha de cáncer reciban atención en cuestión de horas gracias a sistemas que clasifican y priorizan casos de forma automática. En Europa, proyectos como HARIA desarrollan robots de rehabilitación impulsados por IA para mejorar la recuperación funcional de pacientes con discapacidad. El mercado global de IA en salud supera ya los 45.000 millones de dólares en 2026, según análisis de Markets&Markets, y crece a un ritmo cercano al 40% anual, consolidando una transformación que afecta a todos los niveles del sistema sanitario.

A veces, entre tantas novedades y cambios, cuesta recordar que todo esto sigue girando alrededor de las personas. Lo importante es cómo queremos que nos atiendan cuando algo nos preocupa, cómo se agradece que un profesional pueda escucharnos sin prisas y cómo un diagnóstico a tiempo puede marcar la diferencia. La IA está entrando en la sanidad de forma discreta pero constante, ayudando a que los profesionales dispongan de más espacio para lo que solo ellos pueden hacer, ofreciendo a los pacientes respuestas más claras y más rápidas, y aportando una segunda mirada que contrasta diagnósticos y reduce errores. Al mismo tiempo, nos obliga a pensar con calma qué lugar le damos y qué esperamos de ella. Quizá la clave esté en acompañar este cambio con criterio y con sentido común, sin perder de vista que, por encima de cualquier avance, la salud sigue siendo un encuentro entre personas.


Los vínculos resaltados en el texto anterior te dirigirán a los estudios y datos con los que ha sido elaborado este artículo, si quieres profundizar un poco más revisa estos enlaces de interés:

Tech Times: AI Healthcare Diagnosis in 2025: Medical AI Tools Revolutionizing Accuracy

Forbes: How AI Is Transforming Healthcare In 2025

RSC Publishing (Sensors & Diagnostics): Artificial intelligence in healthcare diagnosis: evidence‑based recent advances and clinical implications

Alation: AI Healthcare Breakthroughs 2025: 10 Innovations Transforming Care



9 mar 2026

Rediseñar tu actividad con IA en 2026: mucho más que automatizar






En 2026 la inteligencia artificial dejó de sentirse como una novedad y pasó a integrarse en la actividad diaria de forma natural. Muchas empresas y profesionales ya trabajan con ella sin darse cuenta, porque actúa en segundo plano haciendo que los procesos sean más rápidos y fluidos. Según Gartner, la adopción de herramientas de IA en producción ha alcanzado un nivel que marca un cambio real en cómo se organizan y ejecutan las tareas dentro de cualquier actividad, desde grandes compañías hasta autónomos. 

La gran lección de este año es clara: automatizar no es transformar. Automatizar solo acelera lo que ya hacías; transformar implica replantear cómo debería funcionar tu actividad ahora que la IA forma parte del proceso. Empresas como HPE lo están demostrando al rediseñar servicios completos con agentes que colaboran con el equipo humano en tiempo real, eliminando pasos innecesarios y permitiendo que las personas se centren en lo que realmente aporta valor. Y este enfoque no es exclusivo de grandes compañías: plataformas como Palma.ai muestran cómo un profesional autónomo, un estudio creativo o una pyme pueden reorganizar su flujo de trabajo para que la IA no solo haga tareas, sino que ayude a repensar cómo se hacen. El cambio real ocurre cuando dejas de añadir automatizaciones encima de procesos antiguos y empiezas a construir actividades más simples, más rápidas y más coherentes con la forma en que trabajamos en 2026.

Cuando empieces a integrar agentes en tu actividad, notarás que muchas tareas que hoy requieren tu atención directa podrían resolverse antes de que lleguen a ti. Estos sistemas podrán priorizar lo que realmente importa, detectar pequeños errores y corregirlos dejando un registro claro, filtrar información para que solo recibas lo relevante y simplificar pasos que ahora haces de forma manual. Es un cambio que no se percibe de golpe, pero transforma la manera en que organizas tu trabajo. Gartner describe esta transición como un cambio estructural en la gestión de operaciones y actividad digital, donde la IA pasa a formar parte natural del funcionamiento diario.

La clave está en reorganizar la actividad para que los agentes se ocupen de preparar, ordenar, anticipar y simplificar, mientras tú mantienes el control y tomas las decisiones importantes. Los analistas coinciden en que la ventaja competitiva ya no está en adoptar más herramientas, sino en gobernar mejor tu flujo de trabajo y construir procesos más simples y coherentes con el momento en el que estamos.
La IA se ha convertido en una oportunidad para mejorar la calidad del trabajo y aumentar la productividad, no como un añadido puntual, sino como una forma distinta de organizar la actividad. Este es un buen momento para empezar a rediseñar procesos porque las herramientas actuales son lo bastante estables y accesibles como para integrarse sin complicaciones. Además, los análisis recientes sobre adopción de agentes en 2026 muestran cómo empresas y profesionales están reorganizando su forma de trabajar con buenos resultados, como recoge este articulo de  ITUser basado en informes de finales del 2025 y principios de 2026 sobre la adopción de agentes IA en empresas Españolas y Europeas.

Este tipo de cambios no busca reducir equipos, sino mejorar cómo se reparte el tiempo. Las tareas repetitivas o mecánicas pueden quedar preparadas por sistemas automatizados, mientras que las personas se concentran en decisiones, creatividad, relación con clientes y resolución de problemas. El resultado aportará un trabajo más claro, ágil, productivo y más competitivo.
Un primer paso sencillo para comenzar consistiría en elegir una actividad repetitiva que consumas cada semana, describirla en unos pocos pasos y pensar qué parte podría quedar preparada antes de que tú intervengas. Ese gesto abre la puerta a una forma de trabajar más simple y más coherente con la realidad de hoy día, y te permite empezar a posicionarte en tu sector aprovechando mejor los recursos que ya tienes. No se trata de seguir tendencias, sino de construir un modo de trabajar que te permita rendir con más orden y eficiencia.

Este enfoque ya se está aplicando en compañías como HPE, que están rediseñando servicios completos para que los agentes colaboren con los equipos humanos en tiempo real. En la práctica, esto podría significar que un técnico reciba únicamente las incidencias que requieren criterio humano porque el sistema ya habrá filtrado las triviales, o que un proceso de soporte avance más rápido porque los pasos previos ya estarán preparados. Este tipo de reorganización también se está extendiendo a actividades más pequeñas. El análisis publicado por Joget  muestra cómo profesionales independientes, consultores o estudios creativos están empezando a delegar la preparación de borradores, la organización de información o la clasificación de materiales sin añadir complejidad. Un diseñador, por ejemplo, podría recibir un resumen claro de un documento extenso sin tener que revisarlo entero, o un consultor podría obtener una primera propuesta estructurada a partir de notas dispersas.

Es importante subrayar que este cambio no implica necesariamente una reducción de personal. Lo que cambia es la distribución del tiempo y la calidad del trabajo. Las tareas repetitivas o mecánicas podrán ser asumidas por agentes, mientras que las personas podrán centrarse en decisiones, creatividad, relación con clientes y resolución de problemas. En la mayoría de actividades, esto se traduce en más rendimiento, menos carga innecesaria y una experiencia mejor tanto para el equipo como para los clientes.

Los vínculos resaltados en el texto anterior te dirigirán a los estudios y datos con los que ha sido elaborado este artículo, si quieres profundizar un poco más revisa estos enlaces de interés:

Palma.Ai: 2026 AI Agent Predictions: What Deloitte, Gartner, IBM, and 10+ Analysts Say About Tool Calling

HPE: HPE accelerates service provider modernization with AI infrastructure innovations at MWC 2026 | HPE

Quantum Howl: quantumhowl.com/blog/agentes-ia-en-2026-la-revolucion-de-la-automatizacion-multi-agente


3 mar 2026

El impacto ambiental de la IA: el coste energético e hídrico de chats, imágenes y vídeos.







Cada chat, imagen o vídeo generado por IA implica un uso de electricidad y agua que casi nunca percibimos. Son costes materiales que ocurren lejos del dispositivo que utilizamos, pero que existen y se acumulan a escala global. Este artículo no pretende alarmar ni señalar culpables, sino explicar con datos verificables cómo funciona esa huella energética e hídrica y por qué es relevante entenderla en un momento de tensiones eléctricas, transición energética y escasez de recursos. El objetivo es ofrecer una mirada neutral y basada en evidencia sobre el impacto físico del uso cotidiano de la IA, para que cada lector pueda formarse su propia opinión con información clara y rigurosa.

En mayo de 2025, MITTechnology Review analizó el consumo total asociado a la IA y mostró que, aunque cada consulta individual parezca pequeña, la suma de miles de millones de chats, imágenes y vídeos diarios está creando una demanda eléctrica que crece más rápido que la capacidad de las redes. Meses después, en agosto de 2025, MIT Technology Review publicó una de las estimaciones más transparentes hasta la fecha: una petición de texto en Gemini ronda los 0,24 Wh, una cifra modesta por uso pero significativa cuando se multiplica por el volumen global de interacciones. Ambos datos ayudan a entender la magnitud real del impacto energético de estas herramientas.

El agua es el recurso más invisible. Un estudio publicado en arXiv originado en abril de 2023 y actualizado en revisiones posteriores muestra que entrenar GPT‑3 en centros de datos de última generación puede evaporar alrededor de 700.000 litros de agua limpia destinados a refrigeración. Durante años esta huella hídrica quedó fuera del debate porque casi ningún proveedor la medía ni la comunicaba, y porque el impacto del entrenamiento se diluía detrás de cifras globales de consumo. Solo ahora, con estudios más precisos y con la presión por entender el coste físico de la IA, empieza a aparecer con claridad y a formar parte de la conversación pública.

A esto se suma el impacto estructural. Communications of the ACM advierte que la rápida expansión de los productos y servicios basados en IA está impulsando el consumo de los centros de datos a un ritmo sin precedentes, justo cuando muchos países intentan electrificar transporte, industria y hogares. El análisis, publicado en junio de 2025, señala que la apuesta por un modelo energético más eléctrico y cada vez más apoyado en renovables no avanza al mismo ritmo que la demanda que exige la IA, creando una presión creciente sobre unas redes que ya estaban en plena transformación.

MIT News confirma que la IA generativa es especialmente intensiva en electricidad y agua debido a la necesidad de refrigeración constante y al enorme volumen de cálculo que requieren estos modelos. El análisis, publicado en enero de 2025, muestra que la expansión de estos sistemas está empezando a generar tensiones reales en unas infraestructuras energéticas que ya avanzaban con dificultad hacia un modelo más eléctrico y renovable, evidenciando que la demanda asociada a la IA crece más rápido que la capacidad de adaptación de las redes.

La huella de CO₂ completa este panorama. Un análisis publicado en enero de 2025 en Patterns estimó que las emisiones asociadas al uso y desarrollo de sistemas de IA durante ese año alcanzaron niveles comparables a los de una ciudad como Nueva York, con hasta 80 millones de toneladas de CO₂. Es una cifra que supera el 8% de las emisiones globales de la aviación y que refleja una realidad incómoda: incluso con mejoras en eficiencia y un mayor peso de las renovables, la demanda energética impulsada por la IA crece más rápido que la capacidad de renovar la generación eléctrica.

Un estudio publicado en Nature Sustainability en noviembre de 2025 estima que la expansión de servidores de IA en Estados Unidos podría generar una huella hídrica anual de entre 731 y 1.125 millones de m³, junto con emisiones anuales adicionales de 24 a 44 Mt de CO₂ equivalente entre 2024 y 2030, en función de la escala de expansión. Son valores limitados a un solo país pero nos permiten imaginar un impacto mucho mayor en un escenario global. Afortunadamente, otro estudio dirigido por la Universidad de Cornell, también en noviembre de 2025, muestra que existe margen posible para reducir estos efectos: una planificación estratégica de los centros de datos, situándolos en regiones con abundancia de energía renovable , como los estados del centro norte de EE. UU., donde predominan los recursos eólicos, junto con una modernización acelerada de las redes y el uso de tecnologías de refrigeración más eficientes, podría recortar hasta un 73% las emisiones de carbono y un 86% el uso de agua.

Mientras tanto, producimos millones de interacciones que desaparecen en segundos: conversaciones que no se guardan, imágenes generadas por curiosidad, pruebas rápidas que duran lo que tarda en abrirse la siguiente. Cada una implica un consumo de agua y energía que suele pasar desapercibido. No se trata de culpabilizar al usuario, sino de recordar que detrás de cada petición hay un proceso material que ocurre en un mundo con recursos limitados.

La reflexión final no va de frenar la experimentación, sino de usar la IA con intención: recurrir a ella cuando aporta valor, cuando responde a una verdadera necesidad, cuando forma parte de un aprendizaje o de un trabajo concreto. Debemos, además, exigir que quienes diseñan, despliegan y regulan estas infraestructuras asuman la magnitud del impacto. Si la IA ya es un actor relevante en el consumo energético y en la presión hídrica, es imprescindible que las políticas de planificación, las inversiones corporativas y las decisiones públicas estén a la altura de ese impacto. La sostenibilidad no depende solo de cómo usamos estas herramientas, sino también de cómo se construye y se alimenta todo lo que las hace posibles.

Los vínculos resaltados en el texto anterior te dirigirán a los estudios y datos con los que ha sido elaborado este artículo, si quieres profundizar un poco más revisa estos enlaces de interés:

WifiTalents

Environmental Law Institute





28 feb 2026

El posible superconductor triplete que puede cambiar la computación cuántica

 







Si has oído hablar de computación cuántica, sabrás que promete resolver problemas que hoy son imposibles para los ordenadores clásicos. Pero también habrás visto que sus qubits son tan delicados que cualquier mínima perturbación puede desestabilizarlos y arruinar un cálculo. Esa vulnerabilidad es el gran freno del sector.

Por eso cada vez que aparece un material que podría aportar estabilidad cuántica sólida, la comunidad científica presta atención inmediata. Eso es lo que acaba de ocurrir en la Universidad Noruega de Ciencia y Tecnología (NTNU), donde un equipo de físicos ha detectado indicios de que una aleación de niobio y renio (NbRe) podría comportarse como un superconductor triplete.

Los superconductores triplete son tan raros que muchos los consideran el “santo grial” para construir ordenadores cuánticos realmente útiles. Si el NbRe confirma ese comportamiento, estaríamos ante un avance capaz de cambiar el rumbo de la tecnología cuántica.

Los superconductores convencionales ya son impresionantes: pueden conducir electricidad sin resistencia. Pero los triplete van un paso más allá y aportan justo lo que la computación cuántica necesita. No solo permiten el paso de corriente, también transportan espín, esa orientación magnética interna del electrón que actúa como una especie de “firma cuántica”. Si un material es capaz de conservar ese espín sin degradarlo, la información viaja protegida de forma natural y la corrección de errores —el gran cuello de botella actual— se reduce de manera drástica. Por eso una aleación como NbRe, si realmente mantiene ese espín de forma robusta, podría acercarnos a qubits mucho más estables y a ordenadores cuánticos más rápidos, precisos y eficientes. 

El experimento que encendió las alarmas mostró que el NbRe se comportaba de un modo que no encaja con los modelos convencionales: respuestas magnéticas y electrónicas que apuntan a un estado cuántico inusual. Ese resultado llamó la atención porque encaja con el trabajo que lidera Jacob Linder en NTNU, uno de los físicos más influyentes en materiales cuánticos y espintrónica. Su grupo, en colaboración con colegas italianos que realizaron las pruebas experimentales, publicó un artículo en Physical Review Letters donde describen propiedades compatibles con superconductividad triplete. Que el comportamiento observado en el laboratorio coincida con las predicciones que Linder lleva años desarrollando es lo que ha disparado el interés: sugiere que el NbRe podría ser, por fin, el candidato real que la comunidad lleva décadas buscando. 

Cuando un material así se confirme, su efecto no aparecerá en un aparato nuevo que puedas comprar, sino en la capa profunda de tecnología que hace que todo lo demás funcione. Los grandes sistemas que hoy dependen de cálculos intensivos, desde los centros de datos hasta las plataformas de investigación científica, podrían operar con una estabilidad y una eficiencia que ahora mismo solo se consiguen a base de enormes consumos energéticos. Simulaciones que requieren días o semanas pasarían a resolverse en horas, y esa aceleración se traduciría en medicamentos que llegan antes, materiales mejor diseñados y procesos industriales que avanzan con menos incertidumbre. También lo notarían los equipos médicos que trabajan con campos magnéticos intensos, que podrían volverse más compactos y precisos, y las tecnologías de transporte que necesitan un control magnético extremadamente fino. Para la gente común, el cambio no llega como un dispositivo nuevo, sino como una mejora silenciosa: servicios que fallan menos, diagnósticos más rápidos, productos que evolucionan más deprisa y una sensación general de que la tecnología deja de pelear contra sus límites. 

Los investigadores de NTNU prefieren mantener la cautela. Aún faltan verificaciones independientes y más pruebas que confirmen sin dudas que NbRe es realmente un superconductor triplete. En física de materiales cuánticos, cualquier resultado extraordinario necesita una base sólida y repetida antes de aceptarse.

Aun así, el hallazgo invita al optimismo. Si las señales observadas se confirman, estaríamos ante un avance capaz de reforzar la estabilidad de la tecnología cuántica y abrir una etapa más madura para este campo. No sería un cambio inmediato en el día a día, pero sí un paso importante en la dirección correcta.

Por ahora, toca esperar. Pero la posibilidad está ahí, y es lo bastante prometedora como para que la comunidad científica siga mirando de cerca a NbRe. 


26 feb 2026

Experiencia Panoramic Machu Picchu 360 en SANSAR









En Agosto de 2019 hicimos de acceso público una nueva experiencia en SANSAR que ofrece un recorrido panorámico por distintos enclaves de la Ciudadela Inca de Machu Picchu. Quienes siguen este blog desde hace años recordarán la virtualización completa de Machu Picchu que desarrollé en Second Life en 2010 para el proyecto Mundos Virtuales de la USMP - Universidad de San Martin de Porres en Perú, una recreación arquitectónica construida con prims y objetos mesh que podía recorrerse como un entorno 3D real.

Mas información en este articulo del Blog: 







La propuesta en SANSAR es diferente: en lugar de una reconstrucción estructural, se compone de varias esferas panorámicas en 360° que muestran puntos característicos de la ciudadela. El usuario se desplaza entre ellas mediante plataformas de teletransporte, creando un recorrido inmersivo y sencillo de explorar.







Las imágenes que acompañan este artículo muestran tanto el punto de inicio, con la plataforma de información y el teleport a la siguiente esfera panorámica, como a varios usuarios recorriendo uno de los escenarios dentro de la experiencia.

Este es el enlace de la experiencia en la web de SANSAR.
Este es el enlace a la experiencia dentro del mundo para acceder con el cliente de Sansar ejecutado en modo PC o VR.


18 feb 2026

IA: 5 avances de 2025 y lo que viene en 2026

 





Introducción

2025 fue el año en que la IA dejó de sentirse como una tecnología emergente y pasó a integrarse en la vida diaria. La mayoría de la gente empezó a notar ( a veces sin darse cuenta ) que la IA estaba presente en su móvil, en su ordenador, en las redes sociales y en las noticias. No hablamos de teoría, sino de cambios tangibles que se colaron en la rutina de millones de usuarios.

Aquí repasamos cinco avances reales y visibles de la IA en 2025 que la gran mayoría de personas ha experimentado, y una mirada rápida a lo que se puede esperar en 2026, aunque en este terreno las sorpresas son infinitas por la vertiginosa velocidad de los acontecimientos.


Los 5 avances de IA que marcaron 2025 

1. La IA multimodal se consolidó y llegó al usuario común

La multimodalidad significa que una IA puede trabajar con texto, imágenes, audio y video dentro de una misma plataforma. Antes estas capacidades estaban repartidas entre distintas aplicaciones; en 2025 se integraron en un solo sistema, y ese fue el cambio que notó el usuario.

Los modelos más avanzados del año fueron GPT‑5.2  (OpenAI), Gemini 3 (Google), Claude Opus 4.5 (Anthropic) y Grok 4.1 (xAI), todos capaces de combinar varios tipos de información en un único flujo de trabajo.

Ejemplos cotidianos de multimodalidad en 2025:
• Analizar un gráfico (imagen) junto a un texto de instrucciones y generar un resumen ejecutivo sin cambiar de herramienta.
• Apuntar la cámara del móvil y recibir una descripción en voz del entorno, lectura de etiquetas o respuestas sobre lo que se está viendo.
• Ver una foto de un lugar y preguntar por voz dónde es, obteniendo identificación, rutas, itinerario y recomendaciones.
• Procesar una reclamación de seguros revisando un PDF escaneado, una foto del daño y una nota manuscrita en una sola operación.
• Evaluar un currículum, una foto de perfil y un vídeo de presentación para ofrecer una valoración más completa.
• Generar imágenes a partir de descripciones en texto dentro de la misma herramienta.

Impacto: el usuario dejó de depender de varias aplicaciones distintas. Una sola IA podía cubrir tareas diversas y combinar información de diferentes formatos en un mismo sitio.

 

2. La IA empezó a funcionar dentro del móvil y el PC

2025 fue el año en que la inteligencia artificial generativa dejó de depender de la nube y empezó a funcionar directamente en móviles y ordenadores. Por primera vez, los dispositivos pudieron ejecutar funciones avanzadas de IA por sí mismos, sin enviar datos a servidores externos.

Avances en hardware: El lanzamiento del Snapdragon 8 Gen 4, las nuevas NPUs de Apple Silicon y los aceleradores Mali de Arm permitieron que los dispositivos procesaran tareas de IA complejas de forma local, con mayor velocidad y menor consumo.

Hitos claros de 2025:
Windows 11 (Actualización Q1 2025): los Copilot+ PC empezaron a ejecutar búsquedas, resúmenes y acciones rápidas sin conexión.
Android 15.1 (Q2 2025): la integración de Gemini Nano 2 hizo estándar la traducción, el análisis de imágenes y los resúmenes locales en móviles de gama alta.
iOS 18.4, iPadOS 18.4 y macOS Sequoia 15.4 (2025): Apple amplió Apple Intelligence, permitiendo procesar fotos, mensajes, notas y datos personales directamente en el dispositivo, sin depender de la nube.
Samsung Galaxy S25 Series: incorporó funciones de IA local como transcripción y resumen de llamadas, y un asistente de escritura capaz de reescribir, resumir o dar formato a textos directamente en el dispositivo, sin depender de servidores remotos.

Modelos más eficientes: OpenAI, Google y xAI lanzaron modelos compactos diseñados para funcionar sin conexión, capaces de analizar imágenes, entender texto y realizar tareas de productividad directamente en el dispositivo, con tiempos de respuesta mucho más rápidos.

Un cambio visible para el usuario: Gracias a la mejora conjunta del software y del hardware integrado en los dispositivos, tareas que antes requerían conexión —como traducir, resumir, editar fotos o analizar contenido— pasaron a ejecutarse de forma local, con mayor velocidad y sin exponer datos personales.

Impacto: Más privacidad, menos latencia y una IA siempre disponible.
2025 fue el año en que la inteligencia generativa dejó de estar “en la nube” y pasó a estar en el propio hardware del usuario.

 

3. Los vídeos y la música generados por IA se volvieron mucho más realistas y accesibles

La generación de vídeo y música por IA ya ofrecía buenos resultados antes de 2025, pero fue ese año cuando dio un salto visible para el público general. Los modelos empezaron a producir escenas, voces y canciones con mayor naturalidad y coherencia, y las herramientas se integraron en aplicaciones cotidianas, haciendo que muchos usuarios disfrutaran de estas nuevas funciones de forma natural y accesible.

Hitos claros de 2025: 

Sora (OpenAI): pasó de sus primeras versiones limitadas a convertirse en una herramienta mucho más madura y útil para creadores y medios, con vídeos más coherentes, realistas y con sonido integrado. Su llegada a una app móvil en 2025 acercó estas capacidades a un público mucho más amplio.
Pika 2.0: se consolidó como una de las herramientas más populares para generar y editar vídeo con IA, gracias a su facilidad de uso y a la mejora en la calidad de movimiento, iluminación y estilos. Su adopción creció especialmente entre creadores que buscaban resultados rápidos sin conocimientos técnicos.
Veo 3 (Google): destacó en 2025 por su capacidad para generar vídeos de alta calidad con audio sincronizado nativo, incluyendo diálogos, efectos y música en un solo paso. Su sincronización labial precisa lo convirtió en una herramienta muy utilizada para contenido tipo presentador, anuncios y vídeos educativos. Generaba clips cortos en 1080p, con movimientos naturales y una fidelidad física convincente, simplificando el flujo de trabajo al integrar vídeo y audio desde una única instrucción de texto.

HeyGen Avatar IV y ElevenLabs V3: en 2025 impulsaron la creación de presentadores virtuales mucho más naturales, combinando avatares con expresiones faciales realistas, microgestos y sincronización labial precisa con voces sintéticas de alta fidelidad. HeyGen permitía generar avatares expresivos a partir de una sola imagen, mientras que ElevenLabs aportaba voces con control de emoción, acento y tono. Juntas, ambas herramientas hicieron posible producir vídeos con un aspecto profesional sin necesidad de grabación ni estudio. 

Suno 5: en 2025 consolidó la evolución de la música generada por IA con mejoras claras en calidad de sonido, expresividad vocal y duración de las pistas. Las versiones intermedias, como Suno v4.5, ya habían ampliado la longitud máxima hasta varios minutos y ofrecían voces más naturales, pero Suno v5 llevó estas capacidades más lejos con un sonido de calidad de estudio, mejor reconocimiento de géneros y un control creativo más preciso sobre tempo, instrumentación y estilo. Su integración con Suno Studio permitió editar stems, reemplazar secciones y expandir ideas musicales sin necesidad de herramientas externas. Estos avances reforzaron a Suno como una plataforma clave para creadores y marcas, en un momento en el que la música generada por IA se convirtió en una opción accesible para creadores de contenido que necesitaban acompañamiento musical libre de derechos sin conocimientos de producción.

ElevenLabs (2025): amplió su capacidad de doblaje y traducción de voz a 29 idiomas, permitiendo localizar contenido audiovisual manteniendo el tono, la emoción y la identidad vocal del hablante original. Su herramienta Dubbing Studio facilitó la adaptación de vídeos, audiolibros y material educativo con una fidelidad muy alta, mientras que la versión v3 amplió el soporte a más de 70 idiomas, mejorando la cobertura global. Para usos en tiempo real, los modelos v2.5 Turbo y Flash siguieron siendo la opción recomendada por su baja latencia.

Lo que viste en 2025

2025 fue el año en el que la frontera entre lo real y lo generado por IA se volvió borrosa para el usuario común. Las redes sociales se llenaron de vídeos hiperrealistas que muchos tomaron por auténticos, y varios se volvieron virales antes de que se descubriera que eran sintéticos. Al mismo tiempo, la clonación de voz alcanzó un nivel de naturalidad que facilitó nuevas formas de creatividad, pero también provocó un aumento notable de estafas y suplantaciones. La conversación pública giró en torno a la autenticidad, la confianza y la necesidad de distinguir lo humano de lo generado por IA, en un entorno donde la tecnología avanzó más rápido que la capacidad social para identificarla.

 

4. La IA alcanzó alto grado de madurez clínica en el diagnóstico médico

En 2025, la inteligencia artificial dejó de ser una promesa y se consolidó como una herramienta clínica fiable. Modelos avanzados demostraron una precisión notable en casos complejos, llegando a superar a médicos experimentados en pruebas comparativas. Estos sistemas fueron capaces de analizar síntomas, solicitar pruebas, interpretar resultados y proponer diagnósticos con un nivel de acierto muy superior al de años anteriores.

En hospitales de distintos países se integraron soluciones de IA para radiografías, mamografías y resonancias, acelerando la detección de patologías como cáncer de mama, lesiones óseas o anomalías pulmonares. También se aplicaron modelos predictivos para estimar riesgos de enfermedades cardiovasculares, cáncer o diabetes a partir de historiales clínicos y factores genéticos.

Aunque estos avances mejoraron la precisión y redujeron tiempos de diagnóstico, surgieron debates sobre dependencia tecnológica, formación del personal y protección de datos. La visión predominante en 2025 fue clara: la IA no sustituyó al criterio médico, pero sí se convirtió en un asistente clínico real, capaz de aportar una segunda opinión sólida y de reforzar la toma de decisiones en entornos sanitarios.

 

5. Los agentes de IA comenzaron a realizar tareas completas de forma autónoma

En 2025, los agentes de inteligencia artificial dejaron de ser asistentes conversacionales para convertirse en sistemas capaces de completar tareas reales de forma autónoma. Tanto en entornos personales como empresariales, estos agentes comenzaron a actuar sobre aplicaciones, documentos y flujos de trabajo sin limitarse a responder preguntas.

Microsoft impulsó esta transición con agentes integrados en su ecosistema, capaces de tomar notas en reuniones, generar planes de trabajo, automatizar tareas en Planner, gestionar solicitudes internas o traducir conversaciones en tiempo real con voces naturales. Google avanzó en la misma dirección con agentes capaces de operar sobre Workspace, organizar información, resumir documentos y ejecutar acciones dentro de Gmail, Drive o Calendar. Plataformas como OpenAI, con sus agentes conectados a herramientas externas, permitieron automatizar procesos complejos sin necesidad de programación.

La aparición de entornos como Copilot Studio y herramientas equivalentes en otras plataformas facilitó que empresas y creadores diseñaran agentes personalizados sin conocimientos técnicos, acelerando su adopción. Aunque la supervisión humana siguió siendo necesaria, 2025 marcó el momento en que la automatización inteligente pasó de la teoría a la práctica, transformando la productividad en áreas como TI, recursos humanos, atención al cliente y gestión de proyectos.

Qué podemos esperar en 2026

2026 se perfila como un año en el que la inteligencia artificial podría sorprendernos incluso más de lo que imaginamos, fiel a esa idea inicial de que en este terreno las sorpresas son infinitas por la vertiginosa velocidad de los acontecimientos. Lo que estamos viendo en los primeros meses del año apunta a una evolución que ya no es solo digital, sino física, estructural y profundamente integrada en la vida cotidiana.

Los agentes de IA empiezan a mostrar una autonomía real, capaces de encadenar decisiones y ejecutar tareas completas sin supervisión constante. No se limitan a responder, sino que actúan: planifican, gestionan, corrigen y anticipan. Esta transición marca el inicio de una relación distinta entre personas y máquinas, más cercana a la colaboración que a la simple asistencia.

Al mismo tiempo, los modelos avanzan hacia una comprensión más profunda del mundo. Los llamados modelos de mundo permiten simular escenarios, razonar sobre causas y consecuencias y desenvolverse en entornos complejos, desde robots domésticos que siguen conversaciones hasta vehículos autónomos capaces de explicar su propio razonamiento. La IA empieza a ocupar espacio en el mundo físico, no solo en la pantalla.

La integración tecnológica se vuelve casi invisible. La IA se diluye en dispositivos, servicios y rutinas, como una infraestructura silenciosa que sostiene la actividad diaria. Móviles y ordenadores incorporan chips especializados que permiten ejecutar modelos avanzados sin conexión, y la interacción con máquinas se vuelve tan natural como hablar con otra persona.

En paralelo, el hardware vive una revolución silenciosa: nuevas arquitecturas reducen el coste energético y multiplican la capacidad de inferencia, abriendo la puerta a modelos más rápidos, más accesibles y menos dependientes de grandes centros de datos. Esta eficiencia será clave en un contexto global donde la competencia por el poder computacional se ha convertido en un asunto geopolítico.

La ciencia y la medicina también están cambiando. La IA ya no solo analiza datos: genera hipótesis, controla experimentos y participa activamente en procesos de descubrimiento. En salud, sistemas capaces de diagnosticar con precisión extraordinaria empiezan a aliviar la presión sobre profesionales y a acelerar la detección de enfermedades complejas.

Pero junto a los avances llegan nuevas tensiones. La sociedad se enfrenta a preguntas sobre dependencia tecnológica, privacidad, regulación y el impacto psicológico de convivir con sistemas cada vez más autónomos. Europa y Estados Unidos avanzan hacia normas más estrictas que obligan a etiquetar contenido generado por IA y a reforzar la protección de datos, intentando equilibrar innovación y control en un momento especialmente delicado.

Todo apunta a que 2026 será recordado como el año en que la IA dejó de ser una herramienta para convertirse en un aliado activo, presente en múltiples dimensiones del mundo real. Un año en el que la tecnología no solo avanzó: empezó a convivir con nosotros de una forma nueva, más cercana, más autónoma y, sobre todo, más impredecible. 

Fuentes recomendadas

OpenAI https://openai.com

Google DeepMind https://deepmind.google

Microsoft https://blogs.microsoft.com

Apple https://www.apple.com/newsroom

Nature https://www.nature.com

The Lancet https://www.thelancet.com

MIT Technology Review https://www.technologyreview.com










12 feb 2026

Misión Génesis: cuando la IA deja de ser un experimento y se convierte en estrategia de Estado

 







La Misión Génesis se anuncio oficialmente en Noviembre de 2025, pero cualquiera que observe el pulso tecnológico global sabe que esto llevaba tiempo gestándose. Estados Unidos no está improvisando: está ejecutando.

Génesis no es un programa de innovación. Es una arquitectura de poder diseñada para asegurar la supremacía tecnológica frente al resto del mundo.

El Departamento de Energía ha alineado a los 17 laboratorios nacionales dentro de una estrategia común de IA y supercomputación. La operación está dirigida por Darío Gil, ingeniero español y subsecretario de Ciencia e Innovación del DOE, encargado de coordinar la integración entre supercomputación, computación cuántica y modelos avanzados en una infraestructura científica compartida.

Las grandes tecnológicas —AWS, Microsoft, Google, Nvidia, AMD, Intel, Oracle, OpenAI— se han integrado en la misión. No como socios, sino como parte de un ecosistema nacional que busca acelerar descubrimientos, blindar la cadena de suministro y reducir cualquier dependencia exterior.

En Oak Ridge ya se despliegan los motores de esta nueva era: Lux, un clúster de IA operativo en 2026, y Discovery, una supercomputadora prevista para 2028 que superará a Frontier. Ambos forman la American Science Cloud, una nube científica nacional donde la IA no solo calcula: experimenta, decide y propone.

Génesis ya diseña reactores de fusión, descubre enzimas, predice propiedades cuánticas y crea digital twins de infraestructuras críticas. Y en septiembre de 2026 deberá superar su primer examen: resolver un desafío científico nacional.

Todo esto avanza entre recortes en EE.UU., tensiones geopolíticas y una cuestión de fondo que sigue abierta: una IA concebida para impulsar el bienestar de la humanidad puede transformarse en otra cosa si cambian las prioridades de quienes la controlan. La IA no es el problema. El problema es el propósito que se le asigna.

Mientras tanto, China acelera su propio modelo estatal de IA, combinando computación masiva, vigilancia, biotecnología y una estrategia industrial centralizada. Europa regula más de lo que innova. India crece. Corea e Israel empujan. Rusia sigue un camino distinto: menos infraestructura civil, más enfoque militar y cibernético.

El mundo entra en una fase donde la ciencia se guía tanto por experimentación como por estrategia. Génesis lo deja claro: una IA creada para ampliar nuestras capacidades que hoy se desarrollan en un contexto donde su propósito final ya no es técnico, sino geopolítico.

La pregunta no es si esto cambiará la ciencia. La pregunta es ¿ qué tipo de mundo nacerá cuando los Estados compitan por controlar la inteligencia que lo define todo?.

Fuentes oficiales

• U.S. Department of Energy – AI & Scientific Initiatives

https://www.energy.gov/science

• White House – Executive Orders on Artificial Intelligence

https://www.whitehouse.gov/briefing-room/presidential-actions/

• National Laboratories – Public Research Releases

https://www.energy.gov/national-laboratories

• NIST – AI Risk Management Framework

https://www.nist.gov/itl/ai-risk-management-framework 

Perspectivas de expertos

• Brookings Institution – Geopolitics of AI 

https://www.brookings.edu

• RAND Corporation – Strategic Competition

https://www.rand.org

• Kai-Fu Lee – China’s AI Strategy

https://sinovationventures.com

• Graham Allison – U.S.–China Technological Rivalry

https://www.belfercenter.org