Mostrando entradas con la etiqueta Articulos. Mostrar todas las entradas
Mostrando entradas con la etiqueta Articulos. Mostrar todas las entradas

18 feb 2026

IA: 5 avances de 2025 y lo que viene en 2026

 





Introducción

2025 fue el año en que la IA dejó de sentirse como una tecnología emergente y pasó a integrarse en la vida diaria. La mayoría de la gente empezó a notar ( a veces sin darse cuenta ) que la IA estaba presente en su móvil, en su ordenador, en las redes sociales y en las noticias. No hablamos de teoría, sino de cambios tangibles que se colaron en la rutina de millones de usuarios.

Aquí repasamos cinco avances reales y visibles de la IA en 2025 que la gran mayoría de personas ha experimentado, y una mirada rápida a lo que se puede esperar en 2026, aunque en este terreno las sorpresas son infinitas por la vertiginosa velocidad de los acontecimientos.


Los 5 avances de IA que marcaron 2025 

1. La IA multimodal se consolidó y llegó al usuario común

La multimodalidad significa que una IA puede trabajar con texto, imágenes, audio y video dentro de una misma plataforma. Antes estas capacidades estaban repartidas entre distintas aplicaciones; en 2025 se integraron en un solo sistema, y ese fue el cambio que notó el usuario.

Los modelos más avanzados del año fueron GPT‑5.2  (OpenAI), Gemini 3 (Google), Claude Opus 4.5 (Anthropic) y Grok 4.1 (xAI), todos capaces de combinar varios tipos de información en un único flujo de trabajo.

Ejemplos cotidianos de multimodalidad en 2025:
• Analizar un gráfico (imagen) junto a un texto de instrucciones y generar un resumen ejecutivo sin cambiar de herramienta.
• Apuntar la cámara del móvil y recibir una descripción en voz del entorno, lectura de etiquetas o respuestas sobre lo que se está viendo.
• Ver una foto de un lugar y preguntar por voz dónde es, obteniendo identificación, rutas, itinerario y recomendaciones.
• Procesar una reclamación de seguros revisando un PDF escaneado, una foto del daño y una nota manuscrita en una sola operación.
• Evaluar un currículum, una foto de perfil y un vídeo de presentación para ofrecer una valoración más completa.
• Generar imágenes a partir de descripciones en texto dentro de la misma herramienta.

Impacto: el usuario dejó de depender de varias aplicaciones distintas. Una sola IA podía cubrir tareas diversas y combinar información de diferentes formatos en un mismo sitio.

 

2. La IA empezó a funcionar dentro del móvil y el PC

2025 fue el año en que la inteligencia artificial generativa dejó de depender de la nube y empezó a funcionar directamente en móviles y ordenadores. Por primera vez, los dispositivos pudieron ejecutar funciones avanzadas de IA por sí mismos, sin enviar datos a servidores externos.

Avances en hardware: El lanzamiento del Snapdragon 8 Gen 4, las nuevas NPUs de Apple Silicon y los aceleradores Mali de Arm permitieron que los dispositivos procesaran tareas de IA complejas de forma local, con mayor velocidad y menor consumo.

Hitos claros de 2025:
Windows 11 (Actualización Q1 2025): los Copilot+ PC empezaron a ejecutar búsquedas, resúmenes y acciones rápidas sin conexión.
Android 15.1 (Q2 2025): la integración de Gemini Nano 2 hizo estándar la traducción, el análisis de imágenes y los resúmenes locales en móviles de gama alta.
iOS 18.4, iPadOS 18.4 y macOS Sequoia 15.4 (2025): Apple amplió Apple Intelligence, permitiendo procesar fotos, mensajes, notas y datos personales directamente en el dispositivo, sin depender de la nube.
Samsung Galaxy S25 Series: incorporó funciones de IA local como transcripción y resumen de llamadas, y un asistente de escritura capaz de reescribir, resumir o dar formato a textos directamente en el dispositivo, sin depender de servidores remotos.

Modelos más eficientes: OpenAI, Google y xAI lanzaron modelos compactos diseñados para funcionar sin conexión, capaces de analizar imágenes, entender texto y realizar tareas de productividad directamente en el dispositivo, con tiempos de respuesta mucho más rápidos.

Un cambio visible para el usuario: Gracias a la mejora conjunta del software y del hardware integrado en los dispositivos, tareas que antes requerían conexión —como traducir, resumir, editar fotos o analizar contenido— pasaron a ejecutarse de forma local, con mayor velocidad y sin exponer datos personales.

Impacto: Más privacidad, menos latencia y una IA siempre disponible.
2025 fue el año en que la inteligencia generativa dejó de estar “en la nube” y pasó a estar en el propio hardware del usuario.

 

3. Los vídeos y la música generados por IA se volvieron mucho más realistas y accesibles

La generación de vídeo y música por IA ya ofrecía buenos resultados antes de 2025, pero fue ese año cuando dio un salto visible para el público general. Los modelos empezaron a producir escenas, voces y canciones con mayor naturalidad y coherencia, y las herramientas se integraron en aplicaciones cotidianas, haciendo que muchos usuarios disfrutaran de estas nuevas funciones de forma natural y accesible.

Hitos claros de 2025: 

Sora (OpenAI): pasó de sus primeras versiones limitadas a convertirse en una herramienta mucho más madura y útil para creadores y medios, con vídeos más coherentes, realistas y con sonido integrado. Su llegada a una app móvil en 2025 acercó estas capacidades a un público mucho más amplio.
Pika 2.0: se consolidó como una de las herramientas más populares para generar y editar vídeo con IA, gracias a su facilidad de uso y a la mejora en la calidad de movimiento, iluminación y estilos. Su adopción creció especialmente entre creadores que buscaban resultados rápidos sin conocimientos técnicos.
Veo 3 (Google): destacó en 2025 por su capacidad para generar vídeos de alta calidad con audio sincronizado nativo, incluyendo diálogos, efectos y música en un solo paso. Su sincronización labial precisa lo convirtió en una herramienta muy utilizada para contenido tipo presentador, anuncios y vídeos educativos. Generaba clips cortos en 1080p, con movimientos naturales y una fidelidad física convincente, simplificando el flujo de trabajo al integrar vídeo y audio desde una única instrucción de texto.

HeyGen Avatar IV y ElevenLabs V3: en 2025 impulsaron la creación de presentadores virtuales mucho más naturales, combinando avatares con expresiones faciales realistas, microgestos y sincronización labial precisa con voces sintéticas de alta fidelidad. HeyGen permitía generar avatares expresivos a partir de una sola imagen, mientras que ElevenLabs aportaba voces con control de emoción, acento y tono. Juntas, ambas herramientas hicieron posible producir vídeos con un aspecto profesional sin necesidad de grabación ni estudio. 

Suno 5: en 2025 consolidó la evolución de la música generada por IA con mejoras claras en calidad de sonido, expresividad vocal y duración de las pistas. Las versiones intermedias, como Suno v4.5, ya habían ampliado la longitud máxima hasta varios minutos y ofrecían voces más naturales, pero Suno v5 llevó estas capacidades más lejos con un sonido de calidad de estudio, mejor reconocimiento de géneros y un control creativo más preciso sobre tempo, instrumentación y estilo. Su integración con Suno Studio permitió editar stems, reemplazar secciones y expandir ideas musicales sin necesidad de herramientas externas. Estos avances reforzaron a Suno como una plataforma clave para creadores y marcas, en un momento en el que la música generada por IA se convirtió en una opción accesible para creadores de contenido que necesitaban acompañamiento musical libre de derechos sin conocimientos de producción.

ElevenLabs (2025): amplió su capacidad de doblaje y traducción de voz a 29 idiomas, permitiendo localizar contenido audiovisual manteniendo el tono, la emoción y la identidad vocal del hablante original. Su herramienta Dubbing Studio facilitó la adaptación de vídeos, audiolibros y material educativo con una fidelidad muy alta, mientras que la versión v3 amplió el soporte a más de 70 idiomas, mejorando la cobertura global. Para usos en tiempo real, los modelos v2.5 Turbo y Flash siguieron siendo la opción recomendada por su baja latencia.

Lo que viste en 2025

2025 fue el año en el que la frontera entre lo real y lo generado por IA se volvió borrosa para el usuario común. Las redes sociales se llenaron de vídeos hiperrealistas que muchos tomaron por auténticos, y varios se volvieron virales antes de que se descubriera que eran sintéticos. Al mismo tiempo, la clonación de voz alcanzó un nivel de naturalidad que facilitó nuevas formas de creatividad, pero también provocó un aumento notable de estafas y suplantaciones. La conversación pública giró en torno a la autenticidad, la confianza y la necesidad de distinguir lo humano de lo generado por IA, en un entorno donde la tecnología avanzó más rápido que la capacidad social para identificarla.

 

4. La IA alcanzó alto grado de madurez clínica en el diagnóstico médico

En 2025, la inteligencia artificial dejó de ser una promesa y se consolidó como una herramienta clínica fiable. Modelos avanzados demostraron una precisión notable en casos complejos, llegando a superar a médicos experimentados en pruebas comparativas. Estos sistemas fueron capaces de analizar síntomas, solicitar pruebas, interpretar resultados y proponer diagnósticos con un nivel de acierto muy superior al de años anteriores.

En hospitales de distintos países se integraron soluciones de IA para radiografías, mamografías y resonancias, acelerando la detección de patologías como cáncer de mama, lesiones óseas o anomalías pulmonares. También se aplicaron modelos predictivos para estimar riesgos de enfermedades cardiovasculares, cáncer o diabetes a partir de historiales clínicos y factores genéticos.

Aunque estos avances mejoraron la precisión y redujeron tiempos de diagnóstico, surgieron debates sobre dependencia tecnológica, formación del personal y protección de datos. La visión predominante en 2025 fue clara: la IA no sustituyó al criterio médico, pero sí se convirtió en un asistente clínico real, capaz de aportar una segunda opinión sólida y de reforzar la toma de decisiones en entornos sanitarios.

 

5. Los agentes de IA comenzaron a realizar tareas completas de forma autónoma

En 2025, los agentes de inteligencia artificial dejaron de ser asistentes conversacionales para convertirse en sistemas capaces de completar tareas reales de forma autónoma. Tanto en entornos personales como empresariales, estos agentes comenzaron a actuar sobre aplicaciones, documentos y flujos de trabajo sin limitarse a responder preguntas.

Microsoft impulsó esta transición con agentes integrados en su ecosistema, capaces de tomar notas en reuniones, generar planes de trabajo, automatizar tareas en Planner, gestionar solicitudes internas o traducir conversaciones en tiempo real con voces naturales. Google avanzó en la misma dirección con agentes capaces de operar sobre Workspace, organizar información, resumir documentos y ejecutar acciones dentro de Gmail, Drive o Calendar. Plataformas como OpenAI, con sus agentes conectados a herramientas externas, permitieron automatizar procesos complejos sin necesidad de programación.

La aparición de entornos como Copilot Studio y herramientas equivalentes en otras plataformas facilitó que empresas y creadores diseñaran agentes personalizados sin conocimientos técnicos, acelerando su adopción. Aunque la supervisión humana siguió siendo necesaria, 2025 marcó el momento en que la automatización inteligente pasó de la teoría a la práctica, transformando la productividad en áreas como TI, recursos humanos, atención al cliente y gestión de proyectos.

Qué podemos esperar en 2026

2026 se perfila como un año en el que la inteligencia artificial podría sorprendernos incluso más de lo que imaginamos, fiel a esa idea inicial de que en este terreno las sorpresas son infinitas por la vertiginosa velocidad de los acontecimientos. Lo que estamos viendo en los primeros meses del año apunta a una evolución que ya no es solo digital, sino física, estructural y profundamente integrada en la vida cotidiana.

Los agentes de IA empiezan a mostrar una autonomía real, capaces de encadenar decisiones y ejecutar tareas completas sin supervisión constante. No se limitan a responder, sino que actúan: planifican, gestionan, corrigen y anticipan. Esta transición marca el inicio de una relación distinta entre personas y máquinas, más cercana a la colaboración que a la simple asistencia.

Al mismo tiempo, los modelos avanzan hacia una comprensión más profunda del mundo. Los llamados modelos de mundo permiten simular escenarios, razonar sobre causas y consecuencias y desenvolverse en entornos complejos, desde robots domésticos que siguen conversaciones hasta vehículos autónomos capaces de explicar su propio razonamiento. La IA empieza a ocupar espacio en el mundo físico, no solo en la pantalla.

La integración tecnológica se vuelve casi invisible. La IA se diluye en dispositivos, servicios y rutinas, como una infraestructura silenciosa que sostiene la actividad diaria. Móviles y ordenadores incorporan chips especializados que permiten ejecutar modelos avanzados sin conexión, y la interacción con máquinas se vuelve tan natural como hablar con otra persona.

En paralelo, el hardware vive una revolución silenciosa: nuevas arquitecturas reducen el coste energético y multiplican la capacidad de inferencia, abriendo la puerta a modelos más rápidos, más accesibles y menos dependientes de grandes centros de datos. Esta eficiencia será clave en un contexto global donde la competencia por el poder computacional se ha convertido en un asunto geopolítico.

La ciencia y la medicina también están cambiando. La IA ya no solo analiza datos: genera hipótesis, controla experimentos y participa activamente en procesos de descubrimiento. En salud, sistemas capaces de diagnosticar con precisión extraordinaria empiezan a aliviar la presión sobre profesionales y a acelerar la detección de enfermedades complejas.

Pero junto a los avances llegan nuevas tensiones. La sociedad se enfrenta a preguntas sobre dependencia tecnológica, privacidad, regulación y el impacto psicológico de convivir con sistemas cada vez más autónomos. Europa y Estados Unidos avanzan hacia normas más estrictas que obligan a etiquetar contenido generado por IA y a reforzar la protección de datos, intentando equilibrar innovación y control en un momento especialmente delicado.

Todo apunta a que 2026 será recordado como el año en que la IA dejó de ser una herramienta para convertirse en un aliado activo, presente en múltiples dimensiones del mundo real. Un año en el que la tecnología no solo avanzó: empezó a convivir con nosotros de una forma nueva, más cercana, más autónoma y, sobre todo, más impredecible. 

Fuentes recomendadas

OpenAI https://openai.com

Google DeepMind https://deepmind.google

Microsoft https://blogs.microsoft.com

Apple https://www.apple.com/newsroom

Nature https://www.nature.com

The Lancet https://www.thelancet.com

MIT Technology Review https://www.technologyreview.com










12 feb 2026

Misión Génesis: cuando la IA deja de ser un experimento y se convierte en estrategia de Estado

 







La Misión Génesis se anuncio oficialmente en Noviembre de 2025, pero cualquiera que observe el pulso tecnológico global sabe que esto llevaba tiempo gestándose. Estados Unidos no está improvisando: está ejecutando.

Génesis no es un programa de innovación. Es una arquitectura de poder diseñada para asegurar la supremacía tecnológica frente al resto del mundo.

El Departamento de Energía ha alineado a los 17 laboratorios nacionales dentro de una estrategia común de IA y supercomputación. La operación está dirigida por Darío Gil, ingeniero español y subsecretario de Ciencia e Innovación del DOE, encargado de coordinar la integración entre supercomputación, computación cuántica y modelos avanzados en una infraestructura científica compartida.

Las grandes tecnológicas —AWS, Microsoft, Google, Nvidia, AMD, Intel, Oracle, OpenAI— se han integrado en la misión. No como socios, sino como parte de un ecosistema nacional que busca acelerar descubrimientos, blindar la cadena de suministro y reducir cualquier dependencia exterior.

En Oak Ridge ya se despliegan los motores de esta nueva era: Lux, un clúster de IA operativo en 2026, y Discovery, una supercomputadora prevista para 2028 que superará a Frontier. Ambos forman la American Science Cloud, una nube científica nacional donde la IA no solo calcula: experimenta, decide y propone.

Génesis ya diseña reactores de fusión, descubre enzimas, predice propiedades cuánticas y crea digital twins de infraestructuras críticas. Y en septiembre de 2026 deberá superar su primer examen: resolver un desafío científico nacional.

Todo esto avanza entre recortes en EE.UU., tensiones geopolíticas y una cuestión de fondo que sigue abierta: una IA concebida para impulsar el bienestar de la humanidad puede transformarse en otra cosa si cambian las prioridades de quienes la controlan. La IA no es el problema. El problema es el propósito que se le asigna.

Mientras tanto, China acelera su propio modelo estatal de IA, combinando computación masiva, vigilancia, biotecnología y una estrategia industrial centralizada. Europa regula más de lo que innova. India crece. Corea e Israel empujan. Rusia sigue un camino distinto: menos infraestructura civil, más enfoque militar y cibernético.

El mundo entra en una fase donde la ciencia se guía tanto por experimentación como por estrategia. Génesis lo deja claro: una IA creada para ampliar nuestras capacidades que hoy se desarrollan en un contexto donde su propósito final ya no es técnico, sino geopolítico.

La pregunta no es si esto cambiará la ciencia. La pregunta es ¿ qué tipo de mundo nacerá cuando los Estados compitan por controlar la inteligencia que lo define todo?.

Fuentes oficiales

• U.S. Department of Energy – AI & Scientific Initiatives

https://www.energy.gov/science

• White House – Executive Orders on Artificial Intelligence

https://www.whitehouse.gov/briefing-room/presidential-actions/

• National Laboratories – Public Research Releases

https://www.energy.gov/national-laboratories

• NIST – AI Risk Management Framework

https://www.nist.gov/itl/ai-risk-management-framework 

Perspectivas de expertos

• Brookings Institution – Geopolitics of AI 

https://www.brookings.edu

• RAND Corporation – Strategic Competition

https://www.rand.org

• Kai-Fu Lee – China’s AI Strategy

https://sinovationventures.com

• Graham Allison – U.S.–China Technological Rivalry

https://www.belfercenter.org


TeknoArtia – TKA 2.0 – Regreso, rumbo y propósito

TeknoArtia – TKA vuelve.






Después de tres años de silencio en esta casa, donde compartimos investigación, experiencias y reflexiones sobre los Mundos Virtuales, regresamos con un rumbo y un propósito renovados.

Los principales proyectos en los que participamos llegaron a su fin hace tiempo. Aun así, seguimos explorando plataformas como SANSAR y dejando algún registro ocasional. Pero las publicaciones fueron perdiendo ritmo, y la última entrada quedó fechada el 21 de agosto de 2023. Simplemente, ya no había mucho que aportar sobre los temas habituales.

Mientras tanto, la tecnología ha cambiado más rápido que nunca: inteligencia artificial, metaversos, automatización, nuevas formas de conciencia digital. El mundo ya no es el mismo, y el renacer de este blog tampoco puede serlo.

TeknoArtia – TKA 2.0 nace con un propósito claro: explorar, cuestionar y experimentar. Aquí hablaremos de IA, cultura tecnológica, geopolítica digital, creatividad aumentada y todo aquello que define esta nueva era híbrida entre humanos y máquinas.

No es un regreso nostálgico. Es una actualización necesaria.

A partir de hoy, TeknoArtia – TKA inicia una nueva etapa, más
enfocada y alineada con los cambios tecnológicos que estamos viviendo. En las próximas semanas llegarán contenidos que marcarán el rumbo de esta nueva fase.

Esto es solo el inicio.

21 ago 2023

El Nuevo Avatar Básico en Mesh de Second Life


En el vibrante mundo virtual de Second Life, la evolución es constante, y las sorpresas nunca están lejos. Recientemente, los residentes y creadores de contenido de Second Life fueron testigos de un emocionante anuncio oficial que promete transformar la experiencia del avatar y la personalización en esta plataforma. El 1 de agosto de 2023, Linden Lab presentó oficialmente el nuevo avatar básico en mesh bajo el nombre de "Senra". Esta creación revoluciona el mundo de Second Life al llevar la personalización y el estilo de los avatares a nuevas alturas.



Avatares Senra Blake y Jamie


Desde su icónico lanzamiento, Second Life ha experimentado un viaje de inmersión virtual, con innumerables avatares que representan a los residentes en el mundo digital. Entre estos avatares, uno de los más antiguos y emblemáticos fue Ruth, un avatar básico y personalizable que marcó el comienzo de muchas aventuras virtuales. Ruth, con su estilo clásico, sirvió como el pionero de muchas historias dentro de Second Life y se ha mantenido disponible en la biblioteca que contiene por defecto el inventario de los usuarios de esta plataforma. Las posibilidades del avatar y su realismo mejoran con la introducción de la tecnología de mallas y la posibilidad del avatar mesh en 2011 que posteriormente mejora con la función Bake on Mesh (BoM), que permite a los usuarios usar avatares mesh sin tener que renunciar a la compatibilidad con los objetos y animaciones existentes. BoM permite que los avatares mesh interactúen con los objetos y animaciones del mundo de Second Life de la misma manera que los avatares tradicionales. El mercado crece en la oferta de este tipo de avatares con una singular variedad de marcas de cuerpos Mesh como: Maitreya, Belleza, Slink, eBody, Altamura, Legacy, Tonic…., así como de ropa, complementos y accesorios que en ocasiones debían adaptarse a cada marca.

Además de la oferta en el mercado de avatares mesh de gran calidad, Linden Lab fue incluyendo algunos avatares mesh en la biblioteca del inventario y para el usuario inicial, si bien estos eran bastante básicos en comparación a la oferta en el mercado.

Mientras que en el pasado los avatares en mesh con cierta calidad requerían una inversión, Senra marca un cambio radical al ofrecer avatares básicos en mesh de forma gratuita a los nuevos residentes. En el emocionante evento SLB20, Linden Lab presentó dos avatares Senra: Blake para hombres y Jamie para mujeres, ambos disponibles en la librería de inventario desde el 1 de Agosto. Esta transición no solo representa un paso adelante en la personalización de avatares, sino también un nuevo enfoque en la accesibilidad para los recién llegados.Lo que hace que Senra sea verdaderamente excepcional es su capacidad para aprovechar las últimas capacidades tecnológicas dentro de Second Life. Estos avatares en mesh incorporan cuerpos y cabezas en 3D, utilizando la flexibilidad del esqueleto "Bento" y características como Bakes on Mesh para brindar una personalización más rica y realista. Senra ofrece una gama de opciones, desde variaciones en la forma del cuerpo hasta tonos de piel, estilos de cabello y más. Esta es una nueva era de posibilidades de avatar, que ofrece a los residentes una libertad creativa sin precedentes.


Para los desarrolladores y creadores de contenido, la introducción de Senra plantea nuevos desafíos y oportunidades. La capacidad de personalizar y crear contenido para estos avatares en mesh abre puertas a experiencias y estilos únicos. Sin embargo, este cambio también requiere adaptación y comprensión de nuevas herramientas, como el Kit de Desarrollo Senra. Este kit Que brinda a los creadores las herramientas para crear contenido compatible con Senra, pero también exige un proceso de aprendizaje y familiarización. Para recibir el Kit debe de seguir un proceso de solicitud y aprobación por parte de Linden Lab a través del uno de los enlaces que brinda Patch Linden en el siguiente post del foro de Second life: Senra Body SDK Applications Now Open

A medida que exploramos este emocionante nuevo capítulo en Second Life, es importante recordar el viaje que nos llevó hasta aquí. Desde Rhut hasta Senra, hemos visto un cambio asombroso en la tecnología y la creatividad. Con Senra, los residentes pueden experimentar la transformación del avatar básico y la personalización en una nueva dimensión. Es un testimonio del compromiso de Linden Lab con la innovación y la evolución continua.

En conclusión, el lanzamiento del nuevo avatar básico en mesh, Senra, marca una transición emocionante en Second Life. Desde su anuncio oficial, hasta las discusiones en los foros que enfrenta sus ventajas y desafíos para los desarrolladores, este cambio representa un hito en la historia de la plataforma. A medida que los residentes se sumergen en la personalización avanzada y las posibilidades de avatar sin límites, es claro que el futuro de Second Life es tan emocionante y vibrante como su pasado.

16 ago 2023

Somnium Space y Sansar: Uniendo Fuerzas para una Experiencia Metaverso Unificada

El 31 de julio marcó un hito en el metaverso cuando Somnium Space, una influyente plataforma de realidad virtual (RV) y blockchain, anunció su emocionante inversión estratégica en Sansar, un destino destacado para la RV social. Esta colaboración no solo demuestra la creciente interconexión entre plataformas, sino que también promete un futuro de interoperabilidad total en el metaverso.

 

 
Creando un Ecosistema Conectado:

La alianza entre Somnium Space y Sansar trae consigo la integración del revolucionario "VR Transaction Pipeline" en la plataforma de Sansar. Esto allana el camino para un mercado blockchain interplataforma impulsado por el token de utilidad de Somnium, CUBE, permitiendo transacciones fluidas en RV que trascienden aplicaciones y metaversos.
 
Empoderando Avatares y Teletransportación:

Un aspecto crucial de esta asociación es la interoperabilidad de avatares, lo que permite a los creadores vender avatares en ambos mundos. Además, la emocionante función de teletransportación entre mundos permite transiciones sin esfuerzo entre aplicaciones en cuestión de segundos, transformando la experiencia del usuario.
 
Eventos Unificados y Experiencias Compartidas:

Más allá de la tecnología, esta asociación busca una visión compartida. La capacidad de experimentar eventos entre mundos y su visualización simultánea en diferentes plataformas acerca a los usuarios, creando un metaverso más conectado e inclusivo.
 
Autonomía del Usuario y Descentralización:

El enfoque clave es un sistema de identidad descentralizada, otorgando a los usuarios control total sobre sus identidades virtuales y actividades económicas en varias plataformas. Esto asegura privacidad y seguridad, permitiendo un compromiso fluido en actividades económicas.
 
Un Viaje Compartido hacia el Futuro:

Somnium Space y Sansar se esfuerzan por lograr la paridad de funciones para 2024, ofreciendo una experiencia inmersiva en ambas plataformas. Este compromiso va más allá de la tecnología, hacia una visión compartida de un metaverso unificado.
 
¿Metaverso o Mundo Virtual?:

La terminología puede variar entre "metaverso" y "mundo virtual", ambas son utilizadas indistintamente. Es esencial entender la diferencia entre la RV y el metaverso: la RV ofrece experiencias virtuales, mientras que el metaverso es persistente y accesible en múltiples dispositivos.
 
Importancia de la Comunidad:

Las comunidades en los metaversos son cruciales, permiten interacciones únicas. Esto crea un sentido de pertenencia y conexión que hace que los metaversos sean atractivos. Somnium Space y Sansar tienen comunidades activas, generando experiencias más sociales.
 
Conclusión:

La inversión de Somnium Space en Sansar marca un hito en el metaverso. Esta asociación no solo une tecnología, sino también visiones. A medida que ambos mundos se unen, el futuro del metaverso se vislumbra más vibrante, diverso y accesible que nunca.

18 mar 2019

Exposicion de Arte en Realidad Virtual

En Septiembre de 2017, publicamos un articulo sobre Sansar, el nuevo mundo virtual de Linden Lab optimizado para el uso de dispositivos de realidad virtual y que puede ser utilizado en modo escritorio.

Iniciamos este año implicándonos más en el manejo y creación dentro de esta plataforma que actualmente es de acceso gratuito y brinda al usuario la oportunidad de generar 20 experiencias gratuitas, estas pueden ser configuradas para delimitar su acceso o publicarlas en el Atlas con acceso público.

Nace la idea de crear una experiencia, TeKnoArtia Gallery , basándonos en un edificio de 2 plantas, con base cuadrada de 50 mtrs. cada lado, fué modelado en 3dsMax e importado a Sansar, seguido de otros elementos, como puertas, muros divisorios adaptables, elementos decorativos...etc.



Con todo ello asentado en la plataforma, estaba el escenario esperando ofrecer algo de calidad al visitante. Contactamos con Orlando Castro Ortiz, un gran Artista de Puerto Rico, con quien tuvimos el placer de compartir experiencias entrañables siendo uno de los entrevistados en De TÚ a TÚ Reinventando el Arte - 2013 , a quien felicitamos por ser el primer Artista de habla española del mundo en exponer en una galería de realidad virtual, dentro de la plataforma de Sansar y al que agradecemos lo haga con nuestra colaboración.




Orlando expone la colección Panoramas, creadas con barras de oleo (Oil stick) y pintura oleo sobre canvas de 2014 y 2015, es una pequeña parte de su extensa obra pero seguro que próximamente más colecciones de su arte se verán expresadas  en Sansar.




Cuando el visitante se adentra en el showroom donde se expone la colección, lo primero que encuentra es información de Orlando y la colección que se expone. Una presentación de la obra por el propio autor, su trayectoria artística, catálogo de la exposición e incluso escuchará o podrá visualizar el vídeo de la entrevista referente a esta colección en el programa Veo Veo de Bonita Radio .




Se recomienda al visitante que acceda en modo escritorio, lo haga con vista subjetiva para disfrutar de una mayor inmersión y contemplación de los cuadros, En la virtualización de esta colección hemos intentado cuidar cada detalle para dotarlo del mayor realismo y comodidad para el visitante.




Hay una zona del showroom que muestra la siguiente imagen donde se expone  uno de los cuadros más destacados de esta colección, Zona Volcánica que pertenece a la colección del Museo Caribbean University de Puerto Rico; también se puede ver un caballete con un lienzo en el que se comunica al visitante que al acercarse, recibirá un enlace en su chat del punto de venta online de Orlando en Artelista, donde podrá informarse sobre los cuadros disponibles para su adquisición, algunos de ellos pertenecientes a esta colección.




Te invitamos a vivir esta exposición en el mundo de Sansar, ingresa en él como usuario y sigue este enlace en su Atlas. Síguenos en próximas publicaciones y redes sociales y haznos llegar tus ideas, dudas y comentarios.

3 sept 2017

Los Mundos Virtuales de Linden Lab y la Realidad Virtual

Linden lab es una compañía precursora de los mundos virtuales y la realidad virtual fundada en 1999 con sede en San Francisco y oficinas en Seattle, Boston, Davis y Charlottesville. Su fundador y CEO original Philip Rosedale ha sabido rodearse de un equipo entusiasta, con numerosos veteranos de alta tecnología, incluyendo ex ejecutivos de Electronic Arts , eBay , Disney , Adobe y Apple.




La intención inicial de la compañía, fue el desarrollo y comercialización de hardware que permitiera al usuario la inmersión en un mundo virtual, creando un prototipo visto como una estructura metálica, con monitores en su entorno que fue conocido como "The Rig". Esa intención acertadamente como el tiempo lo demuestra, se transforma en la aplicación de software Linden World, en la que diferentes usuarios participaban en juegos basados en tareas y podían socializar en un entorno tridimensional en línea. Esa experiencia culminaría en 2003 con el lanzamiento de Second Life que aunque no fue el primer mundo virtual en línea, se ha consolidado como el referente de los mismos por excelencia, avalado por los millones de personas que lo han disfrutado.

Durante la fase experimental de este mundo virtual, Philip Rosedale en una junta de accionistas en 2001 subraya como los usuarios participantes se muestran muy receptivos al alto potencial colaborativo y creativo de la plataforma que se está gestando. Como resultado, el planteamiento inicial orientado hacia el juego y enfocado a conseguir objetivos, se reorienta a una experiencia más creada por el usuario sin objetivos definidos y dirigida por la comunidad.

Sin duda el gran éxito de esta plataforma y lo que le diferenció de sus competidores radica en el protagonismo otorgado a la comunidad de usuarios, que generan una experiencia social y creativa, la capacidad para que el usuario se identifique y personalice el avatar que le representa, el nivel de interacción con otros usuarios y el entorno, así como la libertad de crear contenidos, ofrecer servicios o poseer terrenos, bienes virtuales con los que poder comerciar, ya que cuenta con su propia economía y moneda virtual conocida como dólar Linden $L, que tiene una equivalencia variable al cambio para compra y venta a USD., habiéndose registrado miles de millones de dólares de transacciones entre usuarios a lo largo de una historia que aún continúa con mucha actividad, en este mundo virtual.

En estos últimos 14 años se ha hablado mucho del potencial de los mundos virtuales y por supuesto de Second Life, el cual alcanzó un boom mediático entre los años 2005 y 2007, como es lógico dado que las expectativas que se plantearon por aquel entonces no correspondían a la evolución real que esta tecnología podía tener en esos momentos, los años siguientes los medios o bien lo ignoraron, o se refirieron a esta plataforma como una tecnología fallida, sin embargo debemos tener en cuenta que realmente SL estaba varios años avanzada a la media de recursos de ancho de banda y poder en los equipos ( CPU y tarjeta gráfica ) de la media de usuarios para una experiencia óptima, como para así producirse esa masificación pronosticada en aquellos años, algo que es más factible en estos días, debido al crecimiento en poder de ancho de banda y una media más extensa de los equipos requeridos en casi todas las partes del mundo, a lo que sumamos la optimización tecnológica continua por parte de Linden lab a lo largo de los años.

En los últimos años las expectativas de que la realidad virtual se abra al gran público han tomado fuerza, con gran impacto mediático y proliferación de dispositivos, debemos tener en cuenta que los mundos virtuales son realidad virtual que no es totalmente inmersiva, si bien para disfrutar de una inmersión total en un Muve ,  requeriremos de algún dispositivo de RV, ya que la realidad virtual totalmente inmersiva, está basada en hardware, las conocidas gafas o casco de realidad virtual  puede ir acompañado de otros dispositivos y software que genera el entorno basado en proyección de imágenes u objetos 3D, por eso cuando hablamos de realidad virtual no debemos limitarnos solo a los dispositivos que son una parte muy importante de esta tecnología, pero algo inútil sin el escenario virtual donde nos vamos a sumergir con ese casco de RV, como puede ser un mundo virtual.

Second Life también ha sido referente en la experimentación de dispositivos de RV, en ocasiones por investigaciones independientes y de forma más directa por linden lab llegando a dar soporte a su acceso con Oculus Rift en modo experimental, algo que abandonó ya que adaptar la plataforma, para una experiencia optima a parámetros y requisitos de los dispositivos como Oulus Rift y  HTC Vive era inviable.

En 2014 Ebbe Altberg el actual CEO de Linden Lab en una de sus reuniones con usuarios de Second Life les anuncia el proyecto de otro mundo virtual que se alimentaría de lo mejor de la experiencia social de Second Life pero estaría tecnológicamente optimizado para dispositivos de Realidad virtual y para que los creadores puedan generar ambientes más realistas, tras un periodo de desarrollo inicial y testeo de usuarios creadores de contenidos seleccionados por Linden Lab, este proyecto con el nombre Sansar ve la luz en su versión beta en Julio de 2017 y muchos usuarios principalmente de Second Life comienzan a visitarlo y generar experiencias, al tiempo que se van añadiendo prestaciones manteniendo un continuo feedback con los usuarios, la plataforma puede ser utilizada también sin dispositivo Oculus Rift o HTC Vive, lógicamente los requisitos de sistema varían de un caso al otro.

No profundizaré más en el uso de Sansar y la evolución apreciada en estos dos meses, ya que hay mucho contenido en videos, tutoriales, artículos en blogs y en los propios foros de la plataforma, si acaso en alguna otra ocasión, solo decir que nuestras primeras impresiones han sido muy positivas y avisar a los usuarios de Second Life, que entren por primera vez, que aunque Linden lab refleja mucho de la esencia y experiencia de su primer mundo virtual en Sansar, os encontrareis mundos totalmente distintos.

Second life no va a desaparecer ni quedará desatendido, sino muy al contrario, se anuncian mejoras en toda su estructura para moverlo a la nube, y novedades en la animación tanto de objetos como del avatar, entre muchas otras.

Después de abandonar su cargo de Ceo de linden lab, Philip Rosedale se vuelca de lleno en un mundo virtual con todo el potencial de la realidad virtual, recluta apasionados como él y en 2013 funda Hig Fidelity con inversión de Linden Lab y otras compañías, es un software de código abierto donde puedes crear y compartir experiencias de realidad virtual (VR), aunque puede ser utilizado sin dispositivos de RV la experiencia en este caso es más limitada, muchos usuarios e incluso medios han confundido este mundo virtual con Sansar cuando se referían a Second Life 2.

Próximamente más novedades y últimos trabajos en estos mundos virtuales.

10 jul 2017

Permisos para amigos y objetos construyendo en Second Life

En este tutorial daremos unas pautas para los iniciados en el metaverso de Second Life referentes a los permisos que se pueden aplicar a nuestros amigos y nuestros objetos, que nos servirá para configurar adecuadamente los permisos, bien sea para ponerlos a la venta, disfrutar de una instalación compartida con un grupo o sobre todo cuando determinada construcción u objeto se realiza en equipo.

Activación de permisos a un amigo.



La imagen superior muestra como activar los distintos permisos que podemos otorgarle a un a persona que hemos agregado a nuestra lista de amistades, en este caso al tratarse del visor oficial es mediante el perfil, con otros visores como Phoenix los casilleros estan en la propia lista.
-Ver cuando estamos conectados.
Cuando aceptamos amistad esta se activa por defecto, aunque si lo deseamos si lo vemos oportuno podremos desclicarlo.
-Ver nuestra ubicación en el mapa.
No se activa por defecto es necesario activarlo si queremos que ese amigo, nos pueda localizar en el mapa si estamos conectados.
-Que pueda editar, borrar o manipular nuestros objetos en función de los permisos del mismo.
Esta opción tampoco está habilitada por defecto es util habilitarla para trabajos conjuntos con personas que no pertenecen al mismo grupo, dado que para este tipo de construcciones tenemos otras opciones en la herramienta de construcción aunque más limitada en permisos que esta, es lo que se conocía como dar palomillas antiguamente en SL.

Pestaña general de la herramienta de construcción para configurar los permisos de objeto.


Independientemente de los términos que nos revela la pestaña general al editar un objeto, como el nombre, su creador y dueño vamos a detenernos en los puntos que tienen que ver con el tema de permisos del objeto en esta ventana y de la posibilidad de poner el mismo a la venta.
Grupo: Informa del grupo al que pertenece ese prim u objeto a efectos de permisos para con el terreno y a la hora de ser compartido o transferido resultado del tag que llevará la persona en su avatar a la hora de rezzearlo puede ser reasignado en el botón a la derecha de la descripción de grupo.
Compartir y Transferir: Activando éste casillero, los miembros del grupo reflejado en la descripción anterior podrán interactuar con ese prim u objeto se debe de tener en cuenta en este punto activar todas las opciones inferiores de próximo propietario, por si fuera necesario hacer duplicados; el botón de transferir hará que el objeto pase a ser propiedad del grupo con los permisos asignados a próximo propietario y quedando limitado algunos derechos sobre el mismo para los miembros del grupo que tengan configurado un rol adecuado.
En venta: Cuando se construye en equipo esta opción es útil a la hora de vender prims generados por distintos constructores, para
poder así unir los mismos en un solo objeto,(solo pueden ser unidos los prims de un mismo dueño) para lo que activaremos el casillero en Venta, indicaremos a 0 L$ y pulsaremos el botón copia cambiándolo a original y verificando estén activados todos los permisos para próximo propietario, las opciones de poner en venta un objeto también son como copia, se realiza una copia del mismo, o como contenido uso generalmente que se da a los paneles vendors, al adquirirlo se genera en el inventario una carpeta con el contenido del mismo, por supuesto en estos casos se fija el precio que determine el creados.
Antes de activar este casillero revisar bien permisos de objeto y contenido de objeto para próximo propietario.

Cualquiera :
Ojo con estos casilleros hemos visto a muchos principiantes, dejar activadas estas opciones, confundiéndolas con otro tipo de permisos y a veces ven que su creación no esta ya en su sitio.

Permisos para próximo propietario: Los tres casilleros inferiores que indican los permisos que tendrá el próximo propietario deben de activarse desde el principio al generar un prim y adquirir esa costumbre imprescindible en un trabajo en equipo, no hacerlo así ocasiona en muchos casos la pérdida de trabajos bien realizados pero que no podrán ya ser copiados, reutilizados, modificados o transferidos con que tan solo uno de los prims no esté con los permisos adecuados.

Los permisos de contenido de objeto:

Para construir en equipo o para la venta de objetos, además de lo anteriormente citado en cuanto a permisos de prim u objeto para próximo propietario debemos de tener en cuenta además los permisos del contenido del objeto en función de que los mismos podrán afectar, la transferencia o copia del objeto a próximo propietario si las transferimos con algunos permisos inhabilitados en los ítems del contenido del objeto.



Como se muestra en la imagen superior, podremos modificar los permisos del contenido objeto,(si no fueron introducidos en el mismo con todos ellos habilitados) en lugar de tener que hacerlo de uno en uno pulsando el botón permisos, nos aparecerá el popup editar permisos del contenido, donde seleccionaremos el grupo de ítems por categorías asignándole todos los permisos para el grupo y próximo propietario.

Debemos diferenciar como deben de estar estos permisos asignados según casos, de lo que es un proceso de implantación o generación de proyecto, a cuando sea un proyecto finalizado siendo por ejemplo el caso de un objeto que entrega notecards o ítems que no interesa que el próximo propietario pueda modificar el mismo.

En cuanto a objetos que están compartidos con el grupo los miembros de ese grupo podrán introducir y eliminar los contenidos de ese objeto, sin embargo no podrán abrir un script para cambiarle alguna configuración o una notecard, deberá ser el propio dueño del objeto quien realice esa tarea, salvo que se copie ese item en su inventario seleccionándolo desde el contenido y arrastrándolo, para así modificarlo, sustituyendo el anterior.

Esperamos que sea de utilidad y si teneis alguna duda ya sabeis preguntad ;)