El primer móvil de OpenAI está en marcha: sin pantalla y con IA
La colaboración entre el líder de OpenAI y el maestro del diseño augura un cambio tremendo. Su esfuerzo... un aparato sin pantalla.
OpenAI viene con todo.
El Demo Day 2025 de Emerson Collective fue el escenario de una revelación audaz en Silicon Valley. Sam Altman, el líder de OpenAI, junto a Jony Ive, el icónico diseñador del iPhone, anunciaron un plan. Su proyecto busca lanzar, en menos de dos años, un móvil destinado a iniciar la era posterior al teléfono inteligente, un cambio de paradigma con IA y sin pantalla.
Un proyecto con IA y sin pantalla
Este aparato busca ser una solución al agotamiento digital provocado por las pantallas. Propone una interacción directa con la inteligencia artificial, eliminando las distracciones visuales. Este enfoque simple busca optimizar la vida diaria.
Te Podría Interesar
La alianza entre Altman e Ive comenzó discretamente tiempo atrás, con un acuerdo inicial para explorar nuevas opciones de hardware. Este borrador se concretó este año cuando OpenAI sumó a io Products, la firma de Ive. El diseñador británico asumió la dirección del diseño del primer dispositivo de la compañía. La meta: crear una interfaz nativa para la IA, distinta a los formatos actuales.
Durante la presentación, Altman describió el uso diario del teléfono inteligente como "una caminata por Times Square". Un ambiente saturado de estímulos, notificaciones y ruido constante. Su visión, compartió, es el polo opuesto: un objeto que genere tranquilidad. Busca una conexión más orgánica y fluida con la inteligencia artificial.
Ive estuvo de acuerdo, explicando que el inicio del proyecto fue conceptual, más que técnico. Se enfocaron en debatir la naturaleza de una herramienta y su comportamiento ideal. Exploraron qué clase de relación humano-tecnología buscan establecer con este nuevo aparato. Es un proceso de diseño enfocado en la interacción pura.
Este proceso de ideas llevó a un concepto revolucionario: un dispositivo sin pantalla. Su funcionamiento se basa enteramente en la voz, en sensores avanzados y una presencia constante pero discreta. La intención es que actúe como un asistente con una conciencia contextual avanzada. Debe entender el entorno y las necesidades del usuario.



