ver más

Microsoft admite que Copilot es solo para entretenimiento en sus términos de uso

Los términos de servicio de Copilot indican que los usuarios no deben confiar en sus respuestas. Microsoft asegura que actualizará este lenguaje pronto.


Una polémica surgió en las redes sociales por los términos de uso que rigen para el asistente Copilot. El texto legal de la empresa de Microsoft indica que la herramienta sirve solamente para fines de entretenimiento. Esta advertencia legal genera dudas sobre la confiabilidad de los resultados que entrega el sistema actualmente.

El documento legal que rige el uso de la herramienta tuvo su última actualización el 24 de octubre de 2025. En esas líneas, la compañía de Redmond avisa que el programa puede cometer errores y no funcionar según lo esperado en todos los casos. El mensaje es bastante directo: "No confíe en el asistente para obtener consejos importantes. Use el servicio bajo su propio riesgo". Este aviso cayó como un balde de agua fría para miles de personas que utilizan el sistema para sus tareas diarias o profesionales, esperando una precisión absoluta.

Copilot Microsoft 1889116289

Tanto el asistente de Windows como otros modelos de inteligencia artificial del mercado mantienen avisos legales similares para limitar su responsabilidad.

Las advertencias de Microsoft sobre el uso de la herramienta

Tras la viralización de estas cláusulas, un vocero de la firma le explicó al medio PCMag que la empresa planea cambiar lo que ellos llaman "lenguaje heredado". Según la compañía, esas palabras ya no reflejan la forma en que se usa el sistema hoy en día y las van a modificar en la próxima actualización del contrato de licencia. Sin embargo, mientras el texto siga vigente, la responsabilidad legal queda del lado del usuario que decide creerle a la máquina sin verificar los datos.

La situación resulta curiosa porque la empresa está haciendo un esfuerzo enorme para que los clientes corporativos paguen por este servicio. Vender una herramienta como un motor de productividad mientras el contrato dice que es para divertirse genera un ruido lógico en el mercado. Muchos analistas creen que estas cláusulas existen para evitar demandas legales si el programa llega a dar una información falsa que cause un perjuicio económico o personal al cliente.

La inteligencia artificial frente a la veracidad de los datos

No es un problema exclusivo de un solo fabricante, ya que la inteligencia artificial todavía tiene dificultades para distinguir la verdad de la alucinación. Otras empresas del sector usan avisos muy parecidos en sus plataformas. Por ejemplo, OpenAI aclara que no hay que usar sus modelos como una fuente única de información fáctica. Incluso la gente de xAI advierte que sus respuestas no representan necesariamente "la verdad" en un sentido estricto.

copilot

El uso de Copilot requiere que el usuario verifique la información de forma manual para evitar posibles errores del sistema.

Esta tendencia a poner paraguas legales muestra que el camino hacia una inteligencia artificial totalmente confiable todavía tiene varios baches por delante. El usuario tiene que estar atento y no tomarse todo lo que lee al pie de la letra, especialmente cuando se trata de temas técnicos o legales. Al final, estos modelos son procesadores de lenguaje que generan texto según probabilidades estadísticas y no siempre aciertan con los hechos reales del mundo. Por ahora, si necesitás un dato clave, lo mejor es chequearlo dos veces en fuentes tradicionales.