Microsoft admite que Copilot es solo para entretenimiento en sus términos de uso
Los términos de servicio de Copilot indican que los usuarios no deben confiar en sus respuestas. Microsoft asegura que actualizará este lenguaje pronto.
Copilot de Microsoft funcionaría con fines "recreativos" según su política de privacidad.
MicrosoftUna polémica surgió en las redes sociales por los términos de uso que rigen para el asistente Copilot. El texto legal de la empresa de Microsoft indica que la herramienta sirve solamente para fines de entretenimiento. Esta advertencia legal genera dudas sobre la confiabilidad de los resultados que entrega el sistema actualmente.
El documento legal que rige el uso de la herramienta tuvo su última actualización el 24 de octubre de 2025. En esas líneas, la compañía de Redmond avisa que el programa puede cometer errores y no funcionar según lo esperado en todos los casos. El mensaje es bastante directo: "No confíe en el asistente para obtener consejos importantes. Use el servicio bajo su propio riesgo". Este aviso cayó como un balde de agua fría para miles de personas que utilizan el sistema para sus tareas diarias o profesionales, esperando una precisión absoluta.
-
Te puede interesar
Google: los problemas en Gemini Live que preocupan a los usuarios de la IA
Las advertencias de Microsoft sobre el uso de la herramienta
Tras la viralización de estas cláusulas, un vocero de la firma le explicó al medio PCMag que la empresa planea cambiar lo que ellos llaman "lenguaje heredado". Según la compañía, esas palabras ya no reflejan la forma en que se usa el sistema hoy en día y las van a modificar en la próxima actualización del contrato de licencia. Sin embargo, mientras el texto siga vigente, la responsabilidad legal queda del lado del usuario que decide creerle a la máquina sin verificar los datos.
La situación resulta curiosa porque la empresa está haciendo un esfuerzo enorme para que los clientes corporativos paguen por este servicio. Vender una herramienta como un motor de productividad mientras el contrato dice que es para divertirse genera un ruido lógico en el mercado. Muchos analistas creen que estas cláusulas existen para evitar demandas legales si el programa llega a dar una información falsa que cause un perjuicio económico o personal al cliente.
La inteligencia artificial frente a la veracidad de los datos
No es un problema exclusivo de un solo fabricante, ya que la inteligencia artificial todavía tiene dificultades para distinguir la verdad de la alucinación. Otras empresas del sector usan avisos muy parecidos en sus plataformas. Por ejemplo, OpenAI aclara que no hay que usar sus modelos como una fuente única de información fáctica. Incluso la gente de xAI advierte que sus respuestas no representan necesariamente "la verdad" en un sentido estricto.
Esta tendencia a poner paraguas legales muestra que el camino hacia una inteligencia artificial totalmente confiable todavía tiene varios baches por delante. El usuario tiene que estar atento y no tomarse todo lo que lee al pie de la letra, especialmente cuando se trata de temas técnicos o legales. Al final, estos modelos son procesadores de lenguaje que generan texto según probabilidades estadísticas y no siempre aciertan con los hechos reales del mundo. Por ahora, si necesitás un dato clave, lo mejor es chequearlo dos veces en fuentes tradicionales.