
Microsoft Copilot lleva tiempo intentando ser más útil recordando lo que hablas con él: temas previos, preferencias y algunos detalles que tú mismo compartes. La novedad es que esa memoria de Copilot puede apoyarse también en un ajuste que permite consultar datos de uso de Microsoft procedentes de otros productos de la compañía, como Bing, MSN, Edge y servicios relacionados. La información se ha detectado dentro de las opciones de “Memoria” y ha sido señalada por medios como ZDNET y Windows Latest, que alertan de que el ajuste puede estar activado sin que el usuario lo note.
La idea, sobre el papel, es sencilla: si Copilot “te conoce” mejor, puede afinar respuestas y recomendaciones. Es como cuando un barista recuerda que tomas el café con leche vegetal y sin azúcar; no necesitas repetirlo cada mañana. El matiz es que aquí ese “recuerdo” no proviene solo de lo que le has dicho al asistente, sino de huellas generadas al usar otras piezas del ecosistema Microsoft.
Qué es exactamente “Microsoft usage data” dentro de la memoria
Dentro del apartado de Memory (Memoria), aparece un conmutador asociado a Microsoft usage data. Ese nombre es importante porque sugiere que Copilot puede usar señales de otros servicios para personalizar la experiencia. No necesariamente significa que lea el contenido de todo lo que haces, pero sí que puede recurrir a información vinculada a tu actividad en productos Microsoft para “entenderte” mejor.
Conviene separar dos conceptos que a menudo se mezclan. Por un lado, está la personalización para tus conversaciones: que el asistente recuerde que trabajas en marketing, que prefieres respuestas breves o que estás planificando un viaje. Por otro, está el uso de datos con fines de mejora del servicio, diagnóstico o seguridad. Microsoft explica en sus materiales de ayuda y en su Privacy Statement que registra información para monitorizar rendimiento, solucionar incidencias, detectar abuso y mejorar el producto, y que existe un marco específico de opciones para controlar aspectos sensibles.
La preocupación surge cuando esa personalización se alimenta de fuentes externas a la conversación. En la práctica, para muchas personas esto cambia la sensación de control: ya no es solo “lo que le cuento”, sino “lo que el sistema puede deducir de mí”.
Beneficios reales: cuándo esta personalización puede ser útil
Hay escenarios donde una memoria bien usada ahorra fricción. Si usas Copilot como si fuera un cuaderno digital, puede ayudarte a retomar un hilo sin reexplicar contexto: un proyecto, una lista de tareas o el tono con el que quieres redactar un correo. También puede aportar continuidad si alternas entre móvil y PC.
Piensa en ello como en un GPS que aprende tus rutas habituales. Si sabe que los martes sales tarde del trabajo, puede anticipar el tráfico sin que se lo pidas. En un asistente, esa anticipación se traduce en respuestas más enfocadas, menos preguntas repetidas y sugerencias más alineadas con tus preferencias.
El problema es que, incluso si el beneficio existe, no todo el mundo quiere pagar el “precio” en forma de mayor recopilación o correlación de datos. Y ahí entra la decisión personal: comodidad frente a privacidad.
Riesgos y dudas razonables: privacidad, alcance y expectativas
La pregunta clave no es solo “¿puede Copilot acceder a datos de otros productos?”, sino “¿qué tipo de datos y con qué límites?”. Desde fuera, el usuario suele ver un interruptor y una promesa general. Eso deja espacio para interpretaciones, especialmente si el ajuste aparece activo por defecto o se activa automáticamente en determinados casos, algo que otros documentos de ayuda sobre Copilot han insinuado como posibilidad.
Incluso cuando una empresa asegura que usa los datos con fines acotados, la gente se inquieta por tres motivos muy humanos. Primero, porque la percepción de vigilancia se dispara cuando varias fuentes se conectan. Segundo, porque el valor de un dato aislado puede ser bajo, pero al combinarse con otros aparece un perfil mucho más nítido, como un mosaico que de lejos revela una imagen completa. Tercero, porque el usuario promedio no tiene tiempo de auditar ajustes repartidos en distintos menús y páginas.
Microsoft también ha indicado en sus FAQ que la información de conversaciones se usa para funciones como rendimiento, solución de problemas, prevención de abuso y mejora del servicio, y que, al menos en ciertos contextos, no se utilizaría para entrenar modelos. Aun así, la prudencia sigue siendo sensata: la privacidad en Copilot no depende de un único ajuste, sino de un conjunto de palancas que conviene revisar con calma.
Lo que NO controla este ajuste: anuncios y entrenamiento del modelo
Un punto que suele confundir es creer que “memoria” equivale a “anuncios personalizados” o a “entrenamiento de IA”. En la práctica, son controles distintos. Microsoft ha explicado que la personalización de Copilot no determina si recibes publicidad personalizada; eso se gestiona por separado en la página de tu cuenta Microsoft, dentro del área de privacidad y preferencias de anuncios.
También existe un ajuste independiente relacionado con el uso de datos para entrenamiento del modelo (o para permitir que tus interacciones contribuyan a mejorar sistemas de IA). Si tu prioridad es minimizar exposición, lo más coherente es revisar ese control específico, además de la memoria. Dicho de forma cotidiana: apagar la luz del salón no apaga la del pasillo; son interruptores diferentes aunque estén en la misma casa.
Cómo desactivar la memoria y el uso de datos de Microsoft sin complicarte
La desactivación se puede hacer desde la web de Copilot o desde sus apps móviles. En el sitio de Copilot, una vez iniciada sesión con tu cuenta Microsoft, verás tu nombre o perfil en la parte inferior del panel izquierdo. Desde ahí se accede a Settings (Configuración) y luego a Memory (Memoria). En iOS o Android, el recorrido es parecido: se abre el panel lateral desde el icono de menú y se entra en tu perfil para localizar el apartado de Memoria.
Dentro encontrarás el conmutador general de Personalization and memory y, debajo, controles separados para Facts you’ve shared y para Microsoft usage data. Si quieres reducir al máximo la personalización basada en tu actividad en otros servicios, lo más efectivo es desactivar primero Microsoft usage data y después apagar el control general de Personalization and memory, tal como describen las guías que han mostrado estos menús. Si lo que te preocupa es que Copilot conserve información ya guardada, también existe una opción para borrar toda la memoria y otra para editar y eliminar datos concretos dentro de “Facts you’ve shared”.
En términos prácticos, esto es como vaciar la libreta de notas y luego decidir si quieres que se vuelvan a apuntar cosas en el futuro. Borrar sin desactivar puede ser solo un reseteo temporal; desactivar evita que el cuaderno vuelva a llenarse solo.
Buenas prácticas: qué conviene no contarle a un asistente
Aunque mantengas la memoria activada, hay un principio que rara vez falla: si no se lo dirías a un desconocido en una cafetería, tampoco lo escribas en un chat de IA. Microsoft, de hecho, recomienda evitar datos especialmente sensibles como información sobre salud u otros aspectos íntimos.
Si necesitas usar Copilot para temas delicados, una estrategia razonable es tratarlo como un editor o un asesor “ciego”: plantea el problema con detalles funcionales, pero sin identificadores personales. Por ejemplo, en vez de “mi jefe Juan Pérez en la empresa X”, puedes usar “mi responsable” y mantener fuera nombres, direcciones, números de documento o información médica. Es la misma lógica que tapar la matrícula cuando publicas una foto del coche: el contexto sirve, el identificador sobra.
Por qué conviene revisar tus ajustes ahora
Este tipo de cambios suele llegar de forma silenciosa, integrándose en menús que pocas personas visitan. Y cuando un ajuste toca datos, la mejor defensa es la claridad: saber qué está encendido, qué está apagado y qué depende de otros paneles de control.
Si usas Copilot como herramienta de productividad y te gusta que recuerde tus preferencias, puede tener sentido mantener cierta personalización con límites. Si lo usas de forma puntual, o si te incomoda la idea de que combine señales de Edge, Bing u otros servicios, desactivar Microsoft usage data y revisar el resto de opciones te devuelve una relación más “manual” con el asistente: quizá repitas algún contexto de vez en cuando, pero ganas tranquilidad.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí