cd2db880f58744d68fbee622dee1bd8f

Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft mantiene activo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a realizar pruebas de seguridad mediante la simulación de ataques contra sus propios productos de inteligencia artificial. La compañía, que se atribuye haber sido pionera en la formación de este grupo desde 2021, utiliza esta práctica para identificar vulnerabilidades antes del lanzamiento de sus tecnologías.

Brad Smith, presidente de Microsoft, destacó la relevancia de contar con principios definidos y publicados que actúen como guardarraíles para el desarrollo tecnológico. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crear guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo.

Smith enfatizó que la aplicación de estos criterios no solo determina cuándo es apropiado emplear la tecnología, sino también cuándo debe prescindirse de ella. Esta postura surge en un contexto de debate global sobre el uso de la inteligencia artificial en ámbitos sensibles, incluyendo su potencial aplicación en conflictos bélicos.

La práctica del ‘red teaming’, con origen en estrategias militares y aplicada décadas en ciberseguridad, permite a la empresa evaluar riesgos de forma proactiva. Reportes indican que este enfoque busca asegurar que los sistemas de IA operen dentro de los márgenes éticos y de seguridad establecidos por la corporación.

Antecedentes recientes ilustran la complejidad de este sector; en 2021, Microsoft canceló un acuerdo con el Pentágono, mientras que otras firmas como Anthropic han enfrentado disputas legales relacionadas con el uso de sus modelos por parte de entidades de defensa. Estas situaciones resaltan la necesidad de mecanismos internos de control como los que ejecuta el equipo rojo de Microsoft.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *