Post Widget 1

Heath Tips

  • In enim justo, rhoncus ut, imperdiet a
  • Fringilla vel, aliquet nec, vulputateDonec pede justo,  eget, arcu. In enim justo, rhoncus ut, imperdiet a, venenatis vitae, justo.Nullam dictum felis eu pede mollis pretium.

Post Widget 2

Microsoft mantiene equipo ‘red team’ para probar seguridad de su inteligencia artificial

Microsoft mantiene equipo ‘red team’ para probar seguridad de su inteligencia artificial

Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft confirmó que mantiene activo un equipo multidisciplinario conocido como ‘red team’ o equipo rojo, dedicado a realizar pruebas de seguridad y hacking ético sobre sus propios productos de inteligencia artificial. La compañía, que se atribuye haber sido pionera en la formación de este grupo desde 2021, busca con esta práctica identificar vulnerabilidades antes de lanzar sus tecnologías al mercado.

Brad Smith, presidente de Microsoft, destacó la relevancia de establecer límites claros en el desarrollo de estas herramientas. “Tenemos principios, los definimos y los publicamos. Por definición, esos principios crean guardarraíles. Y nos mantenemos en la carretera dentro de ellos”, declaró el ejecutivo. Smith enfatizó que la estrategia de seguridad no solo implica determinar cuándo utilizar la tecnología, sino también reconocer cuándo no debe ser usada.

La práctica del ‘red teaming’, cuyos orígenes se encuentran en el ámbito militar y la ciberseguridad desde hace décadas, permite a la empresa simular ataques contra sus sistemas para evaluar su resistencia. Aunque la investigación no detalla la composición específica del equipo actual ni los métodos técnicos empleados, se sabe que está integrado por expertos de diversas áreas destinados a desafiar los protocolos de seguridad de la firma.

Este enfoque de seguridad surge en un contexto de debate global sobre el uso de la inteligencia artificial en aplicaciones sensibles, incluyendo el ámbito bélico. Antecedentes relevantes incluyen la demanda de la empresa Anthropic contra el Pentágono y la cancelación de un acuerdo entre Microsoft y el departamento de defensa estadounidense en 2021, hechos que marcaron la discusión sobre los límites éticos de la tecnología.

La continuidad del equipo de pruebas refleja la postura de Microsoft de priorizar la seguridad interna como parte fundamental de su proceso de innovación, alineándose con los principios públicos que la compañía ha establecido para guiar sus operaciones en el campo de la inteligencia artificial.

soporteinfix

Relacionados

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Te puede interesar x