Microsoft niega uso bélico en Gaza
La empresa asegura que sus tecnologías no han sido empleadas para causar daños en el conflicto palestino-israelí.

Microsoft afirmó que no encontró pruebas de que su tecnología de inteligencia artificial (IA) y servicios en la nube Azure hayan sido utilizados por el Ejército de Israel para causar daños a personas durante el conflicto en Gaza. Esta conclusión fue el resultado de una investigación interna y una revisión independiente, motivadas por protestas de empleados que pedían a la compañía cancelar sus contratos con el gobierno israelí.
El comunicado publicado recientemente detalla que la investigación incluyó entrevistas a decenas de trabajadores y la evaluación de múltiples documentos relacionados con los servicios ofrecidos. “Hasta la fecha no hemos encontrado evidencia de que nuestras tecnologías se hayan utilizado para atacar o causar daños”, señaló Microsoft, subrayando que sus contratos exigen supervisión humana y el cumplimiento de controles legales estrictos.
No obstante, las protestas internas han sido persistentes. En abril, dos exempleadas interrumpieron el evento del 50º aniversario de la empresa para denunciar la relación contractual con Israel. Una de ellas, Ibtihal Aboussad, acusó directamente a los ejecutivos de Microsoft de colaborar con el “genocidio” y expresó su negativa a desarrollar código que pudiera emplearse en operaciones militares contra palestinos. Ambas mujeres fueron despedidas poco después de sus intervenciones.
El grupo al que pertenecen, No Azure for Apartheid, sostiene que Microsoft ha firmado contratos por cientos de millones de dólares con el Ejército israelí. También citan reportes filtrados por medios estadounidenses que apuntan al uso de tecnologías de Azure y OpenAI para labores de vigilancia masiva, transcripción y análisis de comunicaciones por parte de las fuerzas armadas israelíes.
En su defensa, Microsoft aclaró que sus servicios al Ministerio de Defensa de Israel incluyen únicamente software, servicios profesionales, herramientas de traducción automática y protección de ciberseguridad ante amenazas externas. “Trabajamos con muchos gobiernos, incluidos aquellos que requieren apoyo técnico para proteger sus sistemas nacionales”, agregó la empresa.
Este caso resalta las tensiones crecientes en la industria tecnológica sobre la ética del uso de la inteligencia artificial en contextos bélicos. Mientras las compañías refuerzan códigos de conducta y políticas de control, empleados y colectivos internos exigen mayor transparencia y responsabilidad en las decisiones comerciales que involucran conflictos armados y derechos humanos.






