En febrero de 2025, Google sorprendió al sector tecnológico con una revisión significativa de sus políticas de inteligencia artificial (IA). La empresa, que en 2018 se comprometió a no desarrollar tecnologías de IA para armamento o vigilancia, ha flexibilizado ese compromiso para adoptar un enfoque basado en la supervisión humana, el cumplimiento de estándares éticos y la adherencia a la legislación internacional. En este artículo analizamos este cambio, abarcamos el contexto en el que se produce, exploramos diversas opiniones –tanto a favor como en contra– y evaluamos su impacto en la industria, en el sector de defensa y en el panorama ético global.
En 2025, Uruguay enfrenta un panorama cibernético complejo con más de 27.000 incidentes documentados anualmente, según el boletín del **CERTuy** (Centro de Respuesta a Emergencias de Seguridad Informática de Uruguay). El incremento de ataques de ransomware, phishing y fugas de datos obliga a empresas, entidades estatales y pymes a reforzar sus defensas. Los **agentes de Inteligencia Artificial (IA)** resultan aliados estratégicos en esta lucha, automatizando la detección, contención y mitigación de amenazas en tiempo real.