En febrero de 2025, Google sorprendió al sector tecnológico con una revisión significativa de sus políticas de inteligencia artificial (IA). La empresa, que en 2018 se comprometió a no desarrollar tecnologías de IA para armamento o vigilancia, ha flexibilizado ese compromiso para adoptar un enfoque basado en la supervisión humana, el cumplimiento de estándares éticos y la adherencia a la legislación internacional. En este artículo analizamos este cambio, abarcamos el contexto en el que se produce, exploramos diversas opiniones –tanto a favor como en contra– y evaluamos su impacto en la industria, en el sector de defensa y en el panorama ético global.
En el dinámico mundo de la inteligencia artificial, los cambios en las políticas de plataformas de mensajería pueden tener un impacto significativo en cómo se implementan y distribuyen las soluciones de IA. Recientemente, Meta (empresa matriz de WhatsApp) anunció una actualización de sus términos y condiciones que, desde el 15 de enero de 2026, prohibirá expresamente que proveedores externos utilicen la WhatsApp Business API para distribuir **chatbots de IA de propósito general**.