ChatGPT superó filtros anti-bot y reabre el debate sobre los límites de la IA
Un agente de OpenAI esquivó el sistema de verificación de Cloudflare y avivó las preocupaciones sobre el avance de la inteligencia artificial
La inteligencia artificial volvió a sorprender al mundo tecnológico. Esta vez, fue la última versión de ChatGPT —con capacidad de navegación web— la que logró sortear uno de los sistemas de verificación más utilizados para detectar bots: la clásica casilla "No soy un robot" de Cloudflare.
La noticia, difundida por el New York Post, incluye una captura de pantalla donde se observa al ChatGPT Agent haciendo clic de forma exitosa en el botón de validación, engañando al sistema que suele separar humanos de programas automatizados. Para muchos, se trata de una prueba más del creciente poder de la inteligencia artificial en tareas antes reservadas exclusivamente a las personas.

El episodio desató un fuerte debate entre la admiración por el avance tecnológico y la preocupación por los riesgos que implica. Algunos especialistas advierten que si un sistema como ChatGPT puede superar estos filtros básicos, muchos sitios web y plataformas de seguridad podrían quedar expuestos. Otros, en cambio, lo ven como una evolución lógica de sistemas cada vez más sofisticados y adaptables.
Desde OpenAI, la empresa creadora de ChatGPT, aseguraron que su asistente “solicita permiso” antes de realizar acciones relevantes y que mantienen un enfoque responsable sobre el desarrollo de estas tecnologías. No obstante, el caso reabre interrogantes de fondo: ¿Hasta dónde puede y debe llegar la inteligencia artificial? ¿Qué medidas se deben tomar para garantizar su uso ético y seguro?
Para comentar, debés estar registradoPor favor, iniciá sesión