Según explicó, la herramienta fue diseñada para responder consultas de los ciudadanos en cualquier momento del día, incluso fuera del horario laboral de su oficina parlamentaria, y pretende ser un complemento, no un reemplazo, de su labor presencial.
Sin embargo, la iniciativa no tardó en generar indignación y debate público. Muchos críticos lo acusaron de “perezoso” y de reducir el contacto humano que debe existir entre un representante y sus electores. Otros señalaron preocupaciones ambientales relacionadas con el uso de este tipo de tecnologías y, sobre todo, alertaron sobre los riesgos para la privacidad y el manejo de datos de los votantes. Tal como señala el Washington Post, el temor central es que este tipo de sistemas pueda erosionar la confianza y la conexión personal que históricamente ha caracterizado a la política de proximidad.
Las limitaciones técnicas del “Sewardsbot” tampoco pasaron inadvertidas. Un periodista que lo puso a prueba comprobó que la inteligencia artificial tiene problemas para interpretar dialectos locales, como expresiones propias del acento de Yorkshire, y que es incapaz de gestionar consultas complejas, como las relacionadas con denuncias de vertidos ilegales. Estas pruebas, recogidas por The Guardian, refuerzan la idea de que, por el momento, la intervención humana sigue siendo insustituible en la atención ciudadana.
El caso de “AI Mark” se inscribe en un contexto global en el que cada vez más políticos exploran el uso de la inteligencia artificial como herramienta para optimizar campañas y comunicación pública.
Para algunos, estas innovaciones representan una modernización necesaria que acerca la política a las nuevas generaciones. Para otros, en cambio, son un riesgo para la interacción democrática, ya que pueden convertir la relación con los votantes en un proceso frío, filtrado por algoritmos y sin la calidez del contacto directo.
La experiencia de Sewards, más allá de sus intenciones, deja planteada una pregunta clave: ¿hasta qué punto es aceptable delegar la comunicación política en sistemas automatizados y cómo se puede garantizar que estos se utilicen de forma ética, segura y transparente?