IA en Relaciones Públicas

IA en Relaciones Públicas

de HEREDIA OROZCO DANNA KATHERYN -
Número de respuestas: 0

¿Qué oportunidades y riesgos representa la IA en nuestra profesión de Relacionistas Públicos?

La Inteligencia Artificial (IA) representa una transformación significativa en la profesión de los relacionistas públicos, brindando oportunidades sin precedentes, pero también planteando riesgos éticos y operativos importantes. Entre las principales oportunidades se encuentra la automatización de tareas repetitivas como la redacción de informes, la programación de publicaciones en redes sociales y el análisis de cobertura mediática. 

Otra gran ventaja es la capacidad de la IA para analizar grandes volúmenes de datos en tiempo real y detectar patrones de comportamiento o tendencias emergentes. Esto posibilita una toma de decisiones más informada y ágil en contextos de cambio acelerado. Como sostienen Tench et al. (2022), “los algoritmos predictivos ofrecen a los relacionistas públicos una poderosa herramienta para anticiparse a las crisis reputacionales” (p. 45), lo cual refuerza la gestión proactiva de la imagen institucional. Además, el uso de IA en la personalización de mensajes mejora la segmentación de audiencias, facilitando una comunicación más efectiva y directa con los públicos clave. Smith (2021) destaca que “la IA está transformando la narrativa comunicacional al permitir una personalización masiva con base en los perfiles digitales” (p. 112).

Sin embargo, estos avances no están exentos de riesgos. Uno de los principales desafíos éticos es el uso de la IA para la difusión de desinformación o manipulación de la opinión pública a través de contenidos falsos como los deepfakes o bots no identificados. Lutz y Hoffmann (2021) advierten que “el mal uso de la IA en la comunicación puede erosionar la confianza pública y amplificar narrativas engañosas” (p. 88). Otro riesgo relevante es la opacidad algorítmica: muchos sistemas de IA actúan como “cajas negras”, lo que dificulta la rendición de cuentas cuando se producen errores comunicacionales. Floridi et al. (2020) señalan que “la falta de transparencia en los sistemas automatizados plantea serios dilemas sobre la autoría y la responsabilidad de los mensajes emitidos” (p. 301).

Además, existe el problema de los sesgos algorítmicos, ya que los datos con los que se entrenan los modelos pueden reproducir prejuicios existentes en la sociedad. O’Neil (2020) advierte que “los algoritmos pueden ser instrumentos de discriminación si no se diseñan con criterios éticos rigurosos” (p. 39). Finalmente, un uso excesivo de la IA puede conducir a una pérdida del toque humano en la comunicación, lo que afecta negativamente la empatía y la conexión emocional con los públicos. 

¿Qué debe saber un relacionista público para usar estas herramientas de forma ética y eficaz?

El uso ético y eficaz de la Inteligencia Artificial en relaciones públicas requiere que los profesionales adquieran una serie de competencias técnicas, críticas y éticas. En primer lugar, es fundamental que desarrollen alfabetización digital, es decir, una comprensión básica del funcionamiento de los algoritmos, su lógica y sus límites. 

Asimismo, es necesario integrar la IA dentro de un marco ético que respete los principios de transparencia, consentimiento informado, equidad y responsabilidad social. Los códigos profesionales deben ser actualizados para contemplar estos desafíos emergentes. En palabras de la guía ética del Chartered Institute of Public Relations (PRCA & CIPR, 2023), “la ética en el uso de IA requiere rendición de cuentas en la programación, revisión y supervisión humana de los algoritmos” (p. 19). Esto implica también identificar con claridad cuándo un mensaje ha sido generado por una máquina y garantizar que los públicos sean conscientes de ello.

El pensamiento crítico es otra capacidad imprescindible. El relacionista público debe actuar como un curador y moderador del contenido generado por IA, evaluando no solo la calidad técnica del mensaje, sino su impacto comunicacional, social y emocional. Brennen et al. (2020) advierten que “la supervisión humana no es opcional, sino esencial para garantizar que la IA no perpetúe errores o narrativas tóxicas” (p. 117). En este sentido, la ética no es un obstáculo a la innovación, sino una guía para una implementación responsable.

Referencias bibliográficas

Brennen, J. S., Howard, P. N., & Nielsen, R. K. (2020). An era of AI-generated media? Reuters Institute for the Study of Journalism

Galloway, C., & Kwansah-Aidoo, K. (2023). Artificial intelligence and the future of public relations. Routledge.

Lutz, C., & Hoffmann, C. P. (2021). The dark side of trust: Misuse of AI and data-driven PR. Journal of Communication Management, 25(2), 85–102.

O’Neil, C. (2020). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing.

PRCA & CIPR. (2023). AI in PR: Ethics Guide. Chartered Institute of Public Relations.

Smith, R. D. (2021). Strategic planning for public relations. Routledge.

Tench, R., Verčič, D., Zerfass, A., & Moreno, Á. (2022). Communication and trust in the age of AI. Public Relations Review, 48(3), 102162.