Tu director te pregunta si ya estás usando IA para comunicación. Le dices que sí. Usas ChatGPT para primeros borradores de comunicados. El problema es que pasas más tiempo corrigiendo lo que genera la IA que escribiendo desde cero. Nadie en tu institución tiene política de uso, ni de calidad, ni de ética, ni de verificación. Solo la presión de usar IA porque todos la están usando.
Marzo de este año trae dos datos que confirman lo que muchos comunicadores ya intuían. ChatGPT alcanzó 100 millones de usuarios en 2 meses, el producto de mayor adopción en la historia de la tecnología de consumo. Hace tres días, el 14 de marzo, GPT-4 lanzó con capacidades significativamente superiores. El término prompt engineering genera más búsquedas en Google que community manager en Latinoamérica.
100M
Usuarios que ChatGPT alcanzó en 2 meses, récord histórico
La pregunta que nadie hace en la reunión donde se decide usar IA es esta: ¿Sabes distinguir buen contenido de mal contenido sin la IA? Porque si no lo sabes, la IA solo va a ayudarte a producir mal contenido más rápido. La IA generativa amplifica criterio, no lo crea.
Lo que ChatGPT realmente hace
ChatGPT no escribe. Predice la siguiente palabra más probable basándose en patrones de texto que vio durante entrenamiento. Si le pides un comunicado de prensa, genera texto que se parece a comunicados de prensa que existen en internet. Si le pides un artículo sobre tecnología, genera texto que se parece a artículos sobre tecnología que ya fueron escritos.
Eso significa que ChatGPT produce promedio estadístico. Produce lo que es más común, no lo que es mejor. Produce lo que ya existe, no lo que necesitas crear. Produce texto que suena profesional porque replica patrones de texto profesional, pero no tiene criterio sobre si ese texto cumple tu objetivo específico.
El comunicador que usa ChatGPT sin criterio editorial obtiene texto genérico que suena bien pero no dice nada específico. El comunicador que sí tiene criterio usa ChatGPT para primer borrador, luego aplica su conocimiento de audiencia, contexto institucional, tono apropiado y objetivo de comunicación para convertir ese borrador en contenido útil.
La diferencia no está en la herramienta, sino en quien la usa. ChatGPT no reemplaza el criterio editorial, lo hace visible. Si no sabes qué es buen contenido, ChatGPT no te va a enseñar. Solo va a producir más contenido mediocre más rápido.
El costo oculto de IA sin política institucional
Tu institución no tiene política de uso de IA. Eso significa que cada persona decide por su cuenta qué información poner en ChatGPT, qué nivel de revisión aplicar, qué estándares de calidad mantener. Eso no es adopción de tecnología, sino caos operativo con herramienta nueva.
ChatGPT almacena las conversaciones que tiene contigo. Si pones información confidencial de tu institución en un prompt, esa información ahora existe en los servidores de OpenAI. Si pones datos personales de estudiantes o empleados, acabas de crear un problema de privacidad. Si pones estrategia institucional no pública, acabas de filtrar información sensible.
0
Políticas de uso de IA en instituciones LATAM en marzo 2023
Pero el costo más grande no es de privacidad, sino de calidad. Cuando tu institución publica contenido generado por IA sin revisión editorial rigurosa, está apostando su credibilidad a que un modelo de lenguaje entrenado con internet produzca texto apropiado para tu contexto específico. Esa apuesta falla más seguido de lo que la gente admite.
ChatGPT inventa datos cuando no los tiene, genera citas falsas, produce afirmaciones que suenan autoritativas pero son incorrectas, y replica sesgos que existen en su entrenamiento. Todo eso con tono profesional que hace difícil detectar el error sin conocimiento del tema.
Una institución que publica contenido con datos inventados por IA pierde credibilidad que tardó años en construir. Una institución que replica sesgos sin darse cuenta enfrenta crisis de reputación. Una institución que genera contenido genérico sin valor específico se vuelve irrelevante. La herramienta no causa esos problemas, pero los acelera cuando no hay criterio editorial que los detecte.
Decir que la IA posee creatividad es un error. Las máquinas optimizan posibilidades. La chispa es humana.
Dónde sí funciona IA en comunicación institucional
ChatGPT tiene usos legítimos en comunicación institucional cuando se usa con criterio. Primer borrador de contenido rutinario que luego se revisa completamente. Generación de variaciones de un mensaje para A/B testing. Resumen de documentos largos para identificar puntos clave. Traducción de primer nivel que luego se refina.
Estos usos funcionan porque no dependen de que ChatGPT produzca contenido final. Funcionan porque reducen tiempo en tareas mecánicas, liberando tiempo para trabajo que sí requiere criterio humano. Funcionan porque el comunicador mantiene control editorial completo sobre el resultado final.
Pero esos usos requieren dos cosas que muchas instituciones no tienen. Primera, comunicadores con criterio editorial suficiente para detectar cuándo ChatGPT produce contenido inadecuado. Segunda, procesos de revisión que garanticen que todo contenido generado por IA pasa por validación humana antes de publicarse.
Sin esas dos cosas, usar ChatGPT en comunicación institucional es riesgo sin beneficio claro. Produces contenido más rápido, pero ese contenido puede tener errores que no detectas, sesgos que no identificas, o simplemente ser genérico sin valor específico para tu audiencia.
La decisión que define tu próximos cinco años
Usar IA en comunicación no es la pregunta correcta. La pregunta correcta es si tienes el criterio editorial para usarla bien. Si la respuesta es sí, entonces IA te hace más productivo. Si la respuesta es no, entonces IA solo te hace producir más contenido malo más rápido.
El comunicador que tiene criterio editorial sabe qué es buen contenido antes de que exista ChatGPT. Sabe qué tono es apropiado para su audiencia, qué nivel de detalle necesita cada mensaje, cuándo un dato necesita verificación, y cuándo una afirmación es demasiado genérica para ser útil. Ese comunicador usa ChatGPT como herramienta que acelera trabajo que ya sabía hacer.
El comunicador que no tiene criterio editorial depende de ChatGPT para decidir qué es buen contenido. Asume que si ChatGPT lo genera, debe ser apropiado. No detecta cuando el tono es inadecuado, cuando los datos son inventados, cuando las afirmaciones son genéricas. Ese comunicador usa ChatGPT como reemplazo de criterio que nunca desarrolló.
Los próximos cinco años van a hacer esa diferencia más visible. El comunicador con criterio va a producir significativamente más contenido de calidad usando IA como herramienta. El comunicador sin criterio va a producir significativamente más contenido mediocre, hasta que su institución se dé cuenta de que la velocidad sin calidad no tiene valor.
Preguntas frecuentes sobre ChatGPT en comunicación
¿Las instituciones deberían prohibir uso de ChatGPT?
No prohibir, pero sí regular. Necesitas política clara sobre qué información puede ponerse en prompts, qué nivel de revisión requiere contenido generado por IA, quién es responsable de verificar datos. Sin política, cada persona decide estándares por su cuenta.
¿Cómo detectar si contenido fue generado por IA?
Busca señales: texto genérico sin detalles específicos, afirmaciones que suenan autoritativas sin fuente, tono uniforme sin variación, estructura predecible. Pero la mejor detección es criterio editorial: ¿Este contenido cumple el objetivo? ¿Los datos son verificables? ¿El tono es apropiado?
¿ChatGPT reemplazará a comunicadores institucionales?
No a comunicadores con criterio editorial. Sí a quienes solo producen contenido genérico sin valor específico. Si tu trabajo puede ser replicado por ChatGPT sin pérdida de calidad, entonces tu trabajo ya era genérico antes de que existiera IA.
¿Vale la pena aprender prompt engineering?
Solo si ya tienes criterio editorial. Prompt engineering te ayuda a obtener mejores resultados de ChatGPT, pero no te enseña qué es buen contenido. Si no sabes evaluar calidad de contenido, prompts mejores solo producen contenido mediocre más refinado.
Si estás leyendo esto y reconoces la situación, ya sabes que no eres el único comunicador enfrentando presión por usar IA sin criterio claro. En Alterlatina hemos trabajado con instituciones que necesitan distinguir entre herramienta útil y reemplazo de criterio editorial. Si necesitas desarrollar criterio para usar IA efectivamente, hablemos.


