Usaste ChatGPT para el primer borrador del comunicado. Revisaste el output. Ajustaste tono. Verificaste datos. Publicaste. Funcionó bien. Ahorraste 40 minutos. Dos semanas después alguien en la reunión de dirección pregunta si el área de comunicaciones está usando IA. No sabes qué responder porque tu institución no tiene política sobre esto. No sabes si deberías haberlo declarado. No sabes si lo que hiciste está dentro de límites aceptables o si acabas de generar riesgo reputacional que nadie midió.

Noviembre de este año marca un año desde el lanzamiento de ChatGPT. El 85% de los profesionales del marketing declara haber implementado IA generativa, según estudio de Mediaocean, y el dato que revela el problema real viene después: el 67% dice que sus organizaciones no tienen política formal de uso. Las instituciones exigen resultados con IA pero no definieron qué se revisa, qué no se delega nunca y cómo se declara cuando se usa.

67%
Organizaciones que usan IA generativa sin política formal de uso

Cada comunicador usando IA sin política institucional enfrenta el mismo dilema. La herramienta ahorra tiempo real en tareas repetitivas. Pero cada uso sin protocolo es decisión individual sobre límites éticos que deberían ser institucionales. Cuando algo sale mal, el riesgo reputacional no recae sobre la herramienta sino sobre el comunicador que la usó sin guía clara. La IA generativa sin política institucional no es eficiencia, es riesgo no documentado.


Por qué la presión por adoptar IA vino sin protocolo

La adopción de IA generativa en comunicaciones no siguió el patrón normal de implementación de herramientas institucionales. No hubo evaluación de proveedores. No hubo capacitación formal. No hubo definición de casos de uso aprobados. La herramienta llegó directamente a los equipos porque era gratuita, accesible y porque la dirección leyó que todos la estaban usando.

Esa adopción acelerada tiene razón estructural. ChatGPT alcanzó 100 millones de usuarios en dos meses, récord que ninguna plataforma había logrado antes. La velocidad de adopción no dio tiempo a que las instituciones desarrollaran políticas. Cuando las áreas de comunicaciones empezaron a usar IA, no había marco de referencia institucional porque la tecnología se movió más rápido que los procesos de gobernanza.

Pero la presión por adopción vino de arriba sin que viniera acompañada de criterios de uso. Las direcciones leyeron que IA generativa aumenta productividad, reduce costos y acelera producción de contenido. Eso es cierto cuando se usa con supervisión adecuada. Pero la presión se tradujo en expectativa de resultados sin inversión en definir qué significa uso responsable para esa institución específica.

El comunicador quedó en medio de dos fuerzas contradictorias. Por un lado, presión por usar IA para ser más eficiente. Por otro, ausencia de guía sobre qué está permitido, qué requiere revisión y qué debe declararse. Cada decisión de uso se convirtió en decisión ética individual cuando debería ser protocolo institucional. Cuando el comunicado generado con IA tiene error factual o tono inapropiado, la responsabilidad recae sobre quien lo publicó, no sobre la ausencia de política que debió existir.


Las tres preguntas que tu política debe responder

Una política institucional de IA generativa para comunicaciones no necesita ser documento de 50 páginas, sino responder tres preguntas operativas que el comunicador enfrenta cada vez que considera usar la herramienta: ¿qué revisamos?, ¿qué no delegamos nunca? y ¿cómo lo declaramos?

85%
Profesionales del marketing que usan IA generativa sin protocolo claro

La primera pregunta define supervisión. Si usas IA para generar primer borrador de comunicado, ¿qué verificas antes de publicar? Datos factuales, tono institucional, ausencia de sesgos, coherencia con mensajes previos. La política debe especificar que todo output de IA requiere revisión humana con criterio editorial. No porque la IA siempre se equivoque, sino porque cuando se equivoca el costo reputacional es institucional.

La segunda pregunta define límites sobre tareas de comunicación que no deberían delegarse a IA aunque técnicamente sea posible, como respuestas a crisis reputacionales, comunicación sensible con stakeholders, mensajes que requieren empatía genuina y decisiones editoriales sobre qué publicar y qué no. La política debe listar explícitamente qué tipos de comunicación requieren autoría humana completa, no solo revisión de output generado.

La tercera pregunta define transparencia sobre cuándo declarar el uso de IA: ¿lo declaras en qué contextos y con qué lenguaje? Algunas instituciones optan por declarar siempre, otras declaran solo cuando el contenido es sustancialmente generado por IA y otras documentan internamente sin declaración pública. No hay respuesta universal, pero la ausencia de criterio institucional deja al comunicador sin guía cuando alguien pregunta.

La IA se está entrenando contigo mientras te entrena a ti.


Lo que la IA sí hace bien con supervisión

La resistencia a definir política de IA a veces viene de miedo a que se interprete como prohibición. Pero política no es prohibición, es protocolo. Las herramientas de IA generativa sí reducen tiempo en tareas repetitivas de comunicación cuando se usan con criterio de supervisión. El ahorro real existe y es medible.

Tareas como resúmenes de documentos extensos, primeros borradores de comunicados rutinarios, traducciones de contenido institucional y generación de variaciones de mensajes para diferentes audiencias consumen tiempo significativo del comunicador, y la IA las ejecuta con calidad aceptable cuando hay revisión posterior. El comunicador que usa IA para estas tareas y supervisa el output puede dedicar más tiempo a trabajo que requiere criterio estratégico.

Pero ese ahorro solo se materializa cuando hay protocolo claro. Sin política, el comunicador gasta tiempo decidiendo caso por caso si puede usar IA, qué debe revisar y cómo documentar el uso. Con política, esas decisiones ya están tomadas y el comunicador puede enfocarse en supervisar calidad del output. La eficiencia de IA no viene de la herramienta sola, viene de la herramienta más protocolo institucional.

Instituciones que implementaron política de IA reportan que el uso aumentó después de definir protocolo, no antes. Cuando los comunicadores saben qué está permitido y qué se espera de ellos en términos de supervisión, usan la herramienta con más confianza. Cuando no hay política, el uso es errático porque cada comunicador define sus propios límites basado en criterio personal que puede no alinearse con valores institucionales.


El costo de seguir sin política

La pregunta no es si tu área de comunicaciones debería usar IA generativa. La pregunta es si vas a seguir usándola sin política institucional que defina responsabilidades. Cada día sin protocolo es día de riesgo acumulado donde decisiones individuales de comunicadores determinan límites éticos que deberían ser institucionales.

El comunicador que impulsa política de IA en su institución hace tres cosas simultáneamente. Primera, documenta casos de uso actuales. No espera a tener política perfecta para empezar. Mapea cómo el equipo ya está usando IA, qué funciona y qué genera dudas. Segunda, propone protocolo mínimo viable que responda las tres preguntas: qué revisamos, qué no delegamos, cómo lo declaramos. No necesita ser exhaustivo, necesita ser claro.

Tercera, establece proceso de revisión periódica. La tecnología de IA está evolucionando rápido. La política que funciona hoy puede necesitar ajustes en seis meses. Pero tener política imperfecta que se revisa es mejor que no tener política mientras se espera la perfecta. El riesgo reputacional no espera a que la institución termine de deliberar.

Los próximos meses van a revelar qué instituciones aprendieron a usar IA con protocolo y cuáles siguen dejando decisiones éticas en manos de comunicadores individuales sin guía. Las que implementaron política van a tener incidentes menores que pueden manejar porque tienen marco de referencia. Las que no tienen política van a enfrentar crisis reputacionales donde no pueden explicar por qué usaron IA de cierta forma porque nunca definieron límites institucionales.


Preguntas frecuentes sobre IA generativa en comunicaciones

¿Las instituciones deberían prohibir el uso de IA?

Prohibir es impráctica cuando 85% del sector ya la usa. Mejor definir protocolo de uso responsable que incluya supervisión obligatoria, límites claros sobre qué no se delega y criterios de transparencia. La política efectiva habilita uso con criterio, no lo prohíbe sin alternativa.

¿Cómo verificar calidad de contenido generado por IA?

Revisión humana con criterio editorial. Verificar datos factuales contra fuentes confiables, evaluar tono institucional, detectar sesgos potenciales y confirmar coherencia con mensajes previos. La IA genera borradores útiles pero no reemplaza criterio profesional del comunicador.

¿Qué tareas de comunicación no deberían delegarse a IA?

Respuestas a crisis reputacionales, comunicación sensible con stakeholders, mensajes que requieren empatía genuina y decisiones editoriales estratégicas. La política debe listar explícitamente qué requiere autoría humana completa, no solo revisión de output generado.

¿Cómo declarar el uso de IA en contenido publicado?

Depende de política institucional. Algunas instituciones declaran siempre, otras solo cuando el contenido es sustancialmente generado por IA, otras documentan internamente sin declaración pública. No hay estándar universal, pero la ausencia de criterio institucional deja al comunicador sin guía cuando alguien pregunta.

Si estás leyendo esto y tu institución no tiene política de IA generativa, ya sabes que no eres el solo comunicador tomando decisiones éticas individuales que deberían ser institucionales. En Alterlatina hemos trabajado con instituciones que necesitan implementar protocolos de tecnología que equilibren eficiencia con responsabilidad. Si necesitas desarrollar política de IA para tu área de comunicaciones, hablemos.