Una de las cosas en las que estamos especializados es en la redacción, ya que una parte de nuestro trabajo en el área de comunicación consiste en escribir para blogs, redes sociales, sitios web, creatividades publicitarias, newsletters, folletos, etc. Por eso estamos acostumbrados a leer, revisar y armar textos en diferentes formatos, y podemos decir que tenemos algo de ojo a la hora de saber si un texto está redactado por ChatGPT.
Es difícil demostrar que un texto ha sido redactado por una IA, porque una persona siempre podrá alegar que es pura coincidencia, pero hemos identificado una serie de patrones repetidos e indicios que normalmente nos pueden hacer sospechar.
1 – El uso de las mayúsculas en los títulos.
ChatGPT suele escribir la primera letra de todos los sustantivos de cualquier título en mayúscula (cosa que es muy extraño que haga una persona). Si el modelo de lenguaje redacta un texto dividido en subapartados, encontrarás subtítulos como los siguientes:
- “El Cliente en el Centro de Todo”
- “Filosofía de Negocio”
Estas mayúsculas no son nada habituales. Y de hecho, según podemos consultar en la RAE, son incorrectas: “se escribe con mayúscula la primera palabra del título de las subdivisiones o secciones internas de una publicación o un documento.”
2 – Clichés y tópicos.
ChatGPT no es más que un modelo matemático, con lo cual, aprende a redactar siguiendo patrones y estadísticas. Esto quiere decir que suele escribir lo que es más probable, lo más repetido, lo más frecuente.
Por eso cae en clichés y frases muy manidas:
- Parece que tiene particular interés por empezar la mayoría de redacciones con frases como “en la era digital en la que vivimos”, “en un mundo cada vez más globalizado”, “en un entorno cada vez más tecnológico”, “en un contexto que plantea desafíos”, etc.
- Abusa de las “palabras que van juntas” (colocaciones): marco incomparable, gravemente herido, valor incalculable, entrada triunfal, pilar fundamental, satisfacción de necesidades, contribución significativa, alta cualificación, límite insospechado, negarse rotundamente, elevar a otro nivel… etc.
Si un texto está repleto de lugares comunes y colocaciones, es normal sospechar de que no lo ha redactado un humano. Porque somos predecibles, pero no tanto. ¿No?
3 – Redactando, que es gerundio.
ChatGPT también abusa mucho del gerundio para expresar temporalidad (generalmente posterioridad inmediata) o aspectualidad (generalmente relación causal). Estos son algunos ejemplos de esta estructura oracional tan típica del modelo:
- “el sistema extrae información de la muestra, creando una plantilla”
- “infringimos las normas, provocando una situación peligrosa”.
Ya que éste es el uso más ambiguo y confuso del gerundio, ChatGPT tiende a “empantanarse” y cometer errores:
- El gerundio solamente se puede utilizar para expresar una posterioridad tan inmediata que se considera prácticamente simultanea, pero no cualquier posterioridad.
- El gerundio debe concordar con el sujeto.
- Y por supuesto, ojo con los textos en los que el gerundio se utiliza a diestro y siniestro sin ningún tipo de justificación, ni temporal ni aspectual: “La mujer se deslizó entre los enemigos, colocándose en una columna todavía en pie, sacando su arco, y disparando tres flechas”. Esto también es incorrecto.
4 – Conclusiones y malos hábitos.
Siempre que hace una redacción, ChatGPT la termina con una pequeña conclusión. Por eso el último párrafo siempre empezará diciendo: “en resumen”, “en definitiva”, etc. Pero estas “conclusiones” no son realmente conclusiones, porque no ofrecen información nueva, sino que son más bien un resumen, a veces muy redundante, en el que repite todo lo que ha dicho anteriormente.
En estas frases finales, y en general, el modelo abusa mucho de la siguiente construcción oracional:
- “No sólo esto, sino lo otro”.
Así, un párrafo de conclusión típico de ChatGPT podría comenzar diciendo:
“En resumen, el tema del que he estado hablando no sólo es muy interesante, sino también muy necesario”.
5 – Metáforas acuáticas.
A esto realmente no le hemos encontrado ninguna explicación, y nos parece bastante gracioso (pero no quita que sea cierto): ChatGPT utiliza mucho las metáforas relacionadas con el agua.
- “Sumergirse” en un tema.
- “Navegar” a través de una situación.
- Encontrar algo “en un mar”.
- “Zambullirse” en una cuestión.
¿Será que tiene especial interés en comprender cómo es eso de ir a la playa?
6 – No es capaz de darse con un canto en los dientes.
ChatGPT raramente utilizará expresiones nacionales o modismos del español que no sean universalizables.
Por ejemplo, es muy improbable que ChatGPT escriba “no hay color”, “a duras penas”, “ir de punta en blanco”, o “tener la mosca detrás de la oreja”. Porque estas expresiones van más allá de lo meramente gramatical. Son culturales e históricas, con lo que siempre las evita (a no ser que se lo pidas expresamente o que el texto que esté redactando verse sobre el tema —en cuyo caso sí accederá a ellas).
En este sentido, el estilo a la hora de escribir de ChatGPT es muy antinatural, pues no tiene “marcas humanas” como son la nacionalidad, la clase social, el entorno cultural, el contexto histórico, el cociente intelectual o el nivel educativo.
Por eso también es muy improbable que haga referencias a la cultura por su propia cuenta, a no ser que se lo pidas expresamente.
7 – Adjetivos que son participios que sobran.
A ChatGPT no solamente le gustan los gerundios, sino también los participios. Frecuentemente los utiliza como adjetivos (lo cual es correcto), pero éstos tienden a ofrecer descripciones redundantes.
Por ejemplo:
- “Los objetivos deseados” (sería raro que los objetivos no fueran deseados)
- “La fotografía capturada”
En general, tiene inclinación hacia la adjetivación excesiva. Utiliza dos o tres adjetivos para describir la misma cosa, y es muy raro que prescinda de ellos en absoluto.
- “Académico, culto y profesional.”
- “Fresco y desenfadado.”
- “Cercano y conversacional.”
- “Técnico y rebuscado.”
- “Claro, persuasivo y estructurado”
¿Por qué es interesante identificar un texto redactado por ChatGPT?
Para algunos profesionales, como por ejemplo los profesores o los periodistas, puede resultar frustrante que las redacciones de ChatGPT (y algunas de ellas sin revisar) pasen por trabajadas y serias o se consideren perfectamente válidas tan a menudo, cuando en muchos casos pueden llegar a ser incluso incorrectas.
Estos modelos de lenguaje son herramientas muy útiles, y nosotros mismos las utilizamos cuando estamos bloqueados o tenemos falta de ideas (sería un absurdo no aprovecharnos de este tipo de facilidades, e incluso las recomendamos, siendo una empresa tan ligada al mundo de la tecnología), pero creemos que es importante analizar las redacciones que hacen con algo de criterio, hacer un uso responsable de las mismas, comprender los límites que tienen (al menos de momento), y no perder de vista el valor de un trabajo bien hecho.
¡A echarle un ojo a ese texto!