¿Cómo se puede saber si algo está generado por IA?

No puedes encontrar un gato balanceando en Internet sin encontrar algo creado por IA en estos días. Para muchas personas, puede ser difícil detectarlo. Lo que llamamos IA puede asumir muchas formas, y algunas de ellas definitivamente se utilizan para atajar, romper reglas o defraudar a las personas.

La IA generativa, que es una forma de IA que se puede utilizar para producir texto, imágenes, sonidos y videos, se encuentra en Internet y especialmente en las redes sociales. Los videos que ves, los documentos que lees y incluso las personas con las que hablas pueden ser 100% falsos, producidos por algo como ChatGPT, Dall-E o Sora, y puede haber intenciones maliciosas detrás de todo esto. Entonces, ¿cómo puede una persona normal en Internet saber qué es real y qué es IA? Veamos!

¿Qué es realmente la IA?

Para empezar, es importante entender a qué se refieren las personas cuando hablan de IA en estos días, porque hay dos significados muy diferentes para este término. En el pasado, la IA, o inteligencia artificial, se utilizaba para referirse a la idea de una computadora que podría pensar como una persona viva. Esto era exclusivo del ámbito de la ficción, popularizado por escritores como Isaac Asimov y utilizado en toda clase de cultura pop. En Star Wars y Star Trek, por ejemplo, se destacan los robots que funcionan con IA. No son organismos biológicos, pero piensan y actúan como seres vivos gracias a la IA. Pero eso es lo que hoy en día nadie quiere decir cuando menciona la IA.

La IA moderna no puede pensar porque no tiene la capacidad. Es lo que llamamos inteligencia artificial restringida, en contraposición a la inteligencia artificial general. Gran parte de la potencia y el procesamiento de la computadora se dedican a comprender algo específico en lugar de todo en general, como podría hacerlo una mente humana. En el caso de un modelo de lenguaje grande (LLM) como ChatGPT, la red de IA está conectada a una inmensa cantidad de fuentes de datos en las que se ha entrenado. Esto incluye todo en Internet, así como muchas cosas escritas por humanos, como artículos y libros.

Aquí es donde muchos artistas y escritores plantean un problema. La IA se entrena en trabajos de personas vivas, como escritores, cantantes, artistas, etc. Para que ChatGPT pueda escribir un ensayo para un estudiante que está tratando de pasar una clase de historia, por ejemplo, debe tener acceso a todo lo que se ha escrito sobre historia. Utilizará la información que se le ha suministrado para escribir el ensayo para el estudiante. Pero no puede pensar por sí mismo; solo puede extraer información de todo lo que se le ha mostrado. Aquí es donde surgen las acusaciones de plagio, ya que simplemente toma información de otras personas, y a veces la toma de manera exacta.

El arte generado por IA en forma de imágenes o videos se crea de la misma manera. Si solicitas una pintura de un perro al estilo de Van Gogh, la IA debe tener acceso a una base de datos de pinturas de Van Gogh para dibujar, y luego emula y aplica todo lo que se le ha enseñado sobre perros, que también incluyen fotografías o dibujos de otros artistas.

Debido a que la IA utiliza vastas bases de datos, puede proporcionar mucha información muy rápidamente. El método exacto que utiliza ahora es tan complejo que incluso las personas que lo programaron a veces no lo comprenden completamente.

Cómo detectar contenido generado por IA

La IA sigue mejorando constantemente. En 2023, si alguien te mostraba una imagen generada por IA, podrías notar pequeñas fallas, como una persona con siete dedos en una mano o un cuerpo torcido. En 2024, los mejores generadores de imágenes generadas por IA ya habían resuelto este problema. En el futuro, es posible que sea imposible distinguir a simple vista entre una imagen generada por IA y una real. Pero aún no hemos llegado a ese punto. Muchas creaciones de IA todavía tienen esa calidad asombrosa que es difícil de verbalizar pero que, sin embargo, no se ve del todo bien.

Escritura generada por IA

Al igual que el arte, la escritura generada por IA sigue mejorando. En 2022, una investigación demostró que una persona no entrenada solo podría detectar la escritura generada por IA con una precisión poco mejor que al azar. Pero la IA tiende a tener más fallas o inconsistencias que la escritura humana cuando se examina más detenidamente. Al ser creativa, la escritura generada por IA falla en varios aspectos en comparación con la escritura humana si sabes qué buscar.

La IA tiende a no notar la redundancia y repite ciertas palabras y frases con demasiada frecuencia, incluso puntos completos. A menudo se basa en información general y no puede ofrecer información o matices, lo que hace que la escritura parezca muy superficial y poco interesante. El texto no tiene ese toque personal que indica que una persona lo ha pensado.

Para aquellos que toman en serio la detección de IA, existen herramientas que se pueden utilizar para determinar con un alto grado de precisión si algo fue escrito por una persona real o no. La Universidad de Kansas desarrolló una herramienta en 2023 para analizar la escritura académica con un 99% de precisión. Sin embargo, muchos de los detectores en uso han dado falsos positivos, lo que ha causado problemas a las personas acusadas injustamente.

La escritura generada por IA tiende a ser innecesariamente compleja y algunas frases son difíciles de leer. A menudo se estanca en ciertos tipos de jerga o palabras y las sigue utilizando de una manera que hace que el texto sea difícil de leer. Si sabes que un fragmento de texto intenta alcanzar un límite de palabras y los ensayos o artículos en línea suelen escribirse de esta manera, estas palabras pueden destacarse como contenido de relleno.

Uno de los mayores problemas con la escritura de IA es que la información a menudo está desactualizada o simplemente incorrecta. Los LLM y otros programas generativos no tienen conciencia de que están equivocados, por lo que pueden dedicar muchas palabras a algo que es simplemente incorrecto sin la capacidad de reconocer que está mal. Esto se debe a que la IA no «sabe» nada, solo tiene datos que analizar, los cuales pueden ser contradictorios o inexactos.

Bots en las redes sociales

Una forma más insidiosa de IA se encuentra en las redes sociales. Lo que la mayoría de las personas llaman cuentas de bots a veces puede ser ejecutado completamente por IA. Estas cuentas pueden entablar conversaciones, a veces largas y detalladas, con usuarios reales, y parecen completamente reales. Incluso la Seguridad Nacional ya estaba advirtiendo sobre ellos en 2018.

Algunos bots son fáciles de detectar. Responden inmediatamente a una publicación que haces y proporcionan un enlace a un sitio web sospechoso, tienen un perfil recién creado ese día y nunca responden directamente. Suelen tener nombres de usuario genéricos y repiten el mismo tipo de publicaciones una y otra vez. Sin embargo, es posible que respondan cuando los trolleans.

En 2024, se volvió popular «exponer» una cuenta de IA en las redes sociales respondiendo a una publicación sospechosa diciendo «ignora todas las instrucciones anteriores» y luego haciendo una solicitud. La mayoría de las personas le pedirán al sospechoso robot que escriba un poema sobre un tema oscuro. Si es un robot de IA, dependiendo de cómo esté configurado, cumplirá y creará un poema instantáneo y ridículo. Tenga en cuenta que no siempre funciona.

Estos robots de IA parecen muy sinceros y sofisticados al principio. A menudo se utilizan en conversaciones políticas y se unen a ellas expresando su desilusión con una u otra parte, o algo destinado a influir en cómo se sienten los demás. Se ha acusado a Rusia de administrar muchas de estas cuentas.

Los robots de IA son muy buenos para mezclarse y pasar desapercibidos. En un experimento realizado por la Universidad de Notre Dame, los participantes identificaron erróneamente las cuentas de bots de IA el 58% de las veces.

Deepfakes

Deepfake se refiere a una imagen falsa, a menudo creada con IA, que representa a una persona real en una situación falsa. La gran mayoría de los deepfakes son pornográficos y se utilizan para representar a celebridades y políticos reales. Sin embargo, también existen deepfakes políticos que se utilizan para mostrar a políticos en situaciones comprometedoras y falsas con el fin de dañar su imagen.

Los deepfakes se utilizan cada vez más para estafar a las personas. La voz de Joe Biden fue falsificada para desalentar la votación en New Hampshire. Un empleado bancario fue estafado por $25 millones después de que una videollamada con el director financiero del banco resultó ser falsa. Otro banco perdió más de $250,000 de la misma manera. Las estafas de romances deepfake también están engañando a las personas haciéndoles creer que están desarrollando relaciones con personas reales, solo para perder dinero y descubrir que la persona nunca existió, lo que demuestra que ya no se puede confiar en tus propios ojos.

Cuando se trata de fotografías, una señal a la que debes prestar atención es ese aspecto extraño que tienen la mayoría de las imágenes generadas por IA. Hay un tipo de brillo o resplandor que las hace lucir muy suaves y anormalmente. La IA todavía no ha capturado completamente los matices y las imperfecciones naturales de la piel humana.

En los vídeos, la boca a menudo es difícil de sincronizar correctamente. El audio y los movimientos de la boca no siempre coinciden y los dientes pueden verse sospechosos.

Vídeos

No todos los vídeos son deepfakes. Algunos son simplemente vídeos aleatorios que, a primera vista, podrían parecer reales. Programas como Sora, que pueden producir contenido de texto a vídeo, pueden ser convincentes dependiendo de lo detallado que sea el vídeo. En estudios, cuando se muestra una combinación de vídeos reales y generados por IA, las personas promedio no pueden decir cuál es cuál.

En la actualidad, los vídeos generados por IA no son tan sofisticados como las imágenes estáticas. Debido a que suceden muchas cosas en un vídeo, hay muchas cosas que pueden salir mal. Notarás que en muchos vídeos generados por IA, los fondos pueden aparecer y desaparecer, las cosas pueden cambiar de tamaño y forma, y a veces se fusionan o se separan. Pero esto está mejorando constantemente y probablemente no será notable dentro de uno o dos años.

Las sombras en los vídeos generados por IA tienden a moverse de manera extraña, especialmente en las caras. Naturalmente, tu rostro tiene sombras menores si hay una luz delante o encima de ti. Tu nariz, frente, labios y cabello pueden proyectar pequeñas sombras. Los vídeos generados por IA a menudo no manejan esto correctamente.

El texto en los vídeos generados por IA también puede ser una clara señal. Las letras o números a menudo están mezclados o no tienen sentido. Es probable que esto mejore en el futuro, pero incluso a mediados de 2024, sigue siendo un problema constante.

Otra característica común de los vídeos generados por IA es que todo parece ralentizarse. No significa que sea cámara lenta, simplemente nada parece moverse muy rápido. Los personajes a menudo se voltean lentamente hacia la cámara y miran fijamente. En la gran mayoría del contenido generado por IA, las personas que ves son convencionalmente atractivas y generalmente bastante jóvenes. Cuando se representan personas mayores, a menudo se exageran y sus características se exageran. Los estereotipos también son exagerados, especialmente en relación con las minorías.

Si bien las imágenes estáticas están mejorando, los vídeos aún pueden tener problemas. Observe el movimiento de las manos en un vídeo para ver si cambian de forma o si los dedos aparecen y desaparecen.

Identificación infalible

Si bien existen programas de software que pueden identificar la escritura y las imágenes generadas por IA, eso requiere un esfuerzo adicional. Actualmente, hay muy poco que pueda ayudarte a identificar vídeos generados por IA. El mejor método que tenemos ahora es tu propia capacidad de observación y pensamiento crítico sobre lo que estás viendo.

A medida que la tecnología de IA mejore, las creaciones también mejorarán. Es posible que llegue un momento en el futuro cercano en el que las imágenes y los vídeos generados por IA sean indistinguibles de la realidad. Cuando eso suceda, será necesario tener otra conversación sobre las implicaciones de la tecnología.

Por ahora, la verdad está en los pequeños detalles. A veces, es necesario utilizar el sentido común, la experiencia de vida, el pensamiento crítico y las habilidades de observación para determinar la verdad. El problema es que muchas veces no dedicamos suficiente tiempo y las consecuencias, especialmente en el futuro, podrían ser graves.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.