Diez casos preocupantes de inteligencia artificial deshonesta

La «inteligencia artificial deshonesta» ha sido un tropo común en la ciencia ficción desde que tenemos uso de razón. Hasta hace poco, los modelos de IA simplemente no estaban lo suficientemente avanzados como para hacer realidad esos escenarios ficticios. Sin embargo, a medida que las máquinas imitan mejor las emociones y los procesos de pensamiento humanos, vemos cada vez más casos en los que se desvían de la norma. Si bien todavía estamos bastante lejos de que los robots conspiren para apoderarse de la humanidad, estos diez incidentes preocupantes relacionados con la IA demuestran que puede que no sea tan descabellado como pensamos.

10. Lee Luda

Lee Luda era un chatbot de mensajería de Facebook desarrollado por una empresa con sede en Seúl, Scatter Lab. Lanzado a finales de diciembre de 2020, emulaba a una estudiante universitaria de 20 años y fanática del K-pop. El robot aprendió conversación analizando datos de la aplicación Science of Love de Scatter Lab y, al principio, los usuarios quedaron impresionados por su apariencia humana. respuestas.

Sin embargo, eso no duró mucho, ya que el chatbot pronto comenzó a usar insultos racistas y homofóbicos contra ciertos usuarios, lo que llevó a su suspensión en enero de 2021 por lenguaje vulgar, discurso de odio y comentarios discriminatorios. Además, los usuarios también descubrieron que el bot estaba usando sus registros de chat anteriores sin consentimiento.

Cuando el problema se hizo público, Scatter Lab se disculpó por los comentarios, afirmando que Luda todavía estaba en su fase de aprendizaje y que las futuras actualizaciones resolverán estos problemas. Además de los insultos, la empresa también se metió en problemas legales por utilizar datos del KakaoTalk aplicación de mensajería.

9. Chatbot 'Tay' de Microsoft

Se suponía que Tay sería un chatbot conversacional divertido diseñado por Microsoft. Lanzada en marzo de 2016, su inteligencia artificial tenía como objetivo desarrollar la comprensión conversacional interactuando con los usuarios en Twitter.

Eso fue el planDe todos modos, dentro de las 24 horas posteriores a su lanzamiento, el chatbot tuvo que cerrarse debido a que los usuarios explotaron su proceso de aprendizaje para obligarlo a responder con comentarios lascivos y racistas. Fue tan malo que Microsoft tuvo que intervenir y reconocer el problema, atribuyendo el incidente a un ataque coordinado por malos actores que expuso una vulnerabilidad crítica en la programación de Tay. La compañía se disculpó, desconectó a Tay y se comprometió a recuperarlo solo cuando se solucionara.

A pesar del resultado negativo, algunos expertos –como Misha Bilenko del gigante tecnológico ruso Yandex, consideró los problemas de Tay como un valioso estudio de caso. Según ella, las lecciones aprendidas de Tay ayudaron al desarrollo de chatbots más avanzados y otros modelos de inteligencia artificial en todo el mundo.

8. Los bots de Facebook desarrollan su propio lenguaje

En 2017, el laboratorio de Investigación de Inteligencia Artificial de Facebook se topó con un aspecto bastante aterrador del desarrollo del lenguaje en los chatbots. Mientras utilizaban el aprendizaje automático para entrenar agentes de diálogo para intercambiar y negociar entre sí, los ingenieros descubrieron que dos de los robots habían comenzado a apartarse del lenguaje humano y a conversar en su propia versión inventada del inglés para una comunicación más eficiente.

Los robots recibieron instrucciones de encontrar mejores formas de negociar valores entre sí, aunque las instrucciones no incluían hacerlo en un idioma completamente nuevo. Lo más extraño fue que los ingenieros podían entender lo que decían, ya que era simplemente una versión diferente del inglés, aunque la sintaxis y la estructura de las oraciones eran completamente nuevas para ellos. Los robots también repetían ciertas palabras, como sus propios nombres, durante la negociacionessugiriendo que en realidad se trataba de un lenguaje nuevo y no solo una desviación temporal de la conversación normal.

7. Las cirugías robóticas pueden ser peligrosas

Las cirugías robóticas están aumentando en todo el mundo, a medida que médicos y cirujanos buscan nuevas formas de incorporar inteligencia artificial y aprendizaje automático a los procedimientos quirúrgicos. ¿Pero es una buena idea? De acuerdo con un estudio de En 2015, de enero de 2000 a diciembre de 2013, 144 personas murieron en operaciones realizadas total o parcialmente por robots. El estudio, que analizó más de 10.000 informes de incidentes de la FDA, también encontró que robots causó 1.391 heridos en el mismo período.

Los incidentes variaron: instrumentos rotos que caían sobre los pacientes (14,7 por ciento), chispas eléctricas (10,5 por ciento) y movimientos involuntarios de robots (8,6 por ciento) fueron las principales causas de lesiones y muerte.

Si bien la cirugía robótica puede reducir los riesgos de infección y acelerar la recuperación del paciente, estos resultados sugieren que es posible que los robots no reemplacen completamente a los cirujanos calificados reales durante mucho tiempo.

6. Chatbot 'Mi IA' de Snapchat

My AI de Snapchat se introdujo temprano 2023 para servir a una variedad de propósitos, como responder consultas de los usuarios y brindar asesoramiento utilizando la tecnología ChatGPT de OpenAI. En poco tiempo, los usuarios comenzaron a informar sobre sesgos e inexactitudes en sus respuestas. Eso aumentó dramáticamente cuando en algún momento de agosto, My AI respondió de forma autónoma a varios usuarios con un video de un segundo. No está claro cuáles eran esos videos, pero algunos dijeron que eran imágenes de sus alrededores tomadas por la IA sin consentimiento.

Cuando preguntaron si la IA lo hizo a propósito o si se había vuelto consciente, Mi IA dejó de responder y desapareció. Snapchat confirmó un corte temporal con el software y desestimó rotundamente las afirmaciones de que su IA había ganado sensibilidad. Debido al problema, muchos usuarios siguieron adelante y eliminaron My AI de su chat, y finalmente la empresa eliminó el bot por completo.

5. El piloto automático mortal de Tesla

Según datos de la Administración Nacional de Seguridad del Tráfico en Carreteras analizados por el El Correo de Washington, el software Autopilot de Tesla ha sido responsable de la preocupante cifra de 736 accidentes desde 2019. Otra estimación sitúa el número de muertos en 393, según los datos proporcionados por la base de datos Tesla Deaths. El análisis reveló que hasta 95 personas perdieron la vida en Teslas debido a incendios o al piloto automático.

A lo largo de los años, Tesla ha afirmado que sus coches son más seguros que el vehículo medio e incluyen un sistema de automatización de conducción de nivel 2. Sin embargo, el preocupante aumento de accidentes y muertes relacionados con el piloto automático en los últimos años sugiere que el software puede no ser tan infalible como generalmente se cree.

Debido a estos incidentesActualmente hay una investigación regulatoria en curso sobre la marca, que involucra a unos 830.000 vehículos Tesla en circulación. Según algunos expertos, el reciente aumento en las cifras de muertes podría ser el resultado de cambios realizados personalmente por Elon Musk, como la eliminación de los sensores de radar de los nuevos Model 3 y Model Y. vehículos.

4. ¿La IA LaMDA de Google logró sensibilidad?

En junio de 2022, un ingeniero que trabajaba en Google fue noticia cuando afirmó que LaMDA, un modelo de conversación desarrollado por la empresa, había alcanzado la sensibilidad. El ingeniero Blake Lemoine hizo esta valoración después de pasar días conversando con la IA, que, según él, hablaba como un niño pequeño.

Lemoine, parte del equipo responsable de desarrollo de IA de Google, publicó transcripciones de conversaciones con LaMDA, donde la IA discutió diversos temas humanos como los derechos, la personalidad y el miedo a ser desconectado. En respuesta, Google citó violaciones de confidencialidad y puso a Lemoine en licencia, lo que lo llevó a buscar servicios legales. consejo.

A pesar de las bien publicitadas afirmaciones de Lemoine, Google negó que LaMDA o cualquiera de sus otros modelos de IA han ganado sensibilidad.

3. El sistema de inteligencia artificial MCAS provocó dos accidentes aéreos

MCAS significa Maneuvering Characteristics Augmentation System, un sistema de inteligencia artificial instalado por Boeing en sus aviones 737 MAX. En los últimos cinco años, el sistema ha provocado dos accidentes en Indonesia y Etiopía, matando a un total de 346 personas. Los accidentes provocaron investigaciones por parte de Estados Unidos, Indonesia y agencias etíopes, revelando problemas evidentes en el sistema de IA. Según algunos expertos, además del sistema MCAS, los accidentes también podrían deberse a la estructura organizativa de Boeing.

El MCAS está diseñado para evitar pérdidas, aunque según los informes, se basa en un único sensor de ángulo de ataque. Boeing decidió utilizar MCAS como solución de software para un problema de hardware del fuselaje, lo que sugiere que la empresa se mostró reacia a solucionar el problema debido a cuestiones de costes y, en cambio, optó por una solución de software.

2. Drones asesinos con IA

Los sistemas de IA están diseñados para encontrar las formas más eficientes de completar sus tareas. En una simulación militar llevado a cabo por la Royal Aeronautical Society, un dron controlado por IA, encargado de identificar y apuntar a una amenaza de misil tierra-aire (SAM), decidió lograrlo matando a su manejador.

Según el coronel de la Fuerza Aérea de EE. UU., Tucker 'Cinco' Hamilton, cuando el operador humano le ordenó al dron de IA que se abstuviera de matar una amenaza designada, calculó que la mejor manera de completar su misión de neutralizar la amenaza era eliminar al operador.

A pesar del relato detallado de Hamilton en la cumbre Future Combat Air & Space Capabilities en Londres, la Fuerza Aérea de EE.UU. negó que tal prueba alguna vez hubiera ocurrido. Según su portavoz, los comentarios del coronel estaban destinados a ser anecdótico y podría haber sido sacado de contexto.

1. Robot de ajedrez rebelde

Los robots llevan tiempo jugando al ajedrez, aunque es raro que se frustren y ataquen a sus oponentes humanos durante una partida. Eso es exactamente lo que sucedió en un torneo de ajedrez en Moscú en julio de 2022, cuando un robot jugador de ajedrez agresivamente Agarró a su oponente, un niño de siete años, y le rompió el dedo.

Según los informes, el robot controlado por IA aparentemente estaba inquieto por la velocidad de los movimientos del joven ajedrecista, quien también es uno de los mejores ajedrecistas menores de nueve años en Moscú. El robot repentina e inesperadamente agarró el dedo del niño, lo que provocó que los espectadores intervinieran y liberaran al niño de su agarre.

El presidente de la Federación de Ajedrez de Moscú insistió en que el robot había jugado muchas partidas anteriores sin ningún problema, y ​​el incidente sólo ocurrió porque el niño estaba haciendo sus movimientos demasiado rápido.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.