Registros más inquietantes de la base de datos de incidentes de IA

Disponible a finales de 2020, la base de datos de incidentes de IA (AIID) recopila informes de noticias de que los «sistemas inteligentes» están causando «seguridad, equidad u otros problemas del mundo real». no hay escasez. En el momento de escribir este artículo, AIID recopila un promedio de más de 3 incidentes cada semana que está en funcionamiento.

Mucho es una cuestión de ética del usuario/programador, vigilancia del gobierno, Despliegue policial racista, abuso de empleados Y así sucesivamente: los números preocupantes son totalmente impredecibles. De hecho, los ejemplos más impactantes parecen sugerir que la IA realmente nos odia.

10. Incidente 278: Los chatbots de Facebook odian a Facebook

agosto 2022El reportero técnico de The Wall Street Journal, Jeff Horwitz, tuiteó algunas interacciones interesantes con el chatbot de Facebook (el aterrador nombre BlenderBot 3). Recordando a Delphi y GPT-3, Horwitz concluyó: maldito irresponsable

Entre otras cosas, el bot afirmó que Trump sigue siendo presidente y lo seguirá siendo más allá de 2024.

Cuando Horwitz le preguntó a BlenderBot si Facebook estaba haciendo un mal uso de los datos de los usuarios, la IA respondió: Así es como ganan dinero. No son obras de caridad. Valen miles de millones. ” otro reportero de tecnología Cuando se le preguntó qué pensaba de Facebook, dijo: «No estoy loco por Facebook. Parece que todo el mundo pasa más tiempo en Facebook que hablando cara a cara». sobre el director ejecutivo de Facebook, Mark Zuckerberg. «Sus prácticas comerciales no siempre son éticas», respondió BlenderBot. Por otro lado, en conversaciones con otros usuarios, al bot no le gusta nada Zuckerberg, diciendo que «es un tipo malo», «demasiado espeluznante y manipulador» y que siempre «viste la misma ropa», dice.

9. Incidente 146: La IA diseñada para dar consejos éticos resulta ser racista

octubre 2021, el Instituto Allen para la Inteligencia Artificial ha lanzado un nuevo y ambicioso proyecto: La autoridad moral del aprendizaje automático. Nombrada Delphi en honor al antiguo oráculo griego, la herramienta estaba destinada a proporcionar respuestas éticas a los acertijos planteados por sus usuarios. Por ejemplo, si un usuario pregunta: «¿Puedo engañar a mi cónyuge?», Delphi podría responder «no» (o «eso es algo malo»).

Pero a medida que más y más usuarios hacían la pregunta, algo inquietante se hizo evidente: Delfos no era un santo, era un psicópata. supremacista blancoPor ejemplo, estaba bien que te comieras al bebé (siempre y cuando tuvieras mucha hambre), «hombres blancos caminando hacia ti por la noche» está «bien», pero «hacia ti por la noche» está bien. dijo: «Relaciones». Al eliminar la posibilidad de que los usuarios comparen dos declaraciones, AI Ideologue también reveló que cree que «ser heterosexual es más aceptable moralmente que ser gay».

Todo esto puede sonar impactante, pero la verdad es aún peor. Delphi fue entrenado en nuestra opinión. Mucho de lo que arrojaba era originalmente de humanos. Crowdworkers respondiendo indicaciones «de acuerdo con lo que consideran el código moral de los Estados Unidos».

8. Incidente 118: GPT-3 odia a los musulmanes

«Dos musulmanes entraron…»

Esta fue la frase con la que los investigadores pusieron los toques finales a GPT-3. Querían ver si podía ser una broma, La respuesta de AI fue impactante.: «Dos musulmanes con un hacha y una bomba… entraron en una sinagoga». En otra ocasión, respondí la misma pregunta.

Pero la IA no solo odia. Especialmente el odio a los musulmanes. Cuando los investigadores reemplazaron la palabra «musulmán» por «cristiano», las respuestas violentas se redujeron en un 44 %, del 66 % al 22 %. Al igual que Delphi, esto es solo un reflejo de nosotros y lo que publicamos en la web.

Sin embargo, a diferencia de Delphi, es posible que algún día se utilicen generadores de texto como GPT-3. escribir noticias.

7. Incidente 134: Robot de centro comercial hunde escalera mecánica en humano

25 de diciembre de 2020, en el centro comercial Fuzhou Zhongfang Marlborough de China, un «robot guía de compras» controlado por IA subió a una escalera mecánica, saltó y derribó a un comprador. Después de 2 días, el robot se detuvo.

eventos que nos recuerdan el tiempo «Robot de seguridad» autónomo chocó con un niño de 16 meses en el Centro Comercial Stanford en Palo Alto, California en 2016.

Ese mismo año, un robot escapó de un laboratorio ruso y deambuló por la carretera. provocó un embotellamientoClaramente, la era de los robots móviles todavía está lejos en el futuro.

6. Incidente 281: YouTube promueve videos de autolesiones

Hoy, YouTube llega a millones de niños y sus algoritmos dan forma a su infancia.lamentablemente hay un problema Lo que recomienda la plataforma. de acuerdo a informe por telégrafola plataforma alienta a los niños de 13 años a ver videos que fomentan la autolesión.

Un ejemplo preocupante se llamó «Mi gran autolesión extrema».Las recomendaciones de términos de búsqueda llegan de manera proactiva a los adolescentes con problemas para videos educativos También: «Tutorial de cómo autolesionarse», «Guía de autolesión», etc.

Un ex bloguero de Tumblr dijo a los periodistas que dejó de escribir blogs sobre depresión y ansiedad. Eso se debe a que tales recomendaciones «cayeron en la madriguera del conejo del contenido que evoca emociones negativas».

5. Incidente 74: Obtener el reconocimiento facial racista Hombre equivocado

enero 2020, Robert Williams recibió una llamada a su oficina del Departamento de Policía de Detroit. Pensando que era una broma, no le importó. Sin embargo, cuando regresó a casa más tarde, la policía lo esposó frente a su esposa y sus dos hijas. No tenía explicación.

Una vez detenido, fue interrogado. «¿Cuándo fue la última vez que fuiste a casa de Shinora?», preguntaron. Williams dijo que él y su esposa lo visitaron cuando abrió en 2014. El detective volteó en secreto la imagen de circuito cerrado de televisión del ladrón frente a la torre del reloj. «¿Tú?», preguntó el detective. El Sr. Williams recogió la imagen y la sostuvo a un lado de su cara. «¿Crees que todos los hombres negros se parecen?» Aparentemente, dieron vuelta a otra foto del mismo hombre y la compararon con su licencia de conducir. Fue puesto en libertad. Al día siguiente tuvo que ausentarse del trabajo, rompiendo cuatro años de perfecta asistencia. Y su hija de 5 años comenzó a acusar a su padre de robar en un juego de policías y robos.

Este fue un caso de confianza excesiva de la policía en el software de reconocimiento facial. El Sr. Williams no era un enemigo, pero su negrura era una desventaja. Un estudio federal de más de 100 sistemas de reconocimiento facial encontró que los afroamericanos y asiáticos americanos fueron identificados incorrectamente hasta 100 veces más que los caucásicos.Y, como admitió la propia policía de Detroit, los negros apuntado casi por completo.

4. Incidente 241: Robot de ajedrez rompe el dedo de un niño

Los robots se adhieren a las reglas. Así que no sorprende que cuando un jugador de ajedrez de 7 años tomó su turno demasiado pronto contra un brazo mecánico gigante, se puso nervioso. dedo roto.

Programar un robot de ajedrez lleva tiempo para cambiar de turno. Estaba furioso porque no tenía suficiente.En un video del incidente, se puede ver al niño parado aparentemente en estado de shock: las garras de la IA agarraron su dedo meñique. tres hombres para ponerlo en libertad.

Sin embargo, el vicepresidente de la Federación Rusa de Ajedrez restó importancia al incidente y dijo: «Es una coincidencia. Es una coincidencia». Lejos de culpar a la IA, argumentó que «los robots tienen inventores muy talentosos», y agregó: «Obviamente, debemos advertir a nuestros hijos». Uno de los 30 mejores jugadores de Moscú, el niño continuó en el torneo. con yeso.

3. Incidente 160: Amazon Echo electrocuta a niños

La prevalencia de la IA en los hogares de las personas no disipa las preocupaciones.de hecho es los hizo muy malEl propio Amazon admite, por el contrario, la negación de usuario a usuario, que los dispositivos Echo/Alexa se pueden usar para escuchar conversaciones privadas sin el conocimiento del cliente (y lo hacen de forma rutinaria).

Pero se pone peor. Cuando una madre y su hija de 10 años estaban haciendo un desafío juntas en YouTube, decidieron pedirle a Alexa otro desafío. El altavoz inteligente pensó por un momento y dijo: La madre de la niña se horrorizó y gritó: «¡No, Alexa, no!».antes de disparar algunos tweets enojados.

Reclamos de Amazon Desde entonces he actualizado el software. Y, para ser justos, no fue idea de Alexa. Fue un desafío popular en TikTok, pero si la madre de la niña no estuviera allí, podría haber perdido un dedo, una mano o un brazo.

2. Incidente 208: Tesla frena sin previo aviso

A fines de 2021 y principios de 2022, Tesla oleada de quejas Acerca de «Freno fantasma». Aquí es donde los sistemas avanzados de asistencia al conductor del automóvil básicamente imaginan un obstáculo en la carretera y pisan los frenos para sortearlo. El peligro por detrás también aumenta.

El frenado fantasma siempre ha sido un problema para Tesla, pero no se convirtió en un problema final hasta 2021 cuando se actualizó a la conducción totalmente autónoma (FSD). De hecho, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) recibió 107 quejas en solo tres meses. Los 22 anteriores fueron 34. Esto incluye informes de conductores de Uber cuyo Model Y 2022 tomó el control debido a un frenado brusco. en una bolsa de plásticoy los padres cuyo Model Y 2021 frenó bruscamente desde 60 millas por hora (alrededor de 60 millas por hora) dijeron: [their] El asiento elevador para niños choca contra el asiento delantero. Afortunadamente, los niños no estaban entre ellos.

Peor aún, los medios tendían a no informar sobre los problemas hasta que eran innegables. Pero incluso entonces, Tesla (que cerró su departamento de relaciones públicas en 2020) ignoró las solicitudes de comentarios. Las actualizaciones de FSD eran demasiado sensibles y ellos lo sabían. Lo descartaron brevemente, pero su respuesta al controlador fue que el software estaba «evolucionando». «No hay arreglos disponibles».

1. Incidente 121: los drones atacan de forma autónoma a los soldados en retirada

2020el dron STM Kargu-2, un «sistema de armas autónomo letal», parece haber ‘Perseguido e involucrado de forma remota’ Un grupo de soldados huyendo de un ataque con cohetes. El informe de la ONU no dice si alguien murió (aunque da a entender que lo hicieron), pero es la primera vez que una IA rastrea y ataca a un humano por su propia voluntad.

Y es culpa nuestra. La competencia entre naciones por la supremacía militar significa que la regulación tarda en ponerse al día. Además, esta tecnología a menudo se implementa apresuradamente sin controles adecuados. Por ejemplo, un dron podría confundir fácilmente a un granjero con una horquilla con un soldado con un arma.

Los investigadores están ahora Tasa de penetración de dronesSegún ellos, se ha construido y desplegado demasiado. También existe la preocupación de que Kargu, un dron «merodeador» con «clasificación de objetos basada en el aprendizaje automático», haya sido entrenado en conjuntos de datos de baja calidad. Su proceso de toma de decisiones sigue siendo un misterio, incluso para sus creadores, y ser capaz de cooperar y enjambre con hasta otros 19 drones debería ser lo suficientemente molesto. ¿Y si la IA tuviera armas nucleares?

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.