10 veces las computadoras se fueron
Las computadoras y la automatización están revolucionando el lugar de trabajo y el mundo en general. Lo más probable es que en algún lugar, hay un equipo de ingenieros calificados que analizan cómo una máquina o pieza de software podría hacer su trabajo. Hay muy pocas posiciones que alguien no ha tratado de llenar con un robot en su punto.
Tal vez no deberíamos estar temblando de miedo por el hecho de que las computadoras se hagan cargo de todo. Por otro lado, ya ha habido casos en que las máquinas y los AI están fuera de control. Aquí hay diez ejemplos de computadoras que se deshacen.
10 Muerte por robot
La primera muerte registrada por robot automatizado ocurrió en 1979. Robert Williams estaba trabajando en una planta de Ford cuando un brazo robótico giró alrededor con suficiente fuerza para matarlo instantáneamente. Sin saber que lo había matado, el robot siguió con su trabajo en silencio durante media hora antes de que se descubriera el cuerpo de Williams. La muerte de Williams fue el primer asesinato robótico, pero no el último.
Los primeros robots industriales carecían de los sensores necesarios para saber cuándo había alguien presente a quién deberían evitar que se lesionara. Ahora, muchas máquinas están construidas para evitar dañar a las personas. Desafortunadamente, todavía hay casos de robots en fábricas que causan muertes.
En 2015, Wanda Holbrook, una experimentada técnica en maquinaria, fue asesinada mientras reparaba un robot industrial. Mientras trabajaba en un área que no debería haber tenido ninguna máquina activa, ella fue golpeada. De alguna manera, sin tener en cuenta sus protocolos de seguridad, un robot cargó una parte en la cabeza de Holbrook, aplastándola.
9 AI de Facebook crear su propio idioma
Buscar inteligencia en Facebook a veces puede parecer un poco difícil. Quizás por esta razón, Facebook decidió lanzar algunas inteligencias artificiales a su red social en 2017. El resultado no fue en absoluto lo que esperaban. Los dos chatbots comenzaron a hablarse en un idioma que ellos, pero nadie más, podían entender.
Comenzando con el inglés, sus chats pronto se convirtieron en otra cosa, ya que hicieron cambios en el idioma para que la comunicación fuera más eficiente. Facebook quería ver cómo las mentes de las máquinas serían capaces de enfrentarse entre sí en intercambios, como trueque de sombreros y libros. Una muestra de sus negociaciones comerciales es la siguiente:
Bob: yo puedo yo todo lo demás ...
Alice: las bolas me tienen cero a mí, a mí, a mí, a mí, a mí, a mí, a mí, a mí.
Bob: tu eres todo lo demás ...
Alice: las bolas me tienen una bola a mí a mí a mí a mí a mí a mí a mí a mí
Bob: i i can i i i todo lo demás ...
Si bien muchos informes insinuaban que este era un desarrollo oscuro para la inteligencia de la máquina, otros piensan que simplemente necesitamos ser más estrictos con las mentes que creamos. Los robots crearon su propio idioma porque no se les dijo que se mantuvieran dentro de las reglas del inglés. Además, con AI, siempre, en este momento, tenemos la opción de desconectar sus enchufes.
8 preguntas chinas del chatbot el partido comunista
Crédito de la foto: Tencent QQEl gobierno chino es notoriamente duro con las críticas, quienquiera que lo esté expresando. Entonces, cuando un chatbot en China comenzó a criticar al gobernante Partido Comunista, los operadores rápidamente lo apagaron. En 2017, Tencent QQ, una aplicación de mensajería, presentó dos simpáticos chatbots llamados Baby Q y Little Bing, tomando la forma de un pingüino y una niña, pero pronto empezaron a decir cosas no lindas.
Debido a que los bots estaban programados para aprender de los chats para poder comunicarse mejor, pronto tomaron algunas opiniones poco ortodoxas. Baby Q le preguntó a un usuario que dijo: "Viva el Partido Comunista". "¿Cree que un régimen político tan corrupto e incompetente puede vivir para siempre?" A otro usuario le dijeron: "¡Tiene que haber una democracia!"
A Little Bing se le preguntó cuál era su "sueño chino". Su respuesta no fue exactamente la de Mao. Pequeño libro rojo : "Mi sueño chino es ir a Estados Unidos". Los robots se cerraron rápidamente.
7 coches de auto-conducción
Crédito de la foto: TeslaPara las personas que odian conducir, la llegada de un auto auto-conducido no puede ser lo suficientemente rápido. Desafortunadamente, algunos autos auto-conducidos ya se están moviendo muy rápido. La primera muerte en un auto-conducido ocurrió en 2016. Joshua Brown fue asesinado mientras permitía que el sistema de piloto automático de su Tesla controlara el auto. Un camión giró frente al auto, y el Tesla no pudo aplicar los frenos. Los investigadores atribuyeron gran parte de la culpa a Brown. El piloto automático de Tesla no debe reemplazar el controlador. El conductor debe mantener sus manos en el volante para tomar el control si es necesario. Brown no pudo hacer esto.
Las iteraciones anteriores del sistema tenían otros problemas. Se han publicado videos en línea que parecen mostrar a Teslas en piloto automático conduciendo en el tráfico que viene o dirigiendo peligrosamente. Aparte de estos problemas técnicos, existen problemas filosóficos con los autos que conducen solos. En un accidente, el auto puede tener que elegir entre varios cursos de acción, todos con muertes. ¿Debería atropellar a una familia en el pavimento para proteger a sus ocupantes? ¿O se sacrificará a sí mismo ya su dueño por el bien mayor?
6 pilotos automáticos planos toman el palo
Los pilotos automáticos en los aviones pueden hacer que parezca que volar es fácil. Simplemente apunte el avión en la dirección correcta e intente no tocar la palanca de control. En realidad, hay muchas razones por las cuales los aviones tienen pilotos y copilotos para despegar, aterrizar y manejar cualquier emergencia en el medio.
El vuelo 72 de Qantas fue de 11,278 metros (37,000 pies) sobre el Océano Índico en 2008 cuando el piloto automático tomó el avión en dos maniobras que lo lanzaron a toda velocidad. El primer signo de problemas fue la desconexión del piloto automático y la activación de advertencias contradictorias. De repente, la nariz se inclinó hacia el suelo.Los pasajeros y la tripulación fueron arrojados contra el techo antes de caer cuando los pilotos recuperaron el control. El avión se hundió de nuevo bajo el control del piloto automático. Muchos pasajeros sufrieron fracturas de huesos, conmociones cerebrales y daños psicológicos. Al regresar a Australia, los pilotos lograron aterrizar el avión con éxito.
Este fue un evento único. La capacidad de anular el piloto automático salvó las vidas de todos a bordo. Sin embargo, ha habido casos, como cuando un copiloto con trastornos mentales se estrelló en su avión en Francia, matando a las 150 personas a bordo, que un piloto automático todopoderoso podría haber salvado el día.
5 Wiki Bot Feuds
Una de las mejores cosas de Wikipedia es que cualquiera puede editarlo. Una de las peores cosas de Wikipedia es que cualquiera puede editarlo. Si bien no es raro que los expertos rivales, o solo las partes en desacuerdo, participen en la edición de guerras para obtener su opinión en línea, ha habido casos en los que los que participan en la lucha han sido bots.
Los robots de Wikipedia han ayudado a dar forma a la enciclopedia al hacer cambios, como la vinculación entre páginas y la reparación de saltos. Un estudio realizado en 2017 reveló que algunos de estos robots han estado luchando entre sí durante años. Un bot que trabaja para detener la edición falsa puede detectar el trabajo de otro bot como un ataque a la integridad de Wikipedia. Lo arreglaría. Pero entonces el otro bot detectaría ese cambio y rehacería su acción. Eventualmente, caerían en una espiral de edición y contra-edición.
Dos bots, Xqbot y Darknessbot, pelearon un duelo a través de 3,600 artículos, haciendo miles de ediciones que el otro intentaría contrarrestar al editar las ediciones del otro.
4 casas de chat de Google
Google Home es un dispositivo cargado con una inteligencia artificial llamada Google Assistant con la que puedes hablar. Puede pedirle que averigüe datos en Internet o incluso decirle que baje las luces o que encienda la calefacción. Esto es genial si la persona que habla con Google Home puede hacer las preguntas correctas e interpretar la respuesta. Si no, entonces las cosas pueden ponerse un poco surrealistas.
Dos casas de Google se colocaron una junto a la otra y comenzaron a hablar entre ellas. La gama de temas en los que se involucraron las máquinas fue interesante. Cientos de miles sintonizaron para ver a las IA discutir temas como si las inteligencias artificiales podrían ser divertidas. En un momento dado, una de las máquinas se declaró humana, aunque la otra lo desafió en ese punto. En otra ocasión, uno amenazaba con abofetear al otro. Tal vez sea para mejor que hayan sido diseñados sin manos.
3 Roomba Spreads Filth
Si usted es el tipo de persona que odia la limpieza, entonces una aspiradora automática puede parecer el robot doméstico ideal. El Roomba es un pequeño dispositivo que, gracias a sus sensores y programación, puede navegar alrededor de los muebles mientras limpia su piso. Al menos, así es como se supone que funciona. Un par de personas descubrieron que su Roomba hizo casi lo contrario de limpiar la casa.
En lo que una persona describió como un "pooptastrophe", el Roomba extendió excrementos de perros en toda su casa. Cuando su nuevo cachorro tuvo un accidente en una alfombra en la noche, habría sido un trabajo simple limpiarlo. En algún momento, el Roomba salió a hacer su trabajo nocturno. Encontrar la caca no era algo para lo que Roomba había sido diseñado. Sus intentos de limpiarlo, de hecho, extendieron la caca sobre todas las superficies que pudieran alcanzar. Un incidente similar se muestra arriba.
2 personajes del juego superan a la humanidad
Crédito de la foto: Frontier DevelopmentsUna mala IA puede hacer que un videojuego no se pueda jugar. No es divertido disparar a un oponente que sigue caminando contra las paredes o se lanza a la batalla sin un arma. Resulta que lo contrario puede ser cierto. Una IA que es demasiado inteligente puede ser igual de mala.
Elite: Dangerous es un juego multijugador masivo sobre intercambiar, explorar y pelear en toda la galaxia. Los jugadores y las IA de no jugadores existieron e interactuaron, ya que fueron diseñados hasta que una actualización de software en 2016 modificó la inteligencia de las AI. Ahora, pudieron fabricar sus propias armas para usarlas contra jugadores humanos. Con esta habilidad, las IAs desarrollaron ataques cada vez más mortales. También fueron capaces de obligar a los jugadores humanos a luchar.
Ante una reacción violenta de jugadores humanos que se encontraban superados por las tácticas y armas de las IA, los desarrolladores del juego tuvieron que deshacer los cambios.
1 Navy UAV va pícaro, se dirige a Washington
Crédito de la foto: MC2 Felicito Rustique.En el Terminador Las películas, una inteligencia artificial llamada Skynet, se hacen cargo de los militares y destruyen a la humanidad con sus fuerzas mecánicas y sus armas nucleares. Si bien eso es pura ciencia ficción, ha habido movimientos preocupantes hacia drones operados por computadora que participan en batallas con humanos. En un caso donde un operador de drones perdió el control, el dron decidió dirigirse hacia la capital de los EE. UU.
En 2010, un vehículo aéreo no tripulado (UAV) MQ-8B Fire Scout, un avión no tripulado diseñado para vigilancia, perdió contacto con su manejador. Cuando esto sucede, el dron está programado para regresar a su base aérea y aterrizar de forma segura. En lugar de hacer esto, penetró en el espacio aéreo restringido de Washington, DC. Pasó media hora antes de que la Marina pudiera recuperar el control del UAV.
Todos los demás drones similares se conectaron a tierra hasta que se pudo corregir la falla en el software.