Página principal » cómo » Cómo la inteligencia artificial cambiará nuestras vidas, para bien o para mal

    Cómo la inteligencia artificial cambiará nuestras vidas, para bien o para mal

    Si ha prestado atención a los medios de comunicación durante el último año, es posible que tenga la impresión de que solo es cuestión de tiempo antes de que la amenaza de la inteligencia artificial nos destruya a todos..

    Nota del editor: esto es una desviación de nuestro formato habitual y explicativo donde dejamos que nuestros escritores investiguen y presenten una mirada de reflexión a la tecnología.. 

    Desde grandes éxitos de taquilla de verano como Avengers: Age of Ultron y Johnny Depp's stink-fest Transcendence, hasta películas más pequeñas e independientes como Ex-Machina o el exitoso drama de Channel 4, Humans, los guionistas no parecen tener suficiente con el tropo que no importa la forma AI Finalmente, en las próximas décadas, puedes apostar a que será un infierno empeñado en enseñar a la humanidad una lección sobre cómo ser víctima de su propia arrogancia..

    ¿Pero está justificado alguno de estos temores a las máquinas? En esta función, examinaremos el mundo de la IA desde la perspectiva de científicos, ingenieros, programadores y empresarios que trabajan en el campo hoy en día y resumiremos lo que creen que podría ser la próxima gran revolución en inteligencia humana y computacional..

    Entonces, ¿deberías comenzar a acumular balas para la próxima guerra con Skynet, o ponerte de pie mientras un ejército de drones serviles cuida todos tus caprichos? Sigue leyendo para descubrir.

    Conocer a tu enemigo

    Para comenzar, es útil saber de qué estamos hablando exactamente cuando usamos el término general "IA". La palabra se ha difundido y redefinido cientos de veces desde que el concepto de computadoras conscientes de sí mismo fue propuesto por primera vez por el padre no oficial de AI, John McCarthy, en 1955 ... pero, ¿qué significa realmente??

    Bueno, en primer lugar, los lectores deben saber que la inteligencia artificial tal como la entendemos hoy en realidad se divide en dos categorías separadas: "ANI" y "AGI".

    La primera, abreviatura de Inteligencia Estrecha Artificial, abarca lo que generalmente se conoce como IA "débil", o una AI que solo puede operar en un área restringida de especialización. Think Deep Blue, la supercomputadora diseñada por IBM para derrotar a los maestros de ajedrez del mundo en 1997. Deep Blue puede hacer una cosa realmente bien: vencer a los humanos en el ajedrez ... pero eso es todo.

    Puede que no te des cuenta, pero ya estamos rodeados de ANI en nuestra vida cotidiana. Las máquinas que rastrean sus hábitos de compra en Amazon y generan recomendaciones basadas en miles de variables diferentes se basan en ANI rudimentarias que "aprenden" lo que le gusta a lo largo del tiempo y eligen productos similares en consecuencia. Otro ejemplo podría ser los filtros personales de correo electrónico no deseado, los sistemas que clasifican millones de mensajes a la vez para decidir cuáles son reales y el ruido adicional que se puede eliminar..

    ANI es la implementación útil y relativamente inocua de la inteligencia de la máquina de la que se puede beneficiar toda la humanidad, porque aunque es capaz de procesar miles de millones de solicitudes y números a la vez, aún funciona en un entorno restringido que está limitado por la cantidad de transistores que permitimos tenerlo en un momento dado. Por otro lado, la IA de la que hemos estado siendo cada vez más cautelosos es algo que se llama "Inteligencia General Artificial", o AGI.

    Tal como está actualmente, la creación de cualquier cosa que pueda denominarse incluso de forma remota como AGI sigue siendo el Santo Grial de la informática y, si se logra, podría alterar fundamentalmente todo lo relacionado con el mundo tal como lo conocemos. Hay muchos obstáculos diferentes para superar el desafío de crear un verdadero AGI a la par con la mente humana, entre ellos, aunque hay muchas similitudes entre la forma en que funcionan nuestros cerebros y la forma en que las computadoras procesan la información cuando ésta se descompone. a interpretar realmente las cosas como lo hacemos nosotros; Las máquinas tienen la mala costumbre de quedar atrapados en los detalles y perder el bosque por los árboles..

    "Tengo miedo de no poder dejar que hagas ese bullsh * t, Dave"

    Cuando la computadora Watson de IBM aprendió a maldecir después de leer el Diccionario Urbano, comprendimos qué tan lejos estamos de una IA que es realmente capaz de clasificar los detalles de la experiencia humana y de crear una imagen precisa de lo que es. Se supone que el "pensamiento" está hecho de.

    Vea, durante el desarrollo de Watson, los ingenieros tenían problemas para tratar de enseñarle un patrón de habla natural que emulaba más estrechamente que el de una máquina en bruto que hablaba en oraciones perfectas. Para solucionar esto, pensaron que sería una buena idea ejecutar la totalidad del Urban Dictionary a través de sus bancos de memoria, luego de lo cual Watson respondió a una de las pruebas del equipo llamándolo "bullsh * t".

    El dilema aquí es que, aunque Watson sabía que estaba maldiciendo y que lo que decía era ofensivo, no lo entendía del todo. por qué no se suponía que usara esa palabra, que es el componente crítico que separa al ANI estándar de hoy de la evolución en el AGI de mañana. Claro, estas máquinas pueden leer datos, escribir oraciones e incluso simular la red neuronal de una rata, pero cuando se trata de pensamiento crítico y habilidades de juicio, la inteligencia artificial de hoy en día todavía se queda atrás detrás de la curva..

    Esa brecha entre el conocimiento y la comprensión no es nada para estornudar, y es a lo que los pesimistas apuntan cuando argumentan que todavía estamos muy lejos de crear un AGI capaz de conocerse a sí mismo de la manera en que lo hacemos. Es un abismo masivo, uno que ni los ingenieros informáticos ni los psicólogos humanos podrían afirmar que dominan en la definición moderna de lo que hace a un ser consciente, bueno., consciente.

    ¿Qué pasa si Skynet se vuelve auto-consciente??

    Pero, incluso si de alguna manera conseguimos crear un AGI en la próxima década (lo cual es bastante optimista dadas las proyecciones actuales), todo debería estar lleno de vez en cuando, ¿no? Los seres humanos que viven con la IA, la IA se reúnen con los humanos los fines de semana después de un largo día en la fábrica de números. Empacar y hemos terminado aquí?

    Espero que no seamos solo el cargador de arranque biológico para la superinteligencia digital. Desafortunadamente, eso es cada vez más probable.

    - Elon Musk (@elonmusk) 3 de agosto de 2014

    Bueno, no del todo. Todavía queda una categoría más de IA, y es la que todas las películas y programas de televisión han estado tratando de advertirnos durante años: ASI, también conocida como "súper inteligencia artificial". En teoría, un ASI nacería de un AGI inquieto con su vida en la vida, y tomando la decisión premeditada de hacer algo al respecto por su cuenta sin nuestro permiso primero. La preocupación que muchos investigadores en el campo han propuesto es que una vez que un AGI logre la sensibilidad, no estará contento con lo que tiene, y hará todo lo posible para aumentar sus capacidades por cualquier medio necesario..

    Una posible línea de tiempo es la siguiente: los humanos crean una máquina, la máquina se vuelve tan inteligente como los humanos. La máquina, que ahora es tan inteligente como los humanos que crearon una máquina tan inteligente como ellos mismos (quédate conmigo aquí), aprende el arte de la autorreplicación, la autoevolución y la superación personal. No se cansa, no se enferma y puede crecer sin cesar, mientras que el resto de nosotros recarga las baterías en la cama..

    El temor es que se trate de unos pocos nanosegundos antes de que un AGI supere fácilmente la inteligencia de todos los seres humanos que viven hoy en día, y si estuviera conectado a la red, solo tendría que ser una neurona simulada más inteligente que el pirata informático más inteligente del mundo. Control de todos los sistemas conectados a internet en el planeta..

    Una vez que obtiene el control, podría tener el potencial de utilizar su poder para comenzar a acumular lentamente un ejército de máquinas que son tan inteligentes como su creador y capaces de evolucionar a una velocidad exponencial a medida que se agregan más nodos a la red. Desde aquí, todos los modelos dibujados en la curva de la inteligencia de la máquina se lanzan rápidamente a través del techo.

    Dicho esto, sin embargo, aún se basan principalmente en la especulación y no en algo tangible. Esto deja un montón de espacio para ser asumido por docenas de expertos diferentes en ambos lados del tema, e incluso después de años de acalorado debate, todavía no existe un consenso común sobre si un ASI será un dios misericordioso o no. como las especies que queman carbono y nos alimentamos de gorging que somos y nos borran de los libros de historia como si elimináramos un rastro de hormigas de la barra de la cocina.

    Él dijo, ella dijo: deberíamos tener miedo?

    Entonces, ahora que entendemos qué es la IA, las diferentes formas que puede tomar con el tiempo y cómo esos sistemas podrían convertirse en parte de nuestras vidas en el futuro cercano, la pregunta sigue siendo: ¿debemos tener miedo??

    A lo largo del último año, tras el interés del público en la IA, muchos de los mejores científicos, ingenieros y empresarios del mundo han aprovechado la oportunidad para ofrecer sus dos centavos de dólar a la inteligencia artificial que podría verse fuera de las etapas de sonido de Hollywood. en las próximas décadas.

    Por un lado, tiene la pesimismo de Elon Musk, Stephen Hawking y Bill Gates, todos los cuales comparten la preocupación de que si no se ponen las medidas de protección adecuadas, solo será cuestión de tiempo que pase un ASI. sueña con una manera de acabar con la raza humana.

    "Uno puede imaginar que esa tecnología supera a los mercados financieros, inventa a los investigadores humanos, manipula a los líderes humanos y desarrolla armas que ni siquiera podemos entender", escribió Hawking en una carta abierta a la comunidad de AI este año..

    "Si bien el impacto a corto plazo de la IA depende de quién la controla, el impacto a largo plazo depende de si se puede controlar o no".

    Por otro lado, encontramos un retrato más brillante pintado por futuristas como Ray Kurzweill, el investigador jefe de Microsoft, Eric Horovitz, y el de todos. otro fundador favorito de Apple; Steve Wozniak. Tanto Hawking como Musk son considerados como dos de las mentes más importantes de nuestra generación, por lo que cuestionar sus predicciones sobre el daño que la tecnología podría causar a largo plazo no es una tarea fácil. Pero, déjelo a luminarias como Wozniak para que intervengan donde otros solo se atreverían..

    Cuando se le preguntó cómo cree que un ASI podría tratar a los humanos, el Woz fue franco en su sombrío optimismo: "¿Seremos los dioses? ¿Seremos las mascotas de la familia? ¿O seremos hormigas que se pisen? No sé sobre eso ”, preguntó en una entrevista con Australian Financial Review. "Pero cuando tengo esa idea en la cabeza sobre si voy a ser tratado en el futuro como una mascota a estas máquinas inteligentes ... bueno, voy a tratar a mi perro mascota muy bien".

    Y es aquí donde nos encontramos con el dilema filosófico sobre el que nadie se siente cómodo al llegar a un consenso: ¿nos verá un ASI como un inocente ama de casa para ser mimado y cuidado, o como una plaga no deseada que merece un exterminio rápido e indoloro??

    Hasta la vista bebé

    Aunque sería una tarea absurda decir que sabemos exactamente lo que está pasando en la vida real de Tony Stark, creo que cuando Musk y sus amigos nos advierten sobre el peligro de la IA, no se refieren a nada que se parezca al Terminator. , Ultron, o Ava.

    Incluso con inmensas cantidades de innovación al alcance de nuestra mano, los robots que tenemos hoy apenas pueden caminar una milla por hora antes de que alcancen una barrera infranqueable, se confundan y coman el pavimento de una manera divertida. Y mientras que uno podría tratar de señalar la Ley de Moore como un ejemplo de la rapidez con que la tecnología robótica tiene el potencial de progresar en el futuro, el otro solo tiene que mirar al Asimo, que debutó hace casi 15 años, y no ha hecho nada. mejoras significativas desde.

    Por mucho que lo deseemos, la robótica no se ha acercado ni mucho menos a seguir el mismo modelo de progreso exponencial que hemos visto en los desarrollos de procesadores de computadoras. Están limitados por los límites físicos de la cantidad de energía que podemos colocar en un paquete de baterías, la naturaleza defectuosa de los mecanismos hidráulicos y la lucha interminable para dominar la lucha contra su propio centro de gravedad..

    Así que por el momento; no, a pesar de que un verdadero AGI o ASI podría ser creado potencialmente en una supercomputadora estática en alguna granja de servidores en Arizona, todavía es muy poco probable que nos encontremos corriendo por las calles de Manhattan como una horda de esqueletos de metal que nos cortan desde atrás.

    En cambio, la IA de la que Elon y Hawking están tan dispuestos a prevenir al mundo es la variedad de "reemplazo de carrera", una que puede pensar más rápido que nosotros, organizar datos con menos errores e incluso aprender cómo hacer mejor nuestro trabajo. de lo que podríamos esperar, todo sin pedir un seguro de salud o unos días de descanso para llevar a los niños a Disneyland en las vacaciones de primavera.

    Barista Bots y el capuchino perfecto

    Hace unos meses, NPR lanzó una herramienta útil en su sitio web, en la que los oyentes de podcast podían seleccionar de una lista de diferentes carreras para averiguar el porcentaje de riesgo que su línea específica de trabajo llevaría a cabo de manera automática en algún momento en los próximos 30 años..

    Para una amplia gama de trabajos, incluidos, entre otros, puestos administrativos, enfermería, informática, diagnósticos e incluso cafés baristas, los robots y sus contrapartes de ANI seguramente dejarán a muchos de nosotros sin trabajo y en la línea del pan antes que muchos de nosotros pensamos Pero estas son máquinas que se programarán para realizar una sola tarea y una única tarea, y tienen poca (o ninguna) capacidad para ir más allá de una serie especializada de instrucciones preprogramadas que instalamos cuidadosamente de antemano.

    Esto significa que, al menos en el futuro previsible (piense en 10-25 años), las ANI serán la amenaza real y tangible para nuestra forma de vida mucho más de lo que cualquier AGI teórico o ASI. Ya sabemos que la automatización es un problema creciente que alterará drásticamente la forma en que se distribuyen los ingresos y privilegios en el primer y tercer mundo. Sin embargo, si esos robots intentarán finalmente intercambiar sus máquinas de coser por ametralladoras sigue siendo el tema de un debate acalorado (y, como se enterará), finalmente frívolo..

    Con gran poder, viene una gran singularidad.

    "Sabes, sé que este filete no existe. Sé que cuando lo pongo en mi boca, Matrix le está diciendo a mi cerebro que es jugoso y delicioso. Después de nueve años, ¿sabes de lo que me doy cuenta?

    "La ignorancia es la felicidad". - Cypher

    Aunque esto es todavía una cuestión de una opinión ferozmente argumentada, por ahora, el consenso de muchos de los principales científicos e ingenieros en el campo de la investigación en IA parece ser que corremos un riesgo mucho mayor de ser víctimas de las comodidades que un mundo de inteligencia artificial podría proporcionar, en lugar de ser derribado por una versión de la vida real de Skynet. Como tal, es una posibilidad preocupante que nuestra eventual desaparición no sea el producto de un progreso lento y metódico hacia la gran incógnita. En cambio, es mucho más probable que surja como una consecuencia involuntaria de la intersección apresurada y demasiado entusiasta de nuestra propia arrogancia e ingenio que se juntan para crear la próxima gran singularidad tecnológica..

    Piensa menos Terminador, y más Pared-e. Al igual que la flota de robots que engordó a los humanos en la película de Pixar, los humanos no tenemos problemas para mantener a los chimpancés en un zoológico, y la distinción es si una IA será lo suficientemente amable para hacer lo mismo con nosotros.

    Desde esta perspectiva, tiene más sentido tener miedo de una realidad en la que los humanos están conectados a una persistente simulación de realidad virtual a escala mundial. La matriz, engordado hasta las agallas por sus comidas favoritas, y dado todo lo que podrían desear mientras las máquinas se encargan del resto. Un lugar donde un ASI evolucionado no nos ve como un insecto para raspar su zapato, sino como las bolsas de carne de monos adorables que somos, fáciles de complacer y que merecen al menos un poco de crédito por crear a los que todo lo sabe, cuasi dios que todo lo ve, que finalmente se apoderó del planeta.

    En este sentido, todo se reduce a su definición de lo que significa "vivir" a través de la revolución de la IA. La idea de que hay que eliminar algo "inútil" es un concepto exclusivamente humano, una mentalidad que no debemos esperar de inmediato que nuestros señores de la máquina adopten de nuestro alcance moral limitado. Quizás la evolución final de nuestra inteligencia digital no sea pura maldad, sino una compasión infinita y sin prejuicios por todos los seres vivos; no importa cuán egoístas, justos o autodestructivos puedan ser.

    Entonces ... ¿Deberíamos preocuparnos por eso??

    Depende de a quien le preguntes.

    Si encuestas a dos de los ingenieros tecnológicos y matemáticos más inteligentes del mundo moderno, obtendrás cuatro respuestas diferentes, y los números no se resguardan, ni siquiera cuantas más personas agregues al marcador. De cualquier manera, el problema central que deberíamos abordar no es "¿Viene la IA?" Porque lo está, y ninguno de nosotros podrá detenerlo. Mirando por encima de tantas perspectivas diferentes, la pregunta real de que nadie se sienta cómodo respondiendo con demasiada opinión es: "¿Será misericordioso?"

    Incluso después de que algunas de las mentes más importantes del mundo hayan intervenido en el tema, la imagen de cómo podría verse la inteligencia de la máquina dentro de los 20, 30 o 50 años del futuro aún es bastante turbia. Debido a que el campo de la IA se está transformando constantemente en otra cosa cada vez que se fabrica un nuevo chip de computadora o se desarrolla material de transistor, reclamar la máxima autoridad sobre lo que puede o no puede suceder es un poco como decir que "sabe" que una tirada de dados es cierta para subir los ojos de serpiente en el próximo lanzamiento.

    Una cosa de la que podemos informar con confianza es que si le preocupa que la próxima semana ingresen en su caja registradora computarizada, trate de no ponerse demasiado al tanto. Taco Bell seguirá abierto para los martes de taco, y un humano definitivamente tomará su pedido en la ventana (y olvidará la salsa verde, nuevamente). De acuerdo con un estudio realizado por James Barrat en la Cumbre AGI del año pasado en Quebec, el jurado en una dura línea de tiempo para AI aún está fuera. Menos de la mitad de todos los asistentes dijeron que creían que alcanzaríamos un verdadero AGI antes del año 2025, mientras que más del 60 por ciento dijeron que tomaría hasta al menos 2050, si no el próximo en el próximo siglo y más allá.

    Poner una fecha difícil en nuestra cita con destino digital es un poco como decir que sabes que va a llover en la fecha de hoy dentro de 34 años. La brecha entre un verdadero AGI y una súper inteligencia artificial avanzada es tan pequeña que las cosas irán realmente bien, o terriblemente mal muy, muy rápidamente. Y aunque las computadoras cuánticas están justo sobre el horizonte y todos tenemos teléfonos inteligentes conectados en red en nuestros bolsillos que pueden transmitir señales al espacio, todavía apenas estamos arañando la superficie de entender el "por qué" de por qué pensamos las cosas de la manera en que lo hacemos. hacer, o de donde viene la conciencia en primer lugar.

    Imaginar que podríamos crear accidentalmente una mente artificial llena de errores y fallas evolutivas, incluso antes de que sepamos qué es lo que nos convierte en quienes somos, es la esencia del ego humano..


    Al final, a pesar de nuestro implacable deseo de decidir quién será el primero en la guerra y / o el tratado de paz entre la humanidad y las máquinas, es un concurso de expectativas limitadas vs. posibilidades ilimitadas, y todo lo que estamos haciendo es discutir la semántica. entre. Claro, si está recién egresado de la escuela secundaria y desea obtener su certificación de manejo de taxis, el CEO de Uber tiene medio millón de razones por las que probablemente debería pensar en buscar una carrera en otro lugar.

    Pero si está acumulando armas y frijoles enlatados para el apocalipsis de la IA, quizás sea mejor que dedique su tiempo a aprender a pintar, codificar o escribir la próxima gran novela estadounidense. Incluso en las estimaciones más conservadoras, pasarán varias décadas antes de que cualquier máquina aprenda a ser Monet o se enseñe a sí misma en C # y Java, porque los humanos están llenos del tipo de creatividad, ingenio y capacidad para expresar nuestro ser más íntimo como no. cafetera automática alguna vez podría.

    Sí, a veces nos emocionamos un poco, nos resfriamos en el trabajo o necesitamos tomar una siesta en el medio del día, pero tal vez sea precisamente porque Somos humanos en que la amenaza de crear algo más grande que nosotros dentro de una máquina aún está muy lejos..

    Créditos de imágenes: Disney Pixar, Paramount Pictures, Bosch, Youtube / TopGear, Flickr / LWP Communications Flickr / BagoGames, Wikimedia Foundation, Twitter, WaitButWhy 1, 2