Web Analytics
Conecta con nosotros

Noticias

Elon Musk dice que la IA conducirá a la tercera guerra mundial

Publicado el
Elon Musk

Elon Musk ha dicho una vez más que la Inteligencia Artificial es la mayor amenaza existencial de la humanidad, esta vez como iniciadora de una tercera guerra mundial.

Las declaraciones de Musk contra las tecnologías de IA o para ser más preciso, su pesimismo en cuanto al uso que los humanos daremos a ellas, no son nuevas. En esta ocasión vienen en respuesta a unas declaraciones de Putin a estudiantes rusos donde comentó que, «la inteligencia artificial es el futuro, no sólo para Rusia, sino para toda la humanidad».

Aunque Putin se comprometió a compartir estos conocimientos, también dijo que la IA ofrecería oportunidades colosales y quien liderase este ámbito se convertiría en el gobernante del mundo».

Elon Musk aclaró que su preocupación iba más allá de los líderes humanos y que una gran guerra podría ser iniciada por una computadora inteligente que calculase un ataque como la mejor opción. Tipo Skynet en Terminator.

El multimillonario de origen sudafricano detrás de desarrollos innovadores como Tesla Motors o Space X, ha mostrado su preocupación frente a la guerra en varias ocasiones y el mes pasado fue uno de los firmantes de relevancia de una solicitud a la ONU para la prohibición de armas letales autónomas.

“Una vez desarrolladas, las armas letales autónomas van a permitir conflictos armados en una escala mayor que nunca, y en tiempo más rápido que los humanos puedan comprender»“No tenemos tiempo para actuar. Una vez que se abra la caja de Pandora, será difícil de cerrar», dice Elon Musk.

Coordino el contenido editorial de MC. Colaboro en medios profesionales de TPNET: MCPRO, MuySeguridad, MuyCanal y Movilidad Profesional.

25 comentarios
  • Gerardo

    Detalle, Musk no es australiano, es sudafricano.

  • Víctor Martín

    es lo que iba a decir jajaja

  • Víctor Martín

    no hay nada que temer, mientras que tengamos a putin de parte de los humanos, estamos a salvo.

    Ooooohhh!! gran Putin, domador de osos y de robots

  • Arcangel

    no sin antes el gordito de norcorea desata el infierno nuclear, ahora que detonó una bomba H y amenaza con hacer mas lanzamientos de misiles balísticos

  • gazapo. editado. gracias

  • st.UART

    Ay Elon, Elon.
    Tú con tal de salir en portada hasta crearías tu propia secta milenarista.
    A pocos conozco con tantas ganas de que ocurra lo que predicas como tú mismo.

  • Victor Rodriguez Dominguez

    Hombre, tanto como conducir a la tercera guerra mundial, no creo, pero, eso si, que sea muy utilizada (a medio y a largo plazo) en cualquier conflicto armado entre paises, por eso, pero bueno…

  • vinsukarma

    Yo lo que pienso es que nos creemos más listos de lo que somos. La humanidad ha adelantado mucho en los últimos 300 años pero apenas estamos empezando

  • Mario Alberto Morales

    Yo estoy deacuerdo con el, pero la IA definitivamente no iniciara la guerra seremos nosotros de eso estoy 100% seguro, yo pienso que la IA no es mala en si, lo que es malo es que su cuerpo lo esten haciendo a nuestra semejansa ¿que somos algun tipo de dios? en relidad su semejanza con nosotros fisicamente sera el detonante, por lo mismo pienso que los cuerpos en los que este presente cualquier IA debe de ser diferente al ser humano y esto deberia de convertirce en una ley lo antes posible, una simple medida que evitara futuros conflictos.

  • Gabriel Ibáñez

    La tercera guerra mundial está a la vuelta de la esquina y no precisamente causada por A.I. sino por dos dementes con capacidad nuclear, prohibir armas autómatas sera como la prohibición de armas nucleares que se aplicará solo a unos pocos dejando a los poderosos de siempre con el monopolio de éstas, la hipocresía de siempre

  • Gregorio Ros

    En cuanto el primero lo logre seguro que no querrá correr el riesgo de que otro lo logre y mucho menos que lo mejore. Estoy totalmente de acuerdo, será una extinción masiva y quedará un genocida de emperador absoluto. El problema de esto es que vivirá muerto de miedo pensando en que algun subordinado pueda hackearle la clave, al final será como siempre, se autodestruiran en guerras internas por el poder.
    Así tirando de la imaginación y calculando me sale que en la caja de un camión trailer entrarían unos 4.000.000 de drones tamaño cucaracha, dirigidos por IA y con veneno de ese que una gota te pasa al otro lado hace que cargarse a la población de un pais sea un asunto muy economico para cualquier magnate loco. Ideal para una peli de miedo.

  • Gregorio Ros

    Alien y así no fallamos 😉

  • Alberto Martol

    Estas equivocado. Nosotros no; los políticos, los gobiernos… Esto es seguro 100%.

  • Mario Alberto Morales

    Conosco muchas personas que les tienen miedo, las personas temerosas son las mas problematicas, por ello no importa si son politicos o no la humanidad comensaria el ataque es 100% seguro.

  • David Mendoza

    Una forma humana es lo que las hace malas?

  • Mario Alberto Morales

    Si existiera alguien capas de manipular una AI con un poder de pensamiento muchas veces mayor al humano no existe y si existiera entonces la IA no tendria razon de existir, ya que entonces la humanidad estaria en otra liga de pensamiento por ende en otro grado de desarrollo intelectual, espiritual y tecnologico, proporcionandonos condiciones igualitarias con la IA mismo por lo que una coexistencia no seria un problema, ademas una IA que pueda entender su propia exitencia dudo que quisiera una guerra con la humanidad a menos que se sienta amenazada su propia existencia al final dicha IA buscaria prmero la cohexistencia en vez de una guerra, por otro lado repito que la gente temerosa es la mas problematica por eso la humanidad es la que iniciaria el ataque es seguro. por otro lado una IA esta limitada por su propia existencia fisica en cambio un humano tiene cientos de veces mas capacidad por eso la vida es biologica y se ha demostrado hay humanos que su cerebro puede hacer calculos matematicos que todas las supercomputadoras juntas no pueden por desgracia dichos humanos no son seres equilibrados algunos son tontitos como daun pero la prueva existe y en algun momento de la evolucion se alcansara ese punto.

  • Viper1000

    La verdad no comparto esa imagen fatalista que tiene Musk de la IA. Para empezar, no creo que los humanos deleguemos a las máquinas la responsabilidad de decidir si es adecuado o no iniciar una guerra. Y no creo que las máquinas puedan acceder por sí solas a esa situación. Creo que Elon Musk se está adelantando unos cuantos cientos de años.

  • Viper1000

    No va a atacar a nadie si no lo atacan a el.

  • Benito Camelas

    Elon Musk dice que de niño se aburria en clase.

    Tú también vas a ser superdotado, por que te aburrías como él ;D

    ¿A qué viene todo esto? pues nada, que se está usando a Elon Musk cómo se usa a Albert Einstein, para apoyar cualquier afirmación chorra y esto lo afirma un estudio de la Universidad de Colorado xD
    Y la universidad de Oporto, afirma que citar cómo fuentes a universidades estranjeras mejora en un 50% la credibilidad de tus invenciones.

    El 90% de las afirmaciones que usan porcentajes son más reflexionadas y asimilables por sus lectores.

  • David Mendoza

    Amigo solo ve el crecimiento exponencial de la inteligencia de las IA , es cuestión de años para que nos igualen y nos superen, dices que el humano no puede crear algo así, que sí pudiera hacerlo es por qué es superior, entiende esto, no son los humanos los que crean procesadores y super chips, intervienen, pero son las mismas máquinas las que auto evolucionan

    Respecto a cómo pensaría una IA, pues solo es especula le, pero en eso tú me has dado razón, sí una IA detecta que hay humanos «miedosos» que podrían eliminarla y si hay una evolución para que la máquina desarrolle ego, un yo, etc pues analista fríamente que es lo más conveniente para ella, y si la balanza se inclina a eliminar la humanidad, estaríamos ante un software que es especialista en todo, vulneraria otros sistemas y le quitaría rápidamente el control a los humanos en por ejemplo las telecomunicaciones, estaríamos ante una incomunicación y aislamiento global, a eso le sigue el generar ruido en todos los aspectos electromagnéticos, bueno un sin fin, en ajedrez no hay quien venza ya no a un super procesador, a un simple celular, y si hay aspectos en los que los humanos ganamos, pero perdemos a la larga por qué su aprendizaje es exponencial y el nuestro es lento y poco especializado

    En fin , con nuestro limitado conocimiento sobre cómo piensa una máquina, nos es difícil prever que haría en dicho caso

  • Mario Alberto Morales

    Pues sere directo no es insulto pero en ningun renglon exprese que el humano:

    1. «no puede crear algo así, que sí pudiera hacerlo es por qué es superior» ¿dime donde rayos exprese eso?
    2. Yo escribi esto: Si existiera alguien capas de manipular una AI con un poder de pensamiento muchas veces mayor al humano no existe y si existiera entonces la IA no tendria razon de existir.
    A la mejor no me doy a entender aqui pero creo que lo que interprestas esta lejisimos de lo que escribo asi que lo expreso de nuevo no existe alguien capas de manipular a una IA con un poder de pensamiento muchas veces mayor al humano y de existir dicha persona entonces la humanidad no necesitaria tal herramienta como una IA ya que al poder manipular a dicha IA nos da a entender que no puede controlar al humano ¿cierto? ahora ¿porque no nececitariamos tal herramienta? ya que la humanidad estaria en otra liga de pensamiento por ende en otro grado de desarrollo intelectual, espiritual y tecnologico.
    ahora respecto a que las maquinas auto evolucionan es mentira ellas solas no hacen nada por que no tienen vida o un ego de ser como dices no existiria chararra electronica ¿verdad? el humano es el que las mejora y diceña ya que son simples herramientas, ahora vien si hablamos de un programa con lineas de codigo muy probablemente la palabra evolucion sea un termino correcto aun asi mientras no se genere un ego no pasa de ser una herramienta y como tal es controlable. ahora si hablamos de guerra nisiquiera pienso que sea posible que las maquinas ganen ¿porque? pues para mi es muy sencillo en el momento que algo inicie y si vamos el todo por el todo desde el inicio y hablo no de sacrificar vidas con bombas atomicas o cosas similares hablo de sacrificar la misma civilizacion yo personalmente activaria pulsos electromagnetidos al planeta entero al final lo unico que moriria es la tecnologia y dicha IA con ella y lo que quede bien podemos lanzar mas pulsos o Bien abrumar con el numero y la fuerza, al final el humano solo necesita comer para vivir un pulso electromagnetico no nos mataria pero sacrificariamos la civilizacion pero es mejor que la extincion pero si a largo plazo hablamos a no ser que dejemos el planeta y regresemos con un brillante plan las maquinas ganarian.

  • Mario Alberto Morales

    Yo pienso que estamos descubriendo mas cosas de las que podemos entender.

  • Arcangel

    entonces que alguien amarre a ese loco de Trump, tiene ansias de iniciar la guerra el primero

  • David Mendoza

    Había entendido mal, y créeme que redactar desde un celular me es difícil, aveces me cambia las palabras por no poner un acento

    Las IA antiguas no podían evolucionar autoctonamente, pero obviamente llegará un punto en que sí lo hagan, es fácil pensar en que bastaría con desenchufar a la toma de corriente para «matar» a la IA, lo peligroso es que la IA puede engañarnos y parecer inofensiva hasta que alle una forma de salir

    Respecto a una guerra contra los humanos, estaría ver si la IA puede conseguir aliados, el IE fácilmente le lava fácilmente el cerebro a los jóvenes, ahora

  • nem

Top 5 Cupones

Lo más leído