inteligencia artificial, máquinas, tecnología, Elon Musk, Stephen Hawking, Mark Zuckerberg
Imagen: César Mejías

¿Deberíamos temerle a la inteligencia artificial? Lo que opinan 3 genios contemporáneos

Desde hace décadas que vemos en las películas a uno que otro robot asesino. Está bien, es ciencia ficción, pero ¿qué pasaría si se vuelve realidad? Tres grandes de la tecnología (Hawking, Musk y Zuckerberg) han planteado sus visiones al respecto durante este año y esto es lo que creen.

Por Rodolfo Westhoff @rwesthoff | 2017-08-28 | 07:00
Tags | inteligencia artificial, máquinas, tecnología, Elon Musk, Stephen Hawking, Mark Zuckerberg
Relacionadas

Hay casos en los que computadores han derrotado a humanos en juegos de mesa, además hay robots que hacen entrevistas de trabajo, manejan autos e incluso máquinas que crearon su propio lenguaje. Llegamos a ese punto de nuestra sociedad en la que empezamos a preocuparnos en serio sobre el desarrollo de la Inteligencia Artificial (IA).

¿Se nos podría salir de las manos? ¿Terminaremos en un mundo dominado por robots? ¿Somos más tontos que los computadores? ¿Es acaso el fin, señores?

La discusión ha estado particularmente candente este año, así que en El Definido decidimos ver qué es lo que piensan al respecto las mentes contemporáneas más brillantes en el ámbito de la tecnología y esto fue lo que encontramos.

Hello darkness, my old friend

Una de las visiones más pesimistas viene de la mano del cofundador de Tesla, Elon Musk quien prácticamente posee un imperio de autos electrónicos y está detrás de una misión para colonizar Marte. Su pensamiento se reduce a que la IA es uno de los mayores riesgos que enfrenta actualmente la humanidad y que los desarrolladores deberían ponerle la patita al freno durante un tiempo. ¿La razón?

Ponerse el parche antes de la herida, ya que según el magnate, no deberíamos esperar a que ocurra algún desastre para empezar a hacer las regulaciones correspondientes. Porque todos hemos visto suficientes películas como para saber en qué terminaría el asunto si se nos escapa de las manos…

via GIPHY

“He estado frente a la tecnología de IA más vanguardista que existe y pienso que la gente debería estar realmente preocupada por el asunto (…) estoy constantemente advirtiéndole del problema a las personas, pero hasta que no veamos robots en las calles asesinando a la población, no sabrán qué hacer porque lo consideran algo muy etéreo”, sostuvo Elon en la Reunión Nacional de Gobernadores de Estados Unidos en julio de este año.

¿Qué hacer entonces? Todo apunta a que la propuesta de Musk se reduce a crear una serie de regulaciones y restricciones para los desarrolladores tecnológicos. De todos modos, aún no tiene una idea concreta de cómo se debería avanzar en esa línea. Hasta ahora, lo que ha dicho es que es importante informarse lo más posible sobre el tema y sus posibles repercursiones.

Tampoco es como para alarmarse, pero… LE PIDIÓ A LA ONU QUE PROHIBA LA FABRICACIÓN DE ARMAS AUTÓNOMAS. Esto, a través de una carta firmada por otros 116 fundadores de compañías robóticas. Miedo.

Relax, don’t do it

En el otro lado del ring se encuentra Mark Zuckerberg, el fundador de Facebook, con una visión mucho más relajada al respecto. Y ojo que la analogía del boxeo no fue al azar: durante los últimos meses Mark y Elon se han enfrentado a través de las redes sociales y la prensa por su visión muy distinta sobre el futuro de la IA.

Mientras uno le tiene miedo a un futuro apocalíptico dominado por máquinas, el otro cree que pensar así es de alaraco. “En general soy alguien optimista. Creo que puedes construir cosas y el mundo mejorará con ellas, pero especialmente con los sistemas de Inteligencia Artificial, soy muy optimista (…) pienso que la gente que intenta plantear estos escenarios apocalípticos es muy negativa y de alguna manera me parece que eso es bastante irresponsable”, señaló el fundador de Facebook en una tramisión en vivo.

“En los próximos 10 años, la inteligencia artificial aportará muchas mejoras a nuestra calidad de vida”, agregó.

En ese sentido, cree que el problema de fondo recae en cómo los humanos desarrollamos y aplicamos la tecnología. Lo que a su juicio no justifica que se creen instancias para restringir o contener el avance de la IA, frase que no le cayó para nada bien al cofundador de Tesla. ¿Su respuesta? “He hablado con Mark sobre el tema, pero su entendimiento del asunto es limitado”. Chan, chan, chan.

Take over the world

Sin duda que la Inteligencia Artificial ha sido un tema este año. No por nada, Stephen Hawking sorprendió al mundo al dar a conocer su idea para evitar que esta tecnología se nos escape de las manos: crear un gobierno mundial. ¡¿What?!

Esto recae en su miedo que el desarrollo tecnológico avance de tal manera que terminemos teniendo máquinas superdesarrolladas. ¿Y por qué se tendrían que poner agresivas con nosotros mismos? Según Hawking, porque la agresión es parte de nuestra naturaleza y, por lo tanto, no sería raro que se lo transmitiéramos a los robots.

Es por eso que su propuesta se basa en redefinir lo que entendemos como gobierno y llevarlo a un plano mundial. La idea es que exista una organización de alcance global capaz de controlar el avance de la IA (para evitar que termine matándonos a todos). Aunque, claro está, eso podría dar paso a una tiranía planetaria si es que las cosas se nos van de las manos y Hawking lo sabe.

Ahora, quizás sea una idea muy revolucionaria, pero se entiende el punto: el físico cree que la AI podría convertirse en un peligro para la humanidad y, por lo tanto, deberíamos hacer algo al respecto. Muy en línea de lo que plantea Elon Musk, pero completamente distinto a la visión del futuro que tiene el optimista Mark Zuckerberg.

¿Alguién más se une al baile?

Hay muchos expertos que han reflexionado sobre qué tan amenazados nos deberíamos sentir frente a la IA.

Bill Gates, ya había señalado el 2015: “Al principio máquinas harán muchos trabajos para nosotros y no serán súper inteligentes. Eso debería positivo si lo manejamos bien. Aunque unas pocas décadas después, la inteligencia será lo suficientemente fuerte como para ser una preocupación".

Fabio Gandour, jefe de investigación en IBM, dice: “Yo no tengo miedo de las máquinas, yo tengo miedo de la gente. En la máquina, uno programa, si te molesta lo apagas. Con la gente no. Yo sé cómo hacer que las máquinas aprendan y sé cómo hacerlas trabajar para que esa inteligencia me favorezca. Le tengo más miedo a la gente que usa la inteligencia de forma impredecible”.

Para Jorge Baier, académico de Ciencia de la Computación de Ingeniería UC, tiene que ver con el mal uso que se le puede dar, como fines bélicosNo ve una amenaza al estilo que “un día escribamos un programa y que el programa se nos salga de control y empiece a hacer cosas que nosotros no queremos que haga y empiece a destruir cosas”.

Francisco Watkins, académico del Depto. de Ingeniería Eléctrica de la Usach comparte la visión y agrega que la IA “puede emular la creatividad, pero tiene un límite. El Hombre agrega una parte emotiva que hace que se alcancen ciertas cosas inesperadas”.

Esto nos lleva, por último, a la visión de Kevin Kelly, fundador de Wired y experto en cultura digital, quien dice que hay que adoptarla en vez de temerle y que nos conduciría a una segunda revolución industrial. Explica que las IAs son muy específicas y cada una cumple una función para facilitar procesos, por lo que no tendría sentido crear máquinas que tuvieran una inteligencia humana, con emociones. Derriba también lo que considera mitos que nos llevan a pensar que los máquinas podrían superarnos o hasta esclavizarnos.

¿De qué lado estás? ¿Crees que la Inteligencia Artificial podría salirse de control?

¿CÓMO TE DEJÓ ESTE ARTÍCULO?
Feliz
Sorprendido
Meh...
Mal
Molesto
ESTADÍSTICAS: APOYO A FRASES DE ESTE ARTÍCULO
Estas estadísticas sólo se le muestran a los usuarios que ya han dado su opinión con un click sobre alguna de las frases rojas destacadas en el texto del artículo.
Comentarios
JCL | 2017-08-28 | 15:49
1
A mi parecer hay quienes que cuando escuchan la palabra "máquina",se crean mentalmente la falsa imagen infantil de que la IA es y será el alma de robots o aparatos, que podrían golpearnos con fuerza descomunal o armamento militar sin igual, cuando la realidad se aplica en cualquier sistema electrónico, llámese control de procesos de producción, vehículos autómatas, etc., por lo que encuentro algo cegada la visión de los académicos chilenos citados, quienes hablan de problemas en el desarrollo o descontrol de la IA en artefactos bélicos, cuando en realidad una posible visión apocalíptica producto de una IA descontrolada, podría ser perfectamente la dominación al ser humano, controlando o alterando los elementos como aire, agua, tierra, fuego, u otros procesos como las comunicaciones o los sistemas de producción de alimento, ropa etc. es decir teniendonos en la palma del circuito por jugar con nuestras necesidades, al igual que algunas superpotencias como diría Salfate.

Ahora de que en realidad la IA se salga de control, me parece más creíble la visión de alguien que se ha hecho multimillonario creando vehículos con menos riesgos de accidentes y que además contribuyen en alguna medida a la descontaminación del planeta, en vez de creerle a alguien super optimista y feliz consigo mismo que jura que la hace de oro y que se ha hecho multimillonario por crear un sistema de comunicación que da espacio para la falsa interacción social, la desvalorización de las relaciones humanas, la depresión, el acoso, la pérdida de privacidad, entre otras.

Concuerdo más con el amigo que mantiene su postura, en el sentido de que la máquinas no cometen errores, sino que los humanos son los que los cometen, y las máquinas son creadas por los humanos.

También hay que destacar lo que dice el de IBM, que en otras palabras lo interpreto a que las máquinas son tontas, ya que la supuesta inteligencia no es propia de la máquina sino que algo programado por el ser humano, pero siempre hay que recordar de que ha pesar que las maquinas son mas tontas que los seres humanos, estas siempre son "más rápidas"
responder
denunciar
apoyar
Miguel Arbeláez | 2017-08-28 | 22:26
0
Estoy de acuerdo con el de arriba. De hecho justamente estoy trabajando en mi tesis relacionada de cierta manera con inteligencia artificial, y en mi investigación del estado del arte me he dado cuenta que no estamos ni asomados a que una computadora razone por su cuenta, tal vez, en los medios puede parecer que si, por los avances en aprendizaje de máquina que se han realizado, pero todo es debido a la programación que le da el humano, y si algún día pasa algo estilo Terminator, será nada más porque un programador malintencionado programó a la máquina de esa forma, cosa que por cierto también se me hace muy improbable.
responder
denunciar
apoyar
Carolina Larenas | 2017-08-30 | 16:36
0
Hoy en día tenemos gente que agarra una semi-automática y sale a darle a todo lo que se mueva. La última opción que mencionas me parece bastante probable...
responder
denunciar
apoyar
José Arcángel Salazar Delgado | 2017-08-29 | 00:42
2
Particularmente yo me encuentro inmerso en el tema, ya que me toca desarrollar diversos tipos de IA´s y les puedo comentar unos casos al respecto:

* Una IA gana conciencia y quiere matarnos a todos: Falta mucho para lograr algo así, lo veo sumamente lejano.

* Una IA mata a alguien en particular o a un conjunto de personas por órdenes de un humano: Esto ya se puede hacer, no dudo que ya existan armas autónomas en manos de algunos gobiernos. Es un tema que debería ser regulado.

* Una IA nos quita el trabajo: Si haces algo muy repetitivo y poco creativo, estás próximo a ser reemplazado. Ya estamos al inicio de la cuarta revolución industrial, las cosas van a cambiar mucho y muy rápido.

* Una IA nos salva la vida: Esto ya esta pasando, hay IA's que son mejores reconociendo enfermedades que los seres humanos. Pronto los tratamientos médicos serán hechos a medida de las personas. Veremos la botica 2.0, corregida y aumentada.

* Una IA es nuestra esclava: Esto también ya esta pasando, no tienen idea de la cantidad de cosas que hacen las IA´s para mantenernos complacidos actualmente, aunque a veces ni nos enteramos.

* Una IA aplasta a nuestra competencia: Estamos en pleno auge. Las IA´s pueden darte una ventaja competitiva indiscutible contra otras empresas que nos las tengan.

Existen muchos otros casos, pero estos se me hacen los mas representativos.
responder
denunciar
apoyar
Carlos Soto | 2017-08-30 | 15:14
1
Bueno leer comentarios que no citen a terminator o algo así, jaja. Slds.
responder
denunciar
apoyar
Patricio Guzman | 2017-08-30 | 10:53
0
Pero si tenemos las leyes de la robotica de Asimov, para que preocuparnos ......esperen, las leyes se pueden doblar, como vimos en Yo robot, la IA puede esclavizarnos para protegernos de nosotros mismos, que somos el mayor peligro.
también está el ejemplo de Matrix, específicamente en Animatrix, donde las maquinas responden al ataque de los humanos.
responder
denunciar
apoyar
Mauricio Melo | 2017-08-30 | 12:12
0
Eso fue específicamente porque esa IA tenia una función especial de poder inhibir las leyes, la idea de Asimov es la acertada, crear leyes robóticas inscritas en hardware, y cada una de las instrucciones y "pensamientos" deben pasar si o si por ese filtro antes de ser ejecutadas, crear un Robot sin las leyes debe ser ilegal, so pena de cadena perpetua.
responder
denunciar
apoyar
JCL | 2017-08-30 | 13:16
0
La primera ley de Asimov, "Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.", y debido a que la principal fuente de daño al ser humano, es el propio ser humano, lo mejor sería inhibir al ser humano de acciones, para no caer en la inacción de proteger al ser humano("MATRIX", "YO ROBOT").

Ahora si bien no se usa esa ley y se establece que se debe proteger a todo de todo haciendo frente a cualquier amenaza que pueda afectar al ser humano, al medio ambiente o al planeta en sí, se determina la eliminación del ser humano causante de todos los males sobre el planeta aunque conlleve a la desertificación total, con tal de que el planeta se regenere sin el cancer del ser humano.(TERMINATOR)
responder
denunciar
apoyar
Serafín Ezequiel Papagno Leal | 2017-10-23 | 16:01
0
Yo creo que, al igual que los cuchillos o las tijeras; la IA puede estar en las máquinas, pero siguen siendo HERRAMIENTAS que el ser humano crea, fabrica y programa. El uso que se le dé, depende siempre del ser humano. Y nosotros somos los inestables, los emocionales, los que sentimos odio o amor. Utilizamos TODO LO QUE ESTÉ A LA MANO para lograr nuestros propósitos. La MORAL está en nosotros no en las máquinas.-
responder
denunciar
apoyar
* Debes estar inscrito y loggeado para participar.
© 2013 El Definido: Se prohíbe expresamente la reproducción o copia de los contenidos de este sitio sin el expreso consentimiento de nuestro representante legal.