Zuckerberg vs Musk ¿utopía o distopía en la inteligencia artificial?

Entre los círculos de empresarios del sector tecnológico está muy de moda hablar sobre el tema de la inteligencia artificial y sus consecuencias en una hipotética sociedad futura. Este tema ha suscitado discusiones respecto a las expectativas que tienen estos personajes respecto a los riesgos que trae consigo el desarrollo cada vez más acelerado de la inteligencia artificial.

El ejemplo más reciente se dio entre el cofundador de Facebook Mark Zuckerberg y el empresario sudafricano Elon Musk, a raíz de que el primero sostiene que la inteligencia artificial va a mejorar el mundo y nuestras vidas, mientras que Musk afirma lo contrario: que la humanidad debe de ser cuidadosa y cautelosa respecto esta, debido a que en un futuro podría amenazar a nuestra especie.

Aunque a primera vista pareciera que lo que está en disputa es la defensa de una posición utópica o distópica sobre la inteligencia artificial, lo que está en el fondo son expectativas distintas respecto al riesgo que implican este tipo de tecnologías. Es decir, sean conscientes o no de esto, dichos personajes están discutiendo sobre los riesgos que lleva consigo el desarrollo de la inteligencia artificial.

Partiendo de la distinción riesgo/seguridad podríamos decir que Zuckerberg y Musk observan cada uno cada lado de la distinción, es decir, para Zuckerberg el desarrollo de inteligencia artificial no tiene riesgos o estos son mínimos, por lo tanto es algo seguro. Por el contrario Musk piensa que la inteligencia artificial implica riesgos, por lo que su desarrollo debe de estar regulado desde ahora.

Pero expliquemos de manera sencilla lo que significa el concepto de riesgo. El riesgo es un elemento fundamental de las sociedades modernas que parte de la distinción antes mencionada de riesgo/seguridad; asimismo presupone estados altos de incertidumbre, es decir, el riesgo está anclado a la temporalidad futura. Esto también diferencia al riesgo de la noción de peligro, ya que el segundo refiere a cuestiones externas a la acción.

En ese sentido, el riesgo está relacionado a una toma de decisión en términos de las consecuencias deseadas y no deseadas que pueda tener su implementación. Es decir, tiene que ver con proyecciones sobre escenarios futuros posibles, o dicho en otros términos, con la visualización de la probabilidad de lo improbable asociada a la elección de una alternativa de entre muchas otras, también llamada complejidad.

El sociólogo alemán Niklas Luhmann definió al riego en su texto “Sociología del Riesgo” de la siguiente forma:

“[..] hablamos de riesgo únicamente cuando ha de tomarse una decisión sin la cual podría ocurrir un daño. El hecho de que quien tome la decisión perciba el riesgo como consecuencia de su decisión o de que sean otros los que se lo atribuyen no es algo esencial al concepto (aunque sí se trata de una cuestión de definición). Tampoco importa en qué momento ocurre el daño, es decir, en el momento de la decisión o después.”

Siguiendo estas reflexiones y regresando a la discusión respecto a la inteligencia artificial podríamos decir que a pesar de que aparentemente Musk y Zuckerberg se encuentran en los puntos opuestos de la distinción riesgo/ seguridad, ambos están dejando de lado algo fundamental del concepto de riesgo que tiene que ver con que paradójicamente el desarrollo científico y tecnológico trae consigo la aparición de mayores riesgos; para decirlo en palabras del propio Luhmann:

“Ahora bien, si no hay decisiones con la garantía de estar libres de riesgo, debe abandonarse la esperanza (que un observador de primer orden podría todavía tener) de que con más investigación y más conocimiento podríamos pasar del riesgo a la seguridad. La experiencia práctica nos enseña que ocurre más bien lo contrario: cuanto más se sabe, más se constituye una conciencia del riesgo. Cuanto más racionalmente se calcule y mientras más complejo sea el cálculo, de más aspectos nos percataremos, y con ellos vendrá mayor incertidumbre en cuanto al riesgo y, consecuentemente, más riesgo.”

Al final, ni Musk, ni Zuckerberg ponen en cuestión el desarrollo de la inteligencia artificial, simplemente discuten sobre cómo deberían desarrollarse estas nuevas tecnologías con base en las expectativas generadas por los presupuestos, utópicos o distópicos, que tienen sobre los posibles escenarios posibles.

Sin embargo, podríamos decir que es Musk quien tiene el argumento más sólido ya que de una u otra forma contempla un escenario de riesgo basado en la contingencia. En cambio, el argumento de Zuckerberg descansa mucho más en una creencia y en un optimismo que deja de lado un sin fin de escenarios probables e improbables con posibilidad de volverse probables, es decir, no está visualizando el riesgo en toda su complejidad. 

Finalmente, hay que decir, que las regulaciones que propone Musk sobre la inteligencia artificial no son otra cosa que acciones preventivas que buscan que los posibles daños de un proceso disminuyan, esto significa, que si bien estos no son reducidos a 0, sí es reducida su dimensión. Lo que tenemos es que el desarrollo de la inteligencia artificial es incontenible, por tanto solo podemos reducir los posibles riesgos de estas acciones. (Vía: Animal Político)

 

 

Publicidad