domingo, 26 de febrero de 2017

Superinteligence, de Nick Bostrom

Superintelligence: Path, Dangers, Strategies. Nick Bostrom. 2014

  Superintelligence es una obra de divulgación científica escrita por el filósofo y profesor sueco Nick Bostom.

  El estudio de la inteligencias artificiales se ha visto polarizado por las obras de ficción, nadie cree que un programa pueda actuar por cuenta propia, pero cuando se trata de Inteligencias Artificiales se utilizan algoritmos o técnicas en donde los humanos ya no saben a ciencia cierta lo que esta pasando en la "mente" del agente, como lo llama el libro.

 Esta es una de las obras de divulgación que más me han gustado, es amena sin necesidad de recurrir a anécdotas o  analogías fáciles. 

  En primer lugar, el libro es sobrio, no predice hecatombes o su propósito es asustar, explica hasta lo que se tiene de conocimientos y equipo la probable fecha en que podríamos tener una AGI, o Artificial General Intelligence, esto es, una inteligencia artificial que tenga una inteligencia al menos igual que la humana.

  También define la diferencia entre "Strong AI", una inteligencia artificial fuerte y una "narrow AI" o "Weak AI" una inteligencia artificial que tiene un uso restringido, como los agentes Siri de Apple o Cortana de Microsoft. 

  Según el autor hay varias formas de llegar a la AGI, una de ellas es el escaneo cerebral, lo que coloquialmente la ciencia ficción conoce como emulación cerebral, otras sería emular los procesos mentales del cerebro humano mediante algoritmos, esto sería conocido como una Inteligencia Artificial Neuromorfica, otra manera sería generar una Seed AI, una inteligencia artificial que fuera aprendiendo conceptos humanos con el tiempo, pero que empezara desde cero, como se manejan ahora las mentadas "Deep Learning" que en los ochentas eran conocidas como Redes Neuronales. El otro camino es utilizar las nuevas técnicas de programación como Programación Evolutiva o "Fitness Aproximations".

  Ademas el autor utiliza mucha parte de la obra en desarrollar las técnicas de aproximación a una Superinteligencia, debido a que el trato directo llevaría a que la IA escapara de su "sandbox" o espacio contenido hacia el Internet.

 También habla de los posibles resultados en que podría resultar la "corrupción" de una Superinteligencia, lo cual es llamado Riesgo Existencial. Aunque corrupción es una palabra incorrecta, la IA podría extinguirnos sin que ese sea realmente su objetivo. Sería tan solo un daño colateral de perseguir sus objetivos hasta sus últimas consecuencias.

 Según Bostrom la mejor manera de lidiar con una Superinteligencia es usando Inteligencias débiles llamadas Genies u Oracles que funcionen como interfaces.

  También se mete un poco en el campo de la ciencia ficción y habla de como podría producirse una sociedad Post-singularidad y como podría la humanidad repartirse el botín.

  Quizá los consejos de este libro se apliquen ya cuando todos nosotros hayamos muerto, pero es necesario ir pensando en las técnicas de control de una tecnología en la cual la humanidad ha puesto ya la mira y puede ser un peligro de extinción a nuestra especie.

 Por ahora es ciencia ficción, pero todo indica que ya vamos encaminados hacia allá.


No hay comentarios:

Publicar un comentario

Las cosas que perdimos en el fuego, Mariana Enriquez

Está es una colección de once relatos cortos de horror/misterio escritos por la autora argentina Mariana Enríquez. Publicado en Febrero del ...