YA ESTÁ AQUÍ
es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia superhumana, cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la convergencia hacia valores infinitos hace imposible el definir una función.
El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.
Inteligencia suprahumana
La idea de una singularidad, Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las maquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las maquinas ultra inteligentes.
Vinge define una máquina ultra inteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido de que esa inteligencia superior será la que impulsará el progreso y este será mucho mas rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad.
El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera bastamente superior en comparación con los mejores cerebro humanos en prácticamente todos los aspectos y en especial estos tres:
• Creatividad científica
• Sabiduría en general
• Desempeño científico
• Sabiduría en general
• Desempeño científico
Esta definición deja abierta la manera de como se implementa esa superinteligencia
• Artificial: una computadora digital
• Colectiva: una red de computadoras
• Biológica: cultivo de tejidos corticales
• Híbrida: fusión entre computadoras y humanos
• Artificial: una computadora digital
• Colectiva: una red de computadoras
• Biológica: cultivo de tejidos corticales
• Híbrida: fusión entre computadoras y humanos
Riesgos
Los defensores de la singularidad son conscientes de las amenazas que esta implica y consideran los siguientes riesgos existenciales:
• Inteligencia artificial mal programada.
• Mal uso de la nanotecnologia.
• Mala utilización de la biotecnología.
• Uso generalizado de las prótesis (convirtiéndose en un robot)
• Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a si mismas)
• Mal uso de la nanotecnologia.
• Mala utilización de la biotecnología.
• Uso generalizado de las prótesis (convirtiéndose en un robot)
• Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a si mismas)
De aquí que sacan la conclusión que es necesario tomar el control de la evolución humana y abalanzar hacia una transhumanidad. Proponen la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes o convergentes (NBIC) se puede alcanzar la posthumanidad.



No hay comentarios:
Publicar un comentario