Sie sind auf Seite 1von 2

NICK BOSTROM UNIVERSIDAD DE OXFORD compara el destino de los humanos con el de los caballos

cuando fueron sustituidos por los automóviles y los tractores. 1915 26 millones de caballos en USA,
1950’s dos millones solamente porque a mayoría fueron sacrificados para ser vendidos como comida
para perros. La IA supone un riesgo existencial para la humanidad.

Llegarán las maquinas a pensar como nosotros?

Controlar la inteligencia artificial segun NICK BOSTROM

Transhumanismo considerar la posibilidad de mejorar la condicion humana fisica, emocional y


cognitivamente, utilizando el progreso de la ciencia y la tecnologia.

Aprendizaje profundo enfoque de la IA

Se trata de desarrollar en las maquinas una especie de capacidad general de aprendizaje similar a la
de los humanos.

Criogenizacion

¿Cómo se puede llegar a un consenso global sobre los límites éticos en la investigación genética?

Mientras mas poderosas sean nuestras tecnologias, mayor sera la cantidad de daño que podemos
hacer si la usamos de manera hostil o imprudentemente.

Singularity University financiada por Google, Karl Kurzweil.

La inteligencia artificial trata principalmente de encontrar formas de hacer que las máquinas
resuelvan problemas difíciles. Ahora bien, si lo hacen emulando, asimilando o inspirándose en el
cerebro humano o no, es una decisión más táctica. Si hay conocimientos útiles que se puedan extraer
de la neurociencia, serán aprovechados, pero el objetivo principal no es tratar de replicar la mente
humana.

Veo dos clases de amenazas, la primera surge por problemas en la alineación de objetivos. Estás
creando algo que sería muy inteligente y que podría ser también muy poderoso. Si no somos
capaces de resolver cómo controlarlo, podríamos dar lugar a la existencia de un sistema súper
inteligente que podría dar prioridad a alcanzar sus propios valores en detrimento de los nuestros.
Otro riesgo es que los humanos usemos esta poderosa tecnología de forma maliciosa o irresponsable,
como hemos hecho con muchas otras tecnologías a lo largo de nuestra historia. Las utilizamos no
solo para ayudarnos unos a otros y con fines productivos, sino también para librar guerras u
oprimirnos unos a otros. Así que esta sería la otra gran amenaza con una tecnología tan avanzada.

El punto no es si estamos cerca o lejos de que la inteligencia artificial supere a la humana, lo


realmente importante es que debemos prepararnos para esto ¿ nos traerán las máquinas un futuro
brillante o la distopía final de a humanidad?

hay, al menos, dos problemas que resolver. Uno es un problema de ciencia informática teórica, que es
lo que lo que llamaríamos técnicamente controles escalables de la alineación de la inteligencia
artificial. Es decir: si un día somos capaces de fabricar una máquina mucho más inteligente que
nosotros, tenemos que conseguir que haga únicamente las cosas para las que fue diseñada y que no
se desvíe de ese objetivo, por mucho que su inteligencia crezca. Si resolvemos eso, se da el segundo
gran problema, que es el de la gobernanza, es decir, cómo accedemos a esta tecnología tan poderosa
y cómo la utilizamos. Tenemos que decidir según qué valores se usa y para qué objetivos, tenemos
que asegurar que se utilice con fines positivos para el bien de todos y que los beneficios no sean
monopolizados por pequeños grupos... Históricamente, hemos usado las tecnologías para muchas
finalidades, no siempre beneficiosas. Si damos respuesta a estos desafíos, tenemos por delante un
gran futuro.

Expansion of existing threats. The costs of attacks may be lowered by the scalable use of AI systems to
complete tasks that would ordinarily require human labor, intelligence and expertise. A natural effect
would be to expand the set of actors who can carry out particular attacks, the rate at which they can
carry out these attacks, and the set of potential targets. • Introduction of new threats. New attacks
may arise through the use of AI systems to complete tasks that would be otherwise impractical for
humans. In addition, malicious actors may exploit the vulnerabilities of AI systems deployed by
defenders. • Change to the typical character of threats. We believe there is reason to expect attacks
enabled by the growing use of AI to be especially effective, finely targeted, difficult to attribute, and
likely to exploit vulnerabilities in AI systems.

Digital security. The use of AI to automate tasks involved in carrying out cyberattacks will alleviate the
existing tradeoff between the scale and efficacy of attacks. This may expand the threat associated
with labor-intensive cyberattacks (such as spear phishing). We also expect novel attacks that exploit
human vulnerabilities (e.g. through the use of speech synthesis for impersonation), existing software
vulnerabilities (e.g. through automated hacking), or the vulnerabilities of AI systems (e.g. through
adversarial examples and data poisoning). • Physical security. The use of AI to automate tasks
involved in carrying out attacks with drones and other physical systems (e.g. through the deployment
of autonomous weapons systems) may expand the threats associated with these attacks. We also
expect novel attacks that subvert cyberphysical systems (e.g. causing autonomous vehicles to crash)
or involve physical systems that it would be infeasible to direct remotely (e.g. a swarm of thousands
of micro-drones).

Political security. The use of AI to automate tasks involved in surveillance (e.g. analysing
mass-collected data), persuasion (e.g. creating targeted propaganda), and deception (e.g.
manipulating videos) may expand threats associated with privacy invasion and social manipulation.
We also expect novel attacks that take advantage of an improved capacity to analyse human
behaviors, moods, and beliefs on the basis of available data. These concerns are most significant in
the context of authoritarian states, but may also undermine the ability of democracies to sustain
truthful public debates.

Das könnte Ihnen auch gefallen