Beruflich Dokumente
Kultur Dokumente
de una manera que hace que sea ms probable para lograr sus
objetivos.
La siguiente seccin explora esta tercera forma de previsibilidad y
desarrolla un "instrumental" de la tesis de convergencia que
complementa la ortogonalidad tesis.
2. Convergencia instrumental
segn la ortogonalidad tesis artificial agentes inteligentes pueden
tener una enorme gama
de posibles objetivos finales. No obstante, de acuerdo a lo que
podramos denominar la "convergencia" instrumentales tesis, hay
algunos objetivos instrumentales probablemente ser perseguido por
casi cualquier
agente inteligente, porque hay algunos objetivos que son tiles a
intermediarios para la
realizacin de casi cualquier meta final. Podemos formular esta
tesis como sigue:
La tesis de convergencia Instrumental
varios valores instrumentales pueden ser identificados, los cuales
son convergentes en el sentido de que su
consecucin aumentara las posibilidades de que el objetivo del
agente est realizado para una amplia gama
de metas finales y una amplia gama de situaciones, lo que implica
que estos valores instrumentales son
susceptibles de ser perseguidos por muchos agentes inteligentes.
En el siguiente trataremos varias categoras donde tales
valores instrumentales convergentes pueden encontrarse.6 l a
probabilidad de que un agente reconocer los valores instrumentales
que
conf ronts aumenta (ceteris paribus) con la inteligencia del agente
. Por consiguiente, vamos a centrarnos principalmente
en el caso de un hipottico agente superintelligent cuya capacidad
de razonamiento instrumental lejos
6 Stephen Omohundro pionero ha escrito dos documentos sobre este
tema (Omohundro 2008a, 2008b).
Omohundro sostiene que todas los sistemas de inteligencia artificial
avanzada son propensos a presentar un nmero de "unidades bsicas",
que significa " tendencias que estarn presentes a menos que
explcitamente se contrarresta." El trmino "AI drive" tiene la
ventaja de ser breve y sugestiva, pero tiene la desventaja de
sugerir que los objetivos instrumentales que se refiere a influir en
la toma de decisiones de AI en la misma manera como unidades
psicolgicos influyen en la toma de decisiones, es decir, a travs
de una especie de remolcador fenomenolgica sobre nuestro ego que
nuestra voluntad ocasionalmente puede tener xito en resistir. Esa
connotacin es intil. Uno normalmente no dicen que un ser humano
tpico tiene una "unidad" para llenar sus declaraciones de
impuestos, aunque la presentacin de impuestos pueden ser bastante
objetivo instrumental convergentes para los seres humanos en las
sociedades contemporneas (un objetivo cuya realizacin previene
problemas que nos impedira la realizacin de muchos de nuestros
los seres humanos son complicados, y hay muchos factores que pueden
estar en juego en una situacin como esta.11 Por
ejemplo, uno podra tener un valor fi nal que implica ser la clase
de persona que se preocupa por
alguna otra persona para su propio beneficio (aqu se pone un valor
final en tener cierto
valor final ). Alternativamente, uno podra tener un valor final que
implica tener ciertas
y ser padre y atravesando un ; exp eriences y ocupando una cierta
soci al papel
objetivo asociado shift-podra ser una parte necesaria de ello. Los
objetivos humanos tambin pueden tener
contenido incoherente, meta contenido; y por lo que algunas personas
podran querer modificar algunas de sus metas finales para
reducir las incoherencias.
Mejora cognitiva 2.3
Mejoras en la racionalidad y la inteligencia tendern a mejorar del
agente en la toma de decisiones,
haciendo que el agente ms probabilidades de alcanzar sus objetivos
finales. Sera de esperar, por tanto,
mejora cognitiva para emerger como un objetivo instrumental para
muchos tipos de agente inteligente. Por
razones similares, agentes tender al valor instrumental muchos
tipos de informacin.12
No todos los tipos de racionalidad, inteligencia y conocimientos
deben ser instrum entally tiles en
el logro de los objetivos finales del agente."libro holands
argumentos" puede ser usada para mostrar que un
agente cuyo crdito funcin no obedecer las reglas de la teora de
la probabilidad es susceptible de "dinero" de la bomba de los
procedimientos, en los cuales una savvy bookie un rranges un
conjunto de apuestas, cada uno de los cuales aparece favorable segn
las creencias del agente, pero que en combinacin estn garantizados
para
dar como resultado una prdida para el agente, y una ganancia
correspondiente para el bookie. Sin embargo, este hecho no
ofrece ningn general fuertes razones instrumentales para intentar
resolver todos incoherency probabilstico.
Los agentes que no esperan encontrar savvy bookies, o que adopten
una poltica general contra
las apuestas, no pierde mucho de tener algunas creencias incoherente
y pueden obtener
importantes beneficios de los tipos mencionados: reduce el esfuerzo
cognitivo, social de sealizacin, etc. no hay una razn para
esperar que un agente para buscar instrumentalmente intil formas de
mejora cognitiva, como un agente puede no valorar el conocimiento y
la comprensin por su propio bien.
Que las habilidades cognitivas son tiles instrumentalmente depende
tanto del agente f inal
objetivos y su situacin. Un agente que tiene acceso a asesoramiento
de expertos fiables pueden tener poca necesidad de
su propia inteligencia y conocimiento, y por lo tanto puede ser
indiferente a estos recursos.Si la
mejora cognitiva.
2.4 perfeccin tecnolgica
Un agente puede tener a menudo razones instrumentales a procurar una
mejor tecnologa, que en su forma ms simple
significa que buscan maneras ms eficientes de transformar algunos
de los insumos en productos valorados.
As, un agente de software podra colocar un valor instrumental en
algoritmos ms eficientes que
permitan que sus funciones mentales para correr ms rpido en
determinado hardware. Asimismo, los agentes cuyos objetivos
requieren algn tipo de construccin fsica podra mejorar el valor
instrumental de la
tecnologa de ingeniera que les permite crear una amplia gama de
estructuras de forma ms rpida y confiable,
utilizando menos o materiales ms baratos y menos energa. Por
supuesto, existe un equilibrio: los
beneficios potenciales de la mejor tecnologa debe sopesarse en
relacin con sus costos, incluyendo no slo el costo de la
obtencin de la tecnologa sino tambin el costo de aprender a
usarlo, su integracin con otras
tecnologas ya en uso, y as sucesivamente.
Los proponentes de alguna nueva tecnologa, confiados en su
superioridad frente a las alternativas existentes,
a menudo estn consternados cuando otras personas no comparten su
entusiasmo, pero la resistencia de los pueblos a la
novela y nominalmente tecnologa superior no necesita estar basada
en la ignorancia o irracionalidad. Una tecnologa de valence o
carcter normativo no slo depende del contexto en el que se
implementa, sino tambin el punto de partida con el que se evalan
sus efectos: Qu es una bendicin desde la perspectiva de una
persona puede ser un pasivo de la del otro. El
aumento de la eficiencia econmica de la produccin textil, los
telares manuales Luddite
13 tejedoras que esta estrategia se ejemplifica mediante la ascidia
larva, que nada alrededor hasta que encuentre un adecuado, a la cual
roca permanentemente los afijos en s. Cimentada en su lugar, la
larva tiene menos necesidad de procesamiento de informacin
compleja, de dnde procede a digerir parte de su propio cerebro (su
ganglio cerebral).
Los acadmicos a veces puede observar un fenmeno similar en sus
colegas a quienes se concede la tenencia.
14 Cf. Bostrom ( 2012 ).
10
As pues, aunque los telares mecanizados
[www.FHI.ox.ac.uk/Reports/2008-3.pdf]
Shulman, C. (2010). La Omohundro AI bsicos "Unidades" y cata
strophic riesgos. Manuscrito.
[Singinst.org/upload/ai-resource-drives.pdf]
Sinhababu, N. (2009). La teora de la Motivacin Humean reformuladas
y defendida.
Examen filosfico, 118(4), 465-500.
Smith, M. (1987). La teora de la motivacin humean. Mente, 46
(381): 36-61.
Weizenbaum, J. (1976). Equipo de alimentacin y la razn humana: de
la sentencia para el clculo. San
Francisco: W. H. Freeman.
Yudkowsky, E. (2008). La inteligencia artificial como un factor
positivo y negativo en el riesgo global. En
Bostrom, N. y Cirkovic, M. (eds.). Global de los riesgos
catastrficos. (pgs. 308-345; cita de p. 310).
Oxford: Oxford University Press.
Yudkowsky, E. (2011). Los sistemas de valores complejos son
requeridos para lograr valiosos de futuros. En
Schmidhuber, J. Thorisson, K. R., mira, M. (eds.). Actas de la IV
Conferencia
General de Inteligencia Artificial, el AGI 2011 (pgs. 388-393).
Heidelberg: Springer.
16