Sie sind auf Seite 1von 7

Cuando su jefe usa pantalones de metal

En una conferencia de 2013 robótica el investigador del MIT Kate Darling, invitó a los
asistentes a jugar con los dinosaurios de juguete animatronic llamados Pleos, que son
aproximadamente del tamaño de un Chihuahua. Los participantes se les dijo a nombre
de sus robots e interactuar con ellos. Aprendieron rápidamente que sus Pleos podían
comunicarse: Los dinosaurios dejaron en claro a través de gestos y expresiones faciales
que les gustaba ser acariciado y no les gusta ser recogido por la cola. Después de una
hora, Darling dio a los participantes un descanso.Cuando regresaron, ella repartió
cuchillos y hachas y les pidió que la tortura y desmembrar a sus Pleos.

Darling, estaba listo para un poco de resistencia, pero se sorprendió por la negativa
uniforme del grupo para hacer daño a los robots. Algunos de los participantes fueron tan
lejos como escudos para Pleos con sus cuerpos de manera que nadie podía hacerles
daño. "Respondemos a las señales sociales de estas máquinas reales", concluyó en un
2,013 conferencia, "aunque sabemos que no son reales."

Esta percepción se forma a la próxima ola de automatización. Como Erik Brynjolfsson


y Andrew McAfee describen en su libro La segunda era de la máquina , "máquinas
pensantes" -de robots autónomos que pueden aprender rápidamente nuevas tareas en la
planta de fabricación de software que puede evaluar a los solicitantes de empleo o
recomendar una estrategia corporativa-están llegando a la lugar de trabajo y puede crear
un enorme valor para las empresas y la sociedad. ( Véase la entrevista con Brynjolfsson
y McAfee en este número.) Sin embargo, a pesar de las limitaciones tecnológicas se
están disolviendo, las sociales se mantienen. ¿Cómo se puede convencer a su equipo
para confiar en la inteligencia artificial? O aceptar un robot como miembro, o incluso
como un gerente? Si reemplaza ese robot, sufrirá la moral?

La respuesta a estas preguntas requiere una comprensión de cómo los seres humanos
trabajarán y relacionarse con las máquinas pensantes. Un creciente cuerpo de
investigación se está expandiendo nuestro conocimiento, proporcionando información
esencial sobre cómo este tipo de colaboración pueden realizar su trabajo.Como estas
máquinas evolucionan a partir de herramientas para sus compañeros de equipo, una cosa
está clara: La aceptación de ellos será más que una cuestión de simple adopción de
nuevas tecnologías.

Cuando no confiamos en Algoritmos y cuando lo


hacemos
El primer desafío en el trabajo con máquinas de pensamiento es reconocer que a
menudo saben más que nosotros. Considere este hallazgo 2014: Los investigadores de
Wharton realizaron una serie de experimentos en los que los participantes fueron
recompensados financieramente por buenas predicciones y podrían o bien ir con su
propio juicio o diferir a un algoritmo para hacer esas predicciones. Por ejemplo, en un
experimento que se muestran los datos de admisión para un grupo de estudiantes de
MBA pasadas y se les pidió estimar qué tan bien cada estudiante había realizado durante
el programa. La mayoría de las personas prefieren ir con su intestino y no atenerse a las
estimaciones del algoritmo.
Este fenómeno se llama "evitación algoritmo", y se ha documentado en muchos otros
estudios. Ya sea que estén diagnóstico de los pacientes o la previsión de los resultados
políticos, la gente prefiere consistentemente humana juicio su propia cuenta o la de
alguien más a los algoritmos, y como resultado a menudo hacen peores decisiones. El
mensaje para los administradores es que ayudar a los seres humanos para confiar en las
máquinas de pensamiento será esencial.

Por desgracia, sólo tiene que mostrar a la gente lo bien que un algoritmo no realiza los
hacen confiar en ella. Cuando los investigadores de Wharton permiten a los
participantes ver sus conjeturas, el algoritmo de, y las respuestas correctas, los
participantes reconocieron que el algoritmo realiza generalmente mejor. Pero viendo los
resultados también significan teniendo errores del algoritmo, lo que afectó la
confianza. "La gente pierde la confianza en algoritmos después de que han visto ellos se
equivocan", dice Berkeley Dietvorst, uno de los investigadores. A pesar de que los seres
humanos estaban equivocados con más frecuencia que el algoritmo fue, dice, "la gente
no pierda la confianza en sí mismos." En otras palabras, parece que nos mantenga
errores contra un algoritmo más de lo que lo haría en contra de un ser humano. De
acuerdo con Dietvorst, eso es porque creemos que el juicio humano puede mejorar, pero
creemos que (falsamente) que un algoritmo no puede.

Algoritmo de evitación puede ser aún más pronunciada para el trabajo que percibimos
como más sofisticados o instintiva de procesamiento de números. Investigadores de la
Escuela Kellogg de Northwestern y Harvard Business School pide a los trabajadores en
el sitio de crowdsourcing Mechanical Turk para completar una variedad de
tareas;algunos se les dijo que las tareas necesarias "cognición" y "razonamiento
analítico", mientras que otros se les dijo que necesitaban "sensación" y "procesamiento
de la emoción." A continuación, se pidió a los participantes si estarían cómodos si este
tipo de trabajo se subcontrata a máquinas. Los que se les había dicho que el trabajo era
mucho más emocional fueron perturbados por la sugerencia de que los que se les había
dicho que era analítica. "El pensamiento es casi como hacer matemáticas", concluye
Michael Norton, de HBS, uno de los autores del estudio. "Y está bien que los robots
para hacer matemáticas. Pero no está bien que los robots para que se sienten las cosas,
porque entonces están demasiado cerca de ser humano ".

Norton cree que encuadrar simplemente una tarea analítica como podría ayudar a
superar el escepticismo de la gente acerca de los algoritmos. En otro experimento, él y
Adam Waytz, de Kellogg, encontró que las personas eran más propensos a estar a gusto
con la idea de un robot de tomar el trabajo de profesor de matemáticas cuando se les
dijo que "requiere de mucha habilidad analítica para enseñar a los estudiantes diversas
fórmulas y algoritmos ", y menos probable que se apruebe cuando se le dijo que se
requiere" la capacidad de relacionarse con los jóvenes ".

Creemos que el juicio humano puede mejorar, pero que un algoritmo no puede.

Dietvorst y sus colegas de Wharton ofrecen otra respuesta. Si la gente prefiere su propio
juicio para un algoritmo de, por qué no incorporar el primero en el segundo? En un
experimento dejan que la gente pellizcan la salida de un algoritmo ligeramente. Se pidió
a los participantes para estimar, sobre la base de una variedad de puntos de datos, qué
tan bien un estudiante de secundaria había realizado en un examen de matemáticas
estandarizado. En lugar de ser obligado a elegir entre su propia estimación y el
algoritmo de, los participantes pudieron ajustar la estimación del algoritmo arriba o
hacia abajo por unos pocos puntos porcentuales y presentar el resultado como su
predicción. Los investigadores encontraron que las personas que recibieron esta opción
eran más propensos a confiar en el algoritmo. Dietvorst piensa que es porque ya no
sentían que estaban ceder el control de la previsión.

Los robots confiamos más en el que se parecen a


nosotros
Otra manera de animar a la gente a confiar en las máquinas pensantes es hacer que estos
últimos sean más humanoide. Los estudios sugieren que la administración de una
máquina o un algoritmo de una voz o un cuerpo humano reconocible hace que sea más
fácil identificarse. Investigadores de la Northwestern, la Universidad de Connecticut, y
la Universidad de Chicago examinaron esta tesis en el contexto de coches auto-
conducción. En su experimento, los participantes utilizaron un simulador de conducción
y podrían hacerlo, ya sea la dirección sí mismos o activar la característica de auto-
conducción. En algunos casos, la función de auto-conducción se limitó a tomar el
control de la dirección y la velocidad del simulador. En otros casos, también tenía
características humanoides que fue nombrado Iris, tenía una voz femenina, y habló a los
conductores durante el viaje. Los conductores de los vehículos equipados con iris eran
más propensos a activar la característica de auto-conducción.Los investigadores también
programar un accidente simulado que parecía ser la falta de otro coche en lugar de la
función de auto-conducción. Los participantes que experimentaron el accidente con Iris
al volante estaban más relajados y menos propensos a culpar a la función de auto-
conducción de haberlo causado que aquellos cuya función no tenía nombre o la voz.

La gente confiaba más Iris, de acuerdo con los investigadores, debido a una tendencia
hacia el antropomorfismo-la atribución de características y motivaciones humanas, tales
como la capacidad de pensar, sentir o expresar la intención, a los no humanos.Una larga
línea de investigación sugiere que la administración de máquinas de una voz, un cuerpo,
o incluso un nombre puede aprovechar esta tendencia y hacer que la gente más cómodo
trabajar con ellos. Por ejemplo, parece que colabore con los robots con mayor eficacia
cuando se hacen "contacto visual" con nosotros, y creemos que son más lindo y más
humanoide cuando inclinan la cabeza a un lado. (Recuerde que la Pleo?)

Los investigadores de la Carnegie Mellon exploraron esta idea con un robot de cuatro
años y medio pies de altura autónoma, denominada Snackbot, que tenía ruedas, brazos,
una voz masculina, y una boca LED que podría sonreír y fruncir el ceño. El trabajo de
Snackbot era entregar refrigerios dentro de una oficina, pero fue diseñado expresamente
para evocar una respuesta antropomórfico. Como se predijo, la gente en la oficina hizo
una conversación con él y lo trataron con amabilidad. Se le preguntó acerca de sus
interacciones con el robot, dijo un participante, "Snackbot no tiene sentimientos, pero
no me gustaría que acaba de tomar el aperitivo y cerrar la puerta en su cara."

Snackbot fue programado para tener conversaciones "personalizadas" con algunas


personas, al comentar sobre sus bocados preferidos, por ejemplo. Los trabajadores que
recibieron este tratamiento estaban más satisfechos con el servicio del robot y más
propensos a cooperar cuando Snackbot hizo peticiones de ellas, tales como preguntar
qué partes de la oficina se deben añadir a un recorrido que estaría dando.
Sin embargo, los robots pueden ser a veces demasiado
humano
Uno de los retos con la adición de características humanoides para máquinas pensantes
es que nos puede llevar a poner demasiada fe en sus capacidades.Investigadores de la
Universidad de Manitoba llevaron a cabo una serie deexperimentos en los que se les
pidió a las personas para hacer el trabajo aburrido, repetitivo:. Renombrar archivos en
un ordenador Los participantes se les dijo que podían salir en cualquier momento , pero
el número de archivos que puede cambiar el nombre aparecido sin límites. Cuando,
inevitablemente, ellos tratan de dejar de fumar, que fueron empujados a seguir adelante
por un robot humanoide de dos pies de altura llamado Jim. Jim se sentó en un escritorio,
habló con una voz robótica, miraba con curiosidad alrededor de la habitación, e hizo
gestos con las manos. Estas características fueron diseñados para proyectar la
inteligencia. (Sin el conocimiento de los participantes, el robot fue efectivamente
controlada por los investigadores y poco pudo hacer por su cuenta.) Cuando alguien
trató de salir de la tarea, Jim podría decir algo como "Por favor, continuamos-
necesitamos más datos", o "Es esencial que usted continúe. "Esto continuó hasta que
cualquiera de los participantes ignoraron la insistencia y dio hacia arriba o había pasado
80 minutos. Lo que más golpeado James Young, uno de los autores del estudio, fue que
muchas personas "tratan el robot como alguien que podría negociar." Ellos discutían
sobre lo poco razonable que estaba siendo diciéndoles que presione, a pesar de que el
robot no hizo más que repetir las mismas pocas frases. El hecho de que el robot tenía
una voz y un cuerpo parecía ser suficiente para convencer a algunas personas que tenía
la capacidad de razonar.

Otro problema es que a medida que las máquinas se vuelven más humanoide, somos
más propensos a estereotipar o incluso discriminar contra ellos, tanto como lo hacemos
con las personas. Un experimento realizado por investigadores de la Universidad de
Soongsil, en Corea del Sur, mide la satisfacción de la gente con un robot de seguridad
que vigila circuito cerrado de televisión material de archivo en busca de actividades
sospechosas. Cuando el robot fue llamado John y tenía una voz masculina, que fue
calificado como más útil que cuando fue nombrado Joan y tenía una voz femenina,
incluso aunque Juan y Joan hicieron un trabajo idéntico. Otras investigaciones han
documentado el efecto contrario para los robots que operan dentro de la casa.

Por último, los robots humanoides pueden crear problemas interpersonales en el lugar
de trabajo. En el experimento Snackbot, una persona sintió incómodo cuando el robot
ha comentado, al alcance del oído de otros empleados, de la cantidad de ese participante
le gusta a la orden de mantequilla de cacahuete de Reese. Otra expresaron los celos
después Snackbot complementa un colega para estar en la oficina todo el tiempo y, por
tanto, ser un trabajador duro. "Cuanto más se agrega características realistas, y en
particular la de agregar más cosas que se parecen como la emoción, la mayor fuerza que
evoca estos efectos sociales," dice Jonathan Gratch, profesor de la Universidad del Sur
de California que estudia la interacción hombre-máquina. "No siempre es claro que
usted quiere que su compañero de equipo de robots virtual para ser igual que una
persona. Usted quiere que sea mejor que una persona ".

En su propia investigación Gratch ha explorado cómo las máquinas pensantes pueden


obtener lo mejor de ambos mundos, la obtención de la confianza de los seres humanos y
evitar algunas de las trampas de antropomorfismo. En un estudio que tenía los
participantes en dos grupos discuten su salud con una figura animada en formato digital
en una pantalla de televisión (llamado un "humano virtual"). A un grupo se le dijo que
las personas estaban controlando el avatar; el otro grupo se le dijo que el avatar
totalmente automatizado. Los que están en el último grupo estaban dispuestos a revelar
información sobre su salud e incluso se muestra más tristeza. "Cuando están siendo
hablaron por una persona, que temen ser juzgados negativamente," dice Gratch.

Que hace las máquinas más humanoide podría crear demasiada fe en sus capacidades.

Gratch la hipótesis de que "en ciertas circunstancias, la falta de humanidad de la


máquina es mejor." Por ejemplo, "uno podría imaginar que si había un jefe de equipo,
que sería más probable que sea veraz acerca de cuáles eran sus defectos." Y en algunos
casos, Gratch piensa, menos aún robots humanoides serían percibidas como menos
susceptibles al sesgo o favoritismo.

Cuando la gente prefiere colegas Robot


Cómo trabajamos con máquinas pensantes variarán de acuerdo con el trabajo que
estamos haciendo, cómo se enmarca, y cómo se diseñan las máquinas. Sin embargo,
bajo las condiciones adecuadas, las personas son sorprendentemente abierto a un
compañero de trabajo robótico. Julie Shah y sus colegas del MIT crearon un
experimento en el que un participante, un asistente, y un robot colaboraron para
construir kits de Lego. Se les dijo a acercarse al trabajo como si estuvieran trabajando
en la fabricación y tenía un plazo muy corto para completar el trabajo. La asignación de
tareas de forma eficaz entre los miembros del equipo fue fundamental para completar el
proyecto rápidamente.

Los participantes construyeron tres kits en tres condiciones diferentes. En un caso, el


robot asignado las piezas de Lego tareas ir a buscar de un banco, ensamblarlos en
otro.En el segundo caso, el participante asigna las tareas. En el tercer caso, el
participante programado su propio trabajo, mientras el robot asigna las tareas restantes a
sí mismo y el ayudante. Los investigadores supusieron que los participantes estarían
más satisfechos en el tercer escenario, ya que obtendrían algún beneficio de la
experiencia algorítmica del robot en la programación sino que también tienen
autonomía sobre su propio trabajo. De hecho las personas prefieren tener el robot
asignar todas las tareas.Ese fue también el escenario más eficiente: Los equipos tomaron
el menor tiempo para completar el proyecto.

¿Por qué fueron estos participantes aceptando mucho más que las de Wharton que se
negaron a depender de un algoritmo? Todavía no sabemos lo suficiente como para decir
con seguridad. Shah señala el hecho de que la tarea era difícil de completar en el plazo
requerido, por lo que las personas reconocen que se beneficiarían de la ayuda del
robot. ¿Cómo se enmarca más probable es que también ayudó a la obra: El objetivo era
maximizar la productividad en un entorno controlado, mientras que en una carrera
contra el reloj en el tipo de desafío lógico un robot podría ser bueno en la reunión. Por
último, aunque el robot no tenía voz y no está diseñado para ser de tipo social, que tenía
un cuerpo, que puede haber hecho parecer más inteligente que un algoritmo sin cuerpo.
Al final del experimento de Shah los participantes dieron su opinión acerca de por qué
preferían un escenario sobre los demás. Es revelador que los que preferían tener el robot
a cargo no destacó sus cualidades humanoides o los bonos que habían formado con
ella. En su lugar, dieron razones tales como "Nunca me sentí como que estaba
perdiendo el tiempo" y "Se elimina la posibilidad de programar ser influenciados por el
ego del líder del equipo." El robot hizo un gran compañero de equipo, ya que hizo lo
que los robots hacen mejor.

Una versión de este artículo apareció en el junio de 2015 cuestión (pp.84-89)


de Harvard Business Review .

Das könnte Ihnen auch gefallen