Beruflich Dokumente
Kultur Dokumente
En una conferencia de 2013 robótica el investigador del MIT Kate Darling, invitó a los
asistentes a jugar con los dinosaurios de juguete animatronic llamados Pleos, que son
aproximadamente del tamaño de un Chihuahua. Los participantes se les dijo a nombre
de sus robots e interactuar con ellos. Aprendieron rápidamente que sus Pleos podían
comunicarse: Los dinosaurios dejaron en claro a través de gestos y expresiones faciales
que les gustaba ser acariciado y no les gusta ser recogido por la cola. Después de una
hora, Darling dio a los participantes un descanso.Cuando regresaron, ella repartió
cuchillos y hachas y les pidió que la tortura y desmembrar a sus Pleos.
Darling, estaba listo para un poco de resistencia, pero se sorprendió por la negativa
uniforme del grupo para hacer daño a los robots. Algunos de los participantes fueron tan
lejos como escudos para Pleos con sus cuerpos de manera que nadie podía hacerles
daño. "Respondemos a las señales sociales de estas máquinas reales", concluyó en un
2,013 conferencia, "aunque sabemos que no son reales."
La respuesta a estas preguntas requiere una comprensión de cómo los seres humanos
trabajarán y relacionarse con las máquinas pensantes. Un creciente cuerpo de
investigación se está expandiendo nuestro conocimiento, proporcionando información
esencial sobre cómo este tipo de colaboración pueden realizar su trabajo.Como estas
máquinas evolucionan a partir de herramientas para sus compañeros de equipo, una cosa
está clara: La aceptación de ellos será más que una cuestión de simple adopción de
nuevas tecnologías.
Por desgracia, sólo tiene que mostrar a la gente lo bien que un algoritmo no realiza los
hacen confiar en ella. Cuando los investigadores de Wharton permiten a los
participantes ver sus conjeturas, el algoritmo de, y las respuestas correctas, los
participantes reconocieron que el algoritmo realiza generalmente mejor. Pero viendo los
resultados también significan teniendo errores del algoritmo, lo que afectó la
confianza. "La gente pierde la confianza en algoritmos después de que han visto ellos se
equivocan", dice Berkeley Dietvorst, uno de los investigadores. A pesar de que los seres
humanos estaban equivocados con más frecuencia que el algoritmo fue, dice, "la gente
no pierda la confianza en sí mismos." En otras palabras, parece que nos mantenga
errores contra un algoritmo más de lo que lo haría en contra de un ser humano. De
acuerdo con Dietvorst, eso es porque creemos que el juicio humano puede mejorar, pero
creemos que (falsamente) que un algoritmo no puede.
Algoritmo de evitación puede ser aún más pronunciada para el trabajo que percibimos
como más sofisticados o instintiva de procesamiento de números. Investigadores de la
Escuela Kellogg de Northwestern y Harvard Business School pide a los trabajadores en
el sitio de crowdsourcing Mechanical Turk para completar una variedad de
tareas;algunos se les dijo que las tareas necesarias "cognición" y "razonamiento
analítico", mientras que otros se les dijo que necesitaban "sensación" y "procesamiento
de la emoción." A continuación, se pidió a los participantes si estarían cómodos si este
tipo de trabajo se subcontrata a máquinas. Los que se les había dicho que el trabajo era
mucho más emocional fueron perturbados por la sugerencia de que los que se les había
dicho que era analítica. "El pensamiento es casi como hacer matemáticas", concluye
Michael Norton, de HBS, uno de los autores del estudio. "Y está bien que los robots
para hacer matemáticas. Pero no está bien que los robots para que se sienten las cosas,
porque entonces están demasiado cerca de ser humano ".
Norton cree que encuadrar simplemente una tarea analítica como podría ayudar a
superar el escepticismo de la gente acerca de los algoritmos. En otro experimento, él y
Adam Waytz, de Kellogg, encontró que las personas eran más propensos a estar a gusto
con la idea de un robot de tomar el trabajo de profesor de matemáticas cuando se les
dijo que "requiere de mucha habilidad analítica para enseñar a los estudiantes diversas
fórmulas y algoritmos ", y menos probable que se apruebe cuando se le dijo que se
requiere" la capacidad de relacionarse con los jóvenes ".
Creemos que el juicio humano puede mejorar, pero que un algoritmo no puede.
Dietvorst y sus colegas de Wharton ofrecen otra respuesta. Si la gente prefiere su propio
juicio para un algoritmo de, por qué no incorporar el primero en el segundo? En un
experimento dejan que la gente pellizcan la salida de un algoritmo ligeramente. Se pidió
a los participantes para estimar, sobre la base de una variedad de puntos de datos, qué
tan bien un estudiante de secundaria había realizado en un examen de matemáticas
estandarizado. En lugar de ser obligado a elegir entre su propia estimación y el
algoritmo de, los participantes pudieron ajustar la estimación del algoritmo arriba o
hacia abajo por unos pocos puntos porcentuales y presentar el resultado como su
predicción. Los investigadores encontraron que las personas que recibieron esta opción
eran más propensos a confiar en el algoritmo. Dietvorst piensa que es porque ya no
sentían que estaban ceder el control de la previsión.
La gente confiaba más Iris, de acuerdo con los investigadores, debido a una tendencia
hacia el antropomorfismo-la atribución de características y motivaciones humanas, tales
como la capacidad de pensar, sentir o expresar la intención, a los no humanos.Una larga
línea de investigación sugiere que la administración de máquinas de una voz, un cuerpo,
o incluso un nombre puede aprovechar esta tendencia y hacer que la gente más cómodo
trabajar con ellos. Por ejemplo, parece que colabore con los robots con mayor eficacia
cuando se hacen "contacto visual" con nosotros, y creemos que son más lindo y más
humanoide cuando inclinan la cabeza a un lado. (Recuerde que la Pleo?)
Los investigadores de la Carnegie Mellon exploraron esta idea con un robot de cuatro
años y medio pies de altura autónoma, denominada Snackbot, que tenía ruedas, brazos,
una voz masculina, y una boca LED que podría sonreír y fruncir el ceño. El trabajo de
Snackbot era entregar refrigerios dentro de una oficina, pero fue diseñado expresamente
para evocar una respuesta antropomórfico. Como se predijo, la gente en la oficina hizo
una conversación con él y lo trataron con amabilidad. Se le preguntó acerca de sus
interacciones con el robot, dijo un participante, "Snackbot no tiene sentimientos, pero
no me gustaría que acaba de tomar el aperitivo y cerrar la puerta en su cara."
Otro problema es que a medida que las máquinas se vuelven más humanoide, somos
más propensos a estereotipar o incluso discriminar contra ellos, tanto como lo hacemos
con las personas. Un experimento realizado por investigadores de la Universidad de
Soongsil, en Corea del Sur, mide la satisfacción de la gente con un robot de seguridad
que vigila circuito cerrado de televisión material de archivo en busca de actividades
sospechosas. Cuando el robot fue llamado John y tenía una voz masculina, que fue
calificado como más útil que cuando fue nombrado Joan y tenía una voz femenina,
incluso aunque Juan y Joan hicieron un trabajo idéntico. Otras investigaciones han
documentado el efecto contrario para los robots que operan dentro de la casa.
Por último, los robots humanoides pueden crear problemas interpersonales en el lugar
de trabajo. En el experimento Snackbot, una persona sintió incómodo cuando el robot
ha comentado, al alcance del oído de otros empleados, de la cantidad de ese participante
le gusta a la orden de mantequilla de cacahuete de Reese. Otra expresaron los celos
después Snackbot complementa un colega para estar en la oficina todo el tiempo y, por
tanto, ser un trabajador duro. "Cuanto más se agrega características realistas, y en
particular la de agregar más cosas que se parecen como la emoción, la mayor fuerza que
evoca estos efectos sociales," dice Jonathan Gratch, profesor de la Universidad del Sur
de California que estudia la interacción hombre-máquina. "No siempre es claro que
usted quiere que su compañero de equipo de robots virtual para ser igual que una
persona. Usted quiere que sea mejor que una persona ".
Que hace las máquinas más humanoide podría crear demasiada fe en sus capacidades.
¿Por qué fueron estos participantes aceptando mucho más que las de Wharton que se
negaron a depender de un algoritmo? Todavía no sabemos lo suficiente como para decir
con seguridad. Shah señala el hecho de que la tarea era difícil de completar en el plazo
requerido, por lo que las personas reconocen que se beneficiarían de la ayuda del
robot. ¿Cómo se enmarca más probable es que también ayudó a la obra: El objetivo era
maximizar la productividad en un entorno controlado, mientras que en una carrera
contra el reloj en el tipo de desafío lógico un robot podría ser bueno en la reunión. Por
último, aunque el robot no tenía voz y no está diseñado para ser de tipo social, que tenía
un cuerpo, que puede haber hecho parecer más inteligente que un algoritmo sin cuerpo.
Al final del experimento de Shah los participantes dieron su opinión acerca de por qué
preferían un escenario sobre los demás. Es revelador que los que preferían tener el robot
a cargo no destacó sus cualidades humanoides o los bonos que habían formado con
ella. En su lugar, dieron razones tales como "Nunca me sentí como que estaba
perdiendo el tiempo" y "Se elimina la posibilidad de programar ser influenciados por el
ego del líder del equipo." El robot hizo un gran compañero de equipo, ya que hizo lo
que los robots hacen mejor.