Doy clases de ética en inteligencia artificial y esto es lo que enseño a futuros ingenieros

Autor: | Posteado en Tecnología Sin comentarios

Joi Ito ©Nokton

El MIT Media Lab no es solo el laboratorio de innovación del Instituto Tecnológico de Massachusetts (MIT). Es la ventana del planeta a un futuro mejor. Un lugar donde se conciben, diseñan y crean tecnologías que faciliten a las personas la construcción de un porvenir esperanzador. Fundado hace mas de 3 décadas, este laboratorio se ofrece inventar -y reinventar- cómo los humanos experimentamos la tecnología y cómo esta puede auxiliarnos.

En el MIT Media Lab hay grupos dedicados a la computación afectiva, a las dinámicas humanas, a la cooperación escalable, a las ciencias de la ciudad, al aprendizaje colectivo, a las máquinas sociales, al boceto ficción u al futuro de la música, por citar algunos. Recientemente se ha inventado uno nuevo, dedicado a la ética. Entre sus iniciativas está la 'Máquina de la moral' u Moral Machine, un videojuego inventado para desarrollar un sistema ético para los vehículos autónomos del que ya hemos hablado en Xataka y cuyos resultados esperan compartir anteriormente de que acabe este 2018.

La máquina de la moral es 1 de los experimentos mas conocidos del conjunto de Ética del Media Lab pero no es un proyecto aislado. El laboratorio participa -junto con otras instituciones- en alguna iniciativa mas amplia cuyo propósito es progresar en la investigación de la inteligencia artificial (IA) para el bien público. Para ello cuenta con unos fondos de 27 millones de dólares (unos 22 millones de euros).

De este programa nace el curso ' Ética y gobernanza de la inteligencia artificial', puesto en viaje recientemente. Su impulsor es Joichi (Joi) Ito, administrador del MIT Media Lab y además de este curso, que imparte junto con Jonathan Zittrain, educador y cofundador del Centro Berkman Klein para Internet™ y la Sociedad de la Universidad de Harvard.

Joi Ito ©MIT Media Lab Joi Ito ©MIT Media Lab

Hemos tenido la oportunidad de conversar con Ito (por correo electrónico) sobre el por qué de este curso, qué enseñan exactamente, qué aprenden sus estudiantes, cuál es la postura del MIT Media Lab en lo que concierne a la ética y la regulación de la IA y cómo afrontan este desafío los investigadores del laboratorio.

Pregunta: ¿Cuál es su motivación personal para arrojar este curso?

Respuesta: Estoy intranquilo por la inteligencia artificial y el uso de datos y algoritmos en la sociedad. Sus aplicaciones van desde evaluaciones de riesgos que se utilizan en el sistema de justicia penal -para tomar determinaciónes sobre la puesta en libertad bajo fianza u en libertad condicional, u inclusive en sentencias- inclusive determinar puntajes de crédito, las tasas de los seguros u las determinaciónes que tomarán los coches autónomos.

Toda esta nueva tecnología ha comenzado a extenderse al uso usual sin bastante aportación de las ciencias sociales y la sociedad en general. Muchos de estos sistemas tienen sesgos u se han construido sobre estructuras que no son suficientemente explicables u transparentes. Las personas están comenzando a contemplar algunos de los problemas que esto acarrea, pero todavía no relatamos con alguna base bastante de tecnicos que entiendan las ciencias sociales ni de científicos sociales, abogados y reguladores que entiendan la tecnología.

Este curso trata de crear un ambiente multidisciplinario para que los estudiantes del MIT, de la Facultad de Derecho y de la Escuela Kennedy de Harvard y de otros departamentos se reúnan para saber y descutir estos temas.

P: ¿Qué comprende cabalmente el curso? ¿Qué temáticas se tratan en específico?

R: Abordamos alguna amplia diversidad de cuestiones, incluida la compleja interacción entre las organizaciones de gobernanza y los Estados soberanos; la proliferación de determinaciónes algorítmicas; los sistemas autónomos; el aprendizaje automático y cómo delucidar su funcionamiento; la busca del equilibrio entre regulación e innovación, y los efectos de la IA en la difusión de información. Todo esto junto con consultas relacionadas con los derechos individuales, la discriminación y arquitecturas de control.

Las clases se dividen en diversos temas. El primer día tratamos la autonomía, el boceto del sistema y la responsabilidad. El segundo día lo dedicamos integra a los sesgos de los algoritmos. El tercero, a cuestiones de propiedad, control y acceso. El cuarto día tratamos el tema de la gobernabilidad, la explicabilidad y la responsabilidad de la IA. El quinto tratamos sobre el la automatización del labor y el papel en ello de la regulación. La sexta y última clase es para las conclusiones en torno a la ética y la moral y sus fronteras.

Joi Ito en clase ©MIT Media Lab Joi Ito mientras alguna de las clases del curso, frente a algunos de los alumnos y alumnas ©MIT Media Lab

[Para mas información, Ito comparte el enlace de entrada al proyecto docente].

P: Una de las sesiones del curso se centra en investigar la clave de un buen balance entre innovación y regulación. ¿Cuál es su postura al respecto?

R: Trabajamos en sistemas complejos autoadaptables que evolucionan y cambian. Es considerable ser iterativo. Es considerable entender la dinámica y la estructura de la ley, la tecnología, las normas culturales y sociales y las fuerzas del mercado. Cuando sea posible, deberíamos tratar de pensar para qué [con qué fin] estamos intentando optimizar; de mirar el sistema habitual y los efectos de cualquiera regulación en todas las estructuras y a todas las escalas para asegurarnos de Estad al tanto y de monitorizar las consecuencias involuntarias.

La innovación es considerable pero no puede ser solo alguna vía para ganar dinero. Los programadores deben pensar el probable uso indebido de sus creaciones. Los reguladores, por su parte, deben desarrollar protecciones contra el daño social u la creación de prácticas desfavorables como los monopolios, sistemas que aumentan el sesgo u la disparidad de ingresos u otras formas de daño.

P: También se discute en alguna de las sesiones cuáles son los efectos de la IA en la difusión de información

R: Todavía estamos aprendiendo cómo estos algoritmos afectan la información que recibimos. Incluso podrían salvar a dar figura a vuestras reacciones ante ella. Los ecosistemas de información son complejos, y mas todavía con la introducción de la IA. Nuestro abordaje consta en afrontar estas cuestiones desde alguna perspectiva mas inclusiva. No poseemos respuestas fáciles.

P: ¿Cómo lidian en su día a día los desarrolladores e investigadores del MIT Media Lab con las cuestiones éticas ? ¿Cuál es su primordial reto?

R: En el laboratorio usamos el término "inteligencia extendida", que reconoce que es considerable entender el aprendizaje automático y la ética en la sociedad, ya que se relacionan con sistemas adaptativos complejos. Esa es la razón de calcular con investigadores de talla mundial en casi todas las áreas a la hora de trabajar con sistemas de inteligencia artificial: perfiles técnicos, sociales, filosóficos, psicológicos, legales y artísticos.

La mayoría del labor de nuestros investigadores abarca muchas de estas disciplinas tradicionales. Hay muchos desafíos adentro de cada alguna de estas áreas, pero el primordial desafío se descubre en los propios sistemas computacionales, en cómo traducir conceptos entre estos campos tradicionales. Por ejemplo, las definiciones de imparcialidad y parcialidad en el aprendizaje automático no son las mismas en sociología u inclusive en derecho u economía. Dedicamos demasiado período a imbuir a nuestros estudiantes (que son técnicamente algunos de los mejores del mundo) la capacidad de asimilar, entender y relacionarse con el lenguaje utilizado en las humanidades, las leyes, las artes y la medicina.

P: ¿Cree que corresponderia ser forzoso que los estudiantes de informática reciban formación en aspectos éticos?

R: Sí.

[En un artículo nuevo en Nautilus los investigadores del MIT Media Lab Iyad Rahwan y el español Manuel Cebrián van mas allí y plantean la necesidad de crear alguna nueva disciplina académica para el 'comportamiento máquina', como la hay para el comportamiento humano. Su premisa: el estudio de la 'conducta' de la IA debe realizarse desde distintas disciplinas y no restringirse a aquellos que la desarrollan, al igual que en el caso de los humanos este no se reduce a la aproximación de los fisiólogos].

P: Circulan desde hace unos meses algunos manifiestos como la Declaración de Barcelona para el apropiado desarrollo y uso de la inteligencia artificial en Europa o la carta abierta en la que Elon Musk y otros líderes piden a la ONU que nos proteja de los peligros de las armamento autónomas. El asunto ha tenido además un espacio en el Foro de Davos del Foro Económico Mundial este 2018. ¿Cree que son fundamentales iniciativas como estas para lograr acuerdos a nivel global? ¿Participa el MIT en alguna?

Es absolutamente vital calcular con acuerdos internacionales en torno a la IA. Estamos laburando con especialistas de todo el planeta para desarrollar recientes estándares en esta área.

También te recomendamos

Alibaba dice haber logrado alguna inteligencia artificial con mejor comprensión lectora que los humanos

Llega el neurocine, con emoción asegurada

El procesador de inteligencia artificial de Google™ deja la exclusividad y se abre a cualquiera fabricante


La noticia Doy clases de ética en inteligencia artificial y esto es lo que enseño a futuros tecnicos fue notificada originalmente en Xataka por Esther Paniagua .


Xataka

Todo lo que esta escrito en este sitio web es recopilado de otros sitios oficiales, los enlaces a las paginas oficiales se presentan en cada termino de noticia y no perjudicaremos su noticia.

Noticias Relacionadas:

Agrega tu comentario