IA

La IA se esta moviendo muy rápido, y eso es algo bueno

2019 fue un gran año para ver lo que IA podría hacer. Waymo desplegó taxis sin conductor a clientes en Arizona. Los bots de OpenAI y DeepMind vencieron a los mejores profesionales en dos grandes juegos de deportes electrónicos. Un algoritmo de aprendizaje profundo funcionó tan bien como los médicos – y a veces mejor – para detectar tumores de cáncer de pulmón en imágenes médicas.

Pero en cuanto a lo que debería hacer la IA, 2019 fue terrible. ¿El software de reconocimiento facial de Amazon? Racista, según los investigadores del MIT, que informaron que los algoritmos del gigante tecnológico identifican erróneamente casi a un tercio de los rostros de las mujeres de piel oscura (al tiempo que demuestran una precisión casi perfecta para los hombres de piel clara).

¿Detección de emociones, utilizada por empresas como WeSee y HireVue para realizar evaluaciones de amenazas y evaluar a los solicitantes de empleo? Bazofia, dice la Asociación de Ciencias Psicológicas. Incluso el campo inestable del procesamiento del lenguaje natural recibió un golpe, cuando un sistema de vanguardia llamado GPT-2, capaz de generar cientos de palabras de texto convincente después de solo unas pocas frases, se consideró demasiado arriesgado para lanzar por sus propios creadores, OpenAI, que temían que pudiera usarse «maliciosamente» para propagar noticias falsas, discursos de odio o algo peor.

2019, en otras palabras, fue el año en que dos cosas quedaron inevitablemente claras sobre el cohete de innovación llamado inteligencia artificial. Uno: se está acelerando más rápido de lo que la mayoría de nosotros esperaba. Dos: tiene algunos tornillos sueltos.

Es una realización aterradora, dado que estamos atados colectivamente a este cohete en lugar de mirarlo desde una distancia segura. Pero el progreso que induce la ansiedad de IA tiene una ventaja: tal vez por primera vez, las consecuencias no deseadas de una tecnología disruptiva son visibles en el momento, en lugar de años o incluso décadas más tarde. Y eso significa que si bien podemos movernos demasiado rápido para estar cómodos, en realidad podemos agarrar el acelerador y dirigirnos.

Es fácil olvidar que antes de 2012, la tecnología que ahora llamamos IA – aprendizaje profundo con redes neuronales artificiales – para todos los fines prácticos no existía. El concepto de utilizar capas de conexiones digitales – organizadas en una aproximación cruda del tejido cerebral biológico – para aprender tareas de reconocimiento de patrones tenía décadas de antigüedad, pero en gran parte atrapado en una rutina académica.

Luego, en septiembre de 2012, una red neuronal diseñada por estudiantes del profesor de la Universidad de Toronto y futuro «padrino del aprendizaje profundo» Geoffrey Hinton inesperadamente rompió registros en un desafío de visión por computadora muy conocido llamado ImageNet. La prueba le pide al software que identifique correctamente el contenido de millones de imágenes: por ejemplo, una imagen de un loro o una guitarra. La red neuronal de los estudiantes cometió la mitad de los errores que el subcampeón.



De repente, el aprendizaje profundo «funcionó». En cinco años, Google y Microsoft habían contratado a decenas de expertos en aprendizaje profundo y se autodenominaban compañías «AI first». Y no se trataba solo de Big Tech: una encuesta global de 2018 de más de 2.000 empresas realizada por la firma consultora McKinsey descubrió que más de las tres cuartas partes de ellos ya habían incorporado IA o estaban en programas piloto para hacerlo.

Le tomó 10 años a los teléfonos inteligentes modernos «comerse el mundo», como lo dijo Benedict Evans, analista de Andreessen Horowitz; la web, alrededor de 20. Pero en solo cinco años, la IA ha pasado de la curiosidad de laboratorio a la fuerza económica, contribuyendo con un estimado de $ 2 billones al PIB mundial en 2017 y 2018, según la firma de contabilidad PricewaterhouseCoopers. «Ciertamente estamos trabajando en un ciclo de tiempo comprimido cuando se trata de la velocidad de la evolución de la IA», dice R. David Edelman, ex asesor de tecnología del presidente Barack Obama, quien ahora dirige la investigación de políticas de IA en el MIT.

Este ritmo sin precedentes ha ayudado a impulsar los avances y la agitación en torno a la inteligencia artificial. Según una encuesta de estadounidenses realizada en 2019 por la consultora de marketing global Edelman en colaboración con el Foro Económico Mundial, entre el 54% y el 75% del público en general, cree que la IA dañará a los pobres y beneficiará a los ricos, aumentará el aislamiento social y liderará a una «pérdida de capacidades intelectuales humanas».

Un tercio de los encuestados incluso piensa que las falsificaciones – videos falsos convincentemente espeluznantes de celebridades, funcionarios del gobierno o gente común, generados por redes de aprendizaje profundo – podrían contribuir a «una guerra de información que, en a su vez, podría conducir a una guerra de disparos «.

Entonces, ¿cómo debería responder la sociedad, sin recurrir a lo que Edelman del MIT (sin relación con la consultoría) llama «ludismo de los últimos días»? Después de todo, un enfoque de aplastar los telares no funcionó para los luditas reales, que lo intentaron durante la Revolución Industrial. Pero lo contrario, una fe ciega de que la innovación eventualmente funcionará por sí misma, tampoco lo hará. (Anexo A: todo el planeta, después de 100 años de vehículos que arrojan carbono).

Aquí es donde entra en juego el acelerador del cohete. La línea de tiempo estándar de la innovación tecnológica sigue lo que se conoce como una «curva S»: un comienzo lento, seguido de una pendiente ascendente a medida que la tecnología se da cuenta, y termina con una nivelación a medida que se vuelve omnipresente. Con tecnologías anteriores de consumo mundial, como el automóvil o el teléfono inteligente, las consecuencias no deseadas no se hicieron urgentes hasta que estuvimos bien arriba, o incluso en la meseta, de la curva S.



La adopción masiva de automóviles, por ejemplo, desencadenó varias catástrofes a cámara lenta: no solo el cambio climático, sino también un debilitamiento del transporte público, una planificación urbana distorsionada por décadas y una increíble carnicería. Y para cuando el psicólogo Jean Twenge afirmó, en 2017, que los teléfonos inteligentes pueden haber «destruido una generación» al alentar la adicción a las redes sociales y la ansiedad, casi 3 mil millones de personas ya los usaban. En ambos casos, el concreto se había fraguado antes de darnos cuenta de que algo andaba mal. Pero al pasar de «ningún lugar» a «aparentemente en todas partes» en aproximadamente media década, la IA en realidad nos ofrece un mecanismo de retroalimentación en tiempo real para corregir el curso.

¿Podemos diseñar redes neuronales para que sean más interpretables y menos como misteriosas «cajas negras»? ¿Cómo probamos sistemáticamente los sistemas de aprendizaje profundo para detectar sesgos poco éticos? ¿Debería establecerse un equivalente de la FDA o la EPA para examinar las prácticas y productos de IA? «El hecho de que esté cambiando rápidamente dando cierta urgencia a la formulación de estas preguntas», dice Nick Obradovich, científico del Instituto Max Planck para el Desarrollo Humano que estudia los desafíos sociales que plantea la IA.

Este ajuste de cuentas en tiempo real con IA ya está en marcha. En su conferencia de I/O de 2019, Google presentó un sistema llamado TCAV que actúa como una especie de «detector de mentiras» para las redes de aprendizaje profundo. (¿Quiere asegurarse de que su IA de detección de cáncer realmente detecte tumores, no fallas estadísticas? ¡El TCAV puede ayudar!)

En mayo, 42 países, incluido EE. UU., adoptaron formalmente directrices de políticas desarrolladas por la Organización para la Cooperación y el Desarrollo Económico ( OCDE), «acordar mantener los estándares internacionales que apuntan a garantizar que los sistemas de IA estén diseñados para ser robustos, seguros, justos y confiables».

A principios de este año, los investigadores del MIT crearon una disciplina científica completamente nueva: «comportamiento de la máquina», diseñado para investigar cómo los algoritmos y los humanos interactúan «en la naturaleza». El documento fue coautor de dos docenas de expertos de campos tan diversos como economía, ciencias políticas, robótica y sociología.



«En algún momento en el futuro tendremos alguna regulación del desarrollo y uso de algoritmos en nuestras vidas», dice Obradovich, uno de los coautores del comportamiento de la máquina. Mientras tanto, «hay un papel muy importante para que los científicos sociales bien entrenados [jueguen interviniendo] y comiencen a descubrir problemas que están ocurriendo, y que pueden ocurrir, a la vuelta de la esquina».

Esta actitud emergente hacia la tecnología innovadora podría impulsarnos a hacer que la IA no solo «funcione», sino que se comporte. También podría establecer cómo respondemos a otras nuevas tecnologías disruptivas, como Internet 5G, criptomonedas, automóviles autónomos y edición de genes CRISPR. «Este ideal —de sistemas de firma de códigos y política [social] – puede ser una fórmula repetible para nuevas innovaciones», dice Edelman. «De hecho, probablemente tenga que ser». Después de todo, la IA no será el último cohete al que nos encontraremos atados. Y nadie tiene «las cosas correctas» para pilotarlo, excepto nosotros.

VELOCIDAD CUÁNTICA

La IA ha pasado rápidamente de la curiosidad del laboratorio a la fuerza económica.

$ 2 billones: la contribución estimada de AI al PIB mundial en 2017 y 2018, según la firma de contabilidad PricewaterhouseCoopers

75%: una encuesta global de 2018 de más de 2,000 compañías realizada por la consultora McKinsey descubrió que más de las tres cuartas partes de ellas ya habían incorporado IA o estaban bajo programas piloto para hacerlo.

2019: el año en que las computadoras de Google alcanzaron la supremacía cuántica, lo que significa que podrían resolver problemas que las supercomputadoras normales no podían, según la compañía

Fuente: Fast Company