
A Maximiliano Casey (Viena, 43 años), la pregunta realmente importante y aterradora sobre la inteligencia artificial es: ¿quién la controla? Profesor de economía, matemático y experto en aprendizaje automático de la Universidad de Oxford acaba de publicar Herramientas predictivas: cómo funciona realmente la IA y quién se beneficia de ella (Herramientas predictivas: cómo funciona realmente la IA y quién se beneficia de ella), un libro editado por la Universidad de Chicago en el que sostiene que los conflictos fundamentales de la A.I. No surgen de una lucha entre personas y máquinas.sino entre quienes controlan esta tecnología y todos los demás.
Cayce revela los recursos fundamentales que lo alimentan y que, parafraseando a Karl Marx, llama “los medios de previsión”. Hay cuatro de ellos: datos, potencia informática, mano de obra y energía. Quien los controle como si fueran los anillos de Sauron controlará la tecnología. Así, la despoja de su aura de poder irresistible y omnipotente y la sitúa en la dimensión adecuada: una tecnología moldeada por decisiones humanas, cuyo futuro está determinado no por su extraordinario poder, sino por intereses propietarios que lo controlan.
Preguntar. Los mercados llevan varias semanas muy volátiles: softwarehay una cierta sensación de euforia alrededor antrópicomientras se habla de una burbuja de IA… ¿Qué está pasando?
Responder. Uno de los argumentos del libro es que incluso los pesimistas (condenado) sin entusiastas (impulsores) Tienen razón. No es que todo será un desastre y la IA nos matará a todos, o viceversa. Depende en gran medida de lo que hagamos con esta tecnología tan versátil, que en última instancia está diseñada para optimizar algo. La pregunta clave es qué optimizamos y quién decide qué optimizar. El futuro está abierto.
¿Es esto una burbuja? Se ha trabajado mucho sobre las llamadas «leyes de escala», la idea de que el rendimiento del aprendizaje automático mejora cuando se tienen más datos, más potencia informática, modelos más grandes… Así es como reciente aumento de la IA y funcionó muy bien durante unos cinco años, pero claramente había llegado a su límite. No tiene sentido ampliar los modelos si los datos de entrenamiento no se amplían, pero aun así aumentan la potencia de procesamiento. El año pasado invirtieron unos 350.000 millones de euros en centros de datos, la misma cantidad que este año, pero es poco probable que mejoren. No es que no surjan nuevos paradigmas, usos y formas de integrarlos a la economía, pero no creo que su calidad fundamental mejore a menos que hagamos algo diferente.
PAG. Los expertos Emily Bender de la Universidad de Washington y Alex Hannah del Instituto DAIR publicaron los resultados. Fraude de IAun libro que, en cierto sentido, dialoga con él. Comienzan: «Seamos honestos: la IA es una trampa, una estafa, un engaño diseñado para llenar los bolsillos de ciertas personas». ¿Qué opinas?
r. Debemos crear instituciones donde los afectados por estas tecnologías tengan voz y voto en lo que están diseñadas para optimizar. Por supuesto, estoy de acuerdo en que no debes creer las exageraciones que vienen de los departamentos. marketingpero eso no significa que toda la tecnología sea una estafa. Lo que se ha logrado es simplemente asombroso. El discurso más negativo, que afirma que la IA nos matará o nos automatizará a todos, utiliza casi los mismos argumentos que los responsables de ello. marketingpero con un ligero cambio. La idea de que existe un concepto unidimensional de inteligencia y que una vez que las máquinas alcancen las capacidades humanas mejorarán y perderemos el control es muy parecida a las historias sobre amplificadorescon el pequeño matiz de que si los objetivos fueran diferentes, podría matarnos a todos. Ambas suposiciones son incorrectas. Estas son tecnologías bastante antiguas. Lo que ha cambiado en los últimos 20 años es la escala, ampliada a un nivel gigantesco por los datos de Internet y los enormes centros de datos. Esto ha traído éxitos impresionantes, pero eso no significa que hayamos creado un dios al que ahora debemos obedecer.
PAG. En 2017, Google logró optimizar sus algoritmos de aprendizaje automático para que pudieran hacer cosas para las que no estaban directamente optimizados, «liberándose» de alguna manera de esa misión. ¿Es demasiado tarde para controlarlos?
r. Crearon una nueva arquitectura de modelado de lenguaje, la llamada «arquitectura transformadora». En la práctica esto resultó ser muy útil, pero conceptualmente no cambió en absoluto el problema de optimización, que seguía siendo maximizar la probabilidad de predecir correctamente la siguiente palabra en Internet, el clásico problema de predicción.
PAG. Dice que la IA se ha vuelto tan omnipresente que ha creado un cierto sentido de humildad social…
r. Sin duda, la IA se puede controlar. Tendrás que seguir varios pasos. El primero es desmitificar este fenómeno. La conversación se vuelve muy confusa cuando hablamos de inteligencia, conciencia, inteligencia general, superinteligencia… Pero se vuelve mucho más realista cuando lo pensamos como en los libros de ciencia: optimización. Hay algunos objetivos mensurables, el tipo de recompensa o pérdida que se maximiza: cuántos ingresos obtiene de la venta de publicidad en línea; cuántas personas permanecen en su sitio; aplicaciones más insidiosas, como cuántas personas han sido deportadas (ICE en los EE. UU. usa algoritmos enviar patrullas y decidir a quién encarcelar). Lo importante es que optimices las acciones elegidas por alguien para maximizar el objetivo numérico elegido por alguien. Esta no es una fuerza sobrenatural insondable. La gran pregunta es: ¿Cómo construimos instituciones en las que las personas afectadas por cualquier sistema de IA tengan un control vinculante sobre sus objetivos? Esto requiere leyes de privacidad, mercado y competencia, estándares técnicos y la creación de instituciones democráticas.
PAG. ¿Por ejemplo?
r. Una de las formas que me gusta es a través de bromas. La idea es que las partes interesadas, como los usuarios de la plataforma, seleccionen aleatoriamente un grupo estadísticamente representativo, como jurados populares, se reúnan, tengan los recursos, el tiempo y el aporte de expertos para comprender cómo funcionan sus sistemas de inteligencia artificial y luego decidan qué objetivo maximizar.
PAG. Esto significaría que deberíamos convertirnos en mejores ciudadanos, pero los recursos críticos que alimentan la IA, como los datos y la potencia informática, están en unas pocas manos. ¿Quién los controla y cómo mantienen su poder?
r. Si aceptamos que son medios necesarios para crear IA, la pregunta es: quien los controlamientras deciden para qué se utiliza. Quizás lo más fundamental sean los datos, y surgen muchas preguntas sobre dónde se ha centralizado el control sobre ellos. Los datos para entrenar modelos de lenguaje u otros modelos de IA generativa provienen de la producción intelectual más o menos disponible públicamente de programadores, periodistas, artistas, autores, músicos… Luego los integran y nos los venden, lo que supone una redistribución masiva del control. Básicamente, la producción intelectual de muchas personas pasa a ser propiedad de unas pocas empresas.
Pero otro tipo de dato trascendental es el que, a nivel individual, nos describe como personas: qué compramos, qué contenidos consumimos, nuestras opiniones políticas, nuestros amigos… Todo lo que caracteriza nuestra vida digital y más allá. Son muy importantes para las decisiones que los sistemas de IA toman a nivel individual, como qué salario nos ofrecen, qué tipo de trabajos conseguimos, cuánto pagamos por los productos online, qué información política recibimos, cuándo viene la policía a nosotros… Pero también se utilizan para entrenar sistemas de IA, por lo que se vuelven importantes para todas las demás personas que son como yo de alguna manera.
PAG. ¿Qué sucede entonces con los derechos de privacidad individuales?
r. Que no nos van a proteger porque pueden diseñar sistemas para que a mí no me importe compartir mis datos si obtengo un pequeño beneficio, como un producto. Las consecuencias posteriores para cualquiera pueden ser desastrosas o al menos problemáticas, según el uso. Esta es una forma fundamental de hacer que la gestión de datos sea más coherente. Debemos decidir colectivamente qué datos se recopilan y por qué.
PAG. En algunos países y bajo ciertas ideologías, su simple propuesta de control democrático de la IA será considerada extremista.
r. Hay una pregunta más amplia sobre qué entendemos por democracia. En un sentido abstracto, sería una decisión colectiva de nuestro destino. No podemos hacer esto individualmente porque todos dependemos unos de otros. Si tomamos como ejemplo las redes sociales, entonces sí. Mark Zuckerberg sobre Elon Musk Ellos tienen la última palabra, se centran en maximizar sus ingresos publicitarios, sus objetivos políticos, su visión del mundo… Y esto tiene todo tipo de consecuencias, como vemos en el proceso democrático o en la salud mental de los adolescentes. Entiendo que la gente, como los usuarios de la plataforma, puede decidir lo que sucede allí: la junta escolar local asigna a los estudiantes a las escuelas, la policía local decide dónde enviar las patrullas…
PAG. Es optimista.
r. Lo que me hace más optimista es que el control colectivo de las Big Tech no tiene por qué ocurrir de la noche a la mañana. Esto puede ser un caso de uso tras otro y está legislado a nivel local, nacional o de otro tipo. Que estas empresas tengan su sede en EE.UU. o China no significa que en España no puedan decir: queremos que los algoritmos de las redes sociales hagan esto. La respuesta a las patologías de la democracia no es menos democracia, sino una democracia más real que involucre a la gente.
0 Comments