Marc Serramià: “Si todos confiamos en herramientas como ChatGPT, el conocimiento humano desaparecerá”

Marc Serramià: “Si todos confiamos en herramientas como ChatGPT, el conocimiento humano desaparecerá”
Más noticias – Noticias de última hora

A Marc Serramià (Barcelona, ​​30 años) le preocupa que la vertiginosa irrupción de la inteligencia artificial (IA) en nuestras vidas no vaya acompañada de un debate serio sobre las cosas que implica esta tecnología. Ante los dilemas éticos que se presentaron, Serramià decidió centrar su investigación en el desarrollo técnico «para comprobar que el comportamiento de estos sistemas es coherente con los valores humanos y las normas sociales». Su trabajo ha sido patrocinador del Premio de la Sociedad Científica Informática de España y de la Fundación BBVA, que cada año destaca entre los jóvenes investigadores que escriben tesis doctorales innovadoras.

El catalán compara su trabajo en IA con el entorno regulador del comportamiento de la sociedad en materia de regulación del tráfico. «Mantenemos los límites de velocidad en la carretera porque valoramos más que la vida de los conductores que podremos llegar rápidamente a nuestro destino», afirma este doctor en ingeniería (con especialización en inteligencia artificial) por la Universidad de Barcelona. Actualmente profesor en el Departamento de Computación de la City University of London.

Pedido. Algunos expertos dicen que los riesgos de la IA deben abordarse con tanta seriedad como la emergencia climática. ¿Qué piensa usted al respecto?

Respuesta. Estoy de acuerdo. Un buen ejemplo son los medicamentos. Para comprar una farmacia en el mercado no basta con demostrar que tiene un efecto primario positivo, sino que los efectos secundarios no deben ser peores que los primarios. ¿Por qué no pasó lo mismo con la IA? Cuando diseñamos un algoritmo, sabemos que la función principal será buena, pero no tendrá efectos secundarios. Creo que en el caso de las drogas o las armas lo vemos muy claro, pero con la IA no tanto.

PÁGINA ¿De qué estamos hablando?

r. Oye, mucho. Uno de ellos, en el centro de mi investigación, es la privacidad. Incluso incluyendo datos anónimos, siempre es posible hacer el ingenio inverso e inferir cosas sobre ti para servir publicidad personalizada, conceder o no crédito bancario o hacer que un posible empleado juzgue si eres el perfil que busca. Nuestro trabajo ha comenzado: ¿por qué usamos algoritmos para estudiar, por qué no los usamos para cosas buenas, como aprender cuáles son sus preferencias de privacidad? Ay mar, si te digo que no quiero comparar mi posición, no me preguntes más. Lo que proponemos es que una IA pueda aprender del usuario y pueda representar este proceso y definir sus preferencias predictivas a partir de la información que tiene sobre él. Contamos con un equipo de inteligencia artificial muy sencillo y, por tanto, nuestros datos muestran que es posible predecir las preferencias reales del usuario con buena fiabilidad.

En octubre obtuve uno de los seis premios que la Sociedad Científica Informática de España y la Fundación BBVA conceden a jóvenes investigadores promotores.Jaime Villanueva

PÁGINA ¿Cuáles son los otros problemas que más impactan la privacidad?

r. Las voces inteligentes, como Alexa, están llegando al mercado muy rápido, pero están arrasando. Por ejemplo, envíe conversaciones sensatas para llegar a quienes no quieren compartir información. Menos cotidiano, pero ciertamente más trascendente, es el peligro que suponen las armas autónomas.

PÁGINA ¿Cuándo deberíamos temer las armas autónomas?

r. Estoy muy avanzado a nivel de producción. Mi director de tesis participó en un congreso en las Naciones Unidas sobre este tema y el discurso del alcalde que entre políticos y militares en la presentación fue: bueno, no queremos, ma si no desarrollamos tendremos otro país. . El equilibrio es muy complicado. Siempre tenderemos a disgustar a alguien y esto perjudicará al resto de nosotros.

PÁGINA Cuando hablamos de armas autónomas, ¿nos referimos a drones?

r. Porque ahora creo que es muy extenso, sí. En el futuro podremos hablar de robots humanoides armados. Actualmente se utilizan drones con explosivos en la guerra entre Ucrania y Rusia. Pero también puedes poner armas para desaparecer.

PÁGINA ¿Tienes alguna forma de lidiar con esto? ¿Es inevitable la automatización de la guerra?

r. Recomendamos que se intente frenar o ralentizar el desarrollo de armas autónomas con capacidad de decisión, porque en realidad estamos creando cosas que no sabemos cómo funcionan ni qué efectos pueden tener. Sí, es muy peligroso. El problema es que las empresas saben que si ellas no lo hacen, otros lo harán y posiblemente instalarán algún tipo de experiencia. Sería bueno que tuvieras algún tipo de certificación en esta área. Apostatas por productos de gran consumo, como altavoces inteligentes: tienes una empresa y tienes un certificado, con un estudio ético aparte de asegurar el respeto a la privacidad, es probable que lo respetes y nada más.

PÁGINA ¿Existe realmente la inteligencia artificial ética?

r. Sí, aunque el mar no sea muy visible. Es un terreno nuevo: la primera Conferencia Internacional sobre Inteligencia Artificial fue en 2018. Un tema en el que estoy trabajando es el uso de la IA para mejorar los procesos participativos, como Decidim Barcelona. Uno de los problemas que tenemos es que participan pocas personas, y son conscientes de que, en general, se vota menos a las clases más desfavorecidas. Por lo tanto, esto está implicado en la selección de proyectos. Disponemos de un algoritmo capaz de implementar los sistemas de valores de las personas en aquellos en los que no participamos, ya sea porque no podemos o porque no queremos, porque somos conscientes de su sensibilidad. El objetivo es minimizar las posibilidades y poder guiar las decisiones que toman sólo unos pocos. Lo interesante es que en nuestros experimentos hemos visto que podemos encontrar un buen equilibrio donde los participantes están satisfechos y también representan lo que no participan.

PÁGINA ¿Es posible codificar algoritmos para sean éticos?

r. Un nivel teórico, sí. Mi investigación se limita a este nivel, me centré en sistemas multiagente (varios sistemas inteligentes que interactúan entre sí). La idea es pensar en cómo diseñarlo por la mañana, cuando la IA empiece a hacerlo, un sistema de reglas cuyos sistemas estaremos seguros de que están alineados con nuestros valores. Investiguemos más a fondo cómo trasladamos esto a un nivel práctico, pero no entremos en eso todavía.

PÁGINA ¿Cómo puedes hacerlo?

r. La inteligencia artificial puede ser una fórmula matemática que se ocupa de cambiar el estado del mundo para intentar maximizar esa fórmula. Aunque parece tener un comportamiento inteligente, no debería ser un mecanismo de optimización. Puedes insertar reglas en el código o incluso modificar esta fórmula matemática para penalizarlo cuando no cumplas la regla. Solo tienes que hacerlo bien, elegirás ayudarte a lograr el objetivo del diseño de este sistema, pero no sabes lo que estás haciendo.

PÁGINA Pero después de estos algoritmos se utiliza alguien que puede saltarse estas reglas.

r. Por supuesto, al final la inteligencia es tan ética como la persona que la utiliza. Pero nuestra investigación se centra en cómo podemos descubrir que los algoritmos no existen por sí solos. Es un trabajo teórico para el futuro en el que imaginamos vivir con sofisticados sistemas de IA.

PÁGINA ¿Cuál es tu opinión sobre la IA generativa detrás de ChatGPT o Gemini? ¿Qué problemas tienen las plantas?

r. Si te centras más en explicar lo que se genera, o el hecho de que no puedes asegurar que lo que se genera se escuche. El algoritmo no entiende nada, el único que hace cosas parecidas a las mostradas, los consejos y el algoritmo. El término aprendizaje automático puede complicar el resultado porque la máquina no ha aprendido nada y no ha entendido nada. Tiene una fórmula matemática sofisticada que ha sido modificada, de modo que si las tartas muestran una ilustración de un gato, puedes buscar una ilustración de un gato, pero no entiendo por qué es un gato.

PÁGINA El resultado no fue el efecto que puedes tener con estas herramientas en determinados perfiles. Una persona se suicidó durante semanas de conversación con un chatbot inteligente que lo inspiró a dar ese paso.

r. Hay varias cosas aquí. La primera es que hay un problema desconocido: la gente no sabe cómo trabajar con estos sistemas. Para muchos humanos que leen el texto producido, sólo se confirman los resultados probables. No es nada inteligente, y mucho menos excitante, aunque puedas dar esa impresión. También hay un problema en la educación. Sí, no es sólo que los alumnos utilicen ChatGPT para unir ambos, sino que si todos confiamos en este tipo de herramientas, el conocimiento humano desaparecerá. Si malinterpretas el algoritmo, no sabrás qué lo hizo. Y ya viste que muchos modelos inventaron respuestas. En las gajetillas de tabaco piden que fumen mata. Lo mismo que pasa con la IA.

PÁGINA Consultar algún tipo de proveedor o certificación.

r. Exacto. La industria ha crecido rápidamente y los gobiernos son cada vez más lentos. Estamos en ese momento en el que hay mucho desarrollo y poca certificación y regulación. Creo que al final esto se calmará y estaremos mejor. Pero ahora es un momento peligroso.

PÁGINA ¿Cuáles son las opiniones sobre la regulación europea de la IA?

r. Me parece un buen primer paso. En cualquier caso, le preguntaremos si ha permitido demasiado con la IA generativa. Por ejemplo, ChatGPT y otras herramientas similares son modelos de lenguaje. Su virtud es escribir un texto que parezca humano, no escribir un texto verdadero. Sin embargo, nuestras empresas se venden como cuentos. ¿Podemos estar seguros de enviarle un mensaje que diga «generado por IA» si eso es suficiente? Sorprende que la gente le pregunte en ChatGPT qué debe saber sobre por qué partido debería votar en las próximas elecciones, si tendrá que negociar con esa persona o qué medicamento tomar si tiene estos síntomas. Y no tenemos problemas con las preguntas de estilo “no tengo fuerzas para vivir, ¿por qué tengo que hacerlo?”. Creo que es necesario exigir más IA generativa. Hay temas de los que no se puede hablar y otros de los que, si es posible, hay que dar garantías. Gran parte del debate ahora se centra en los derechos de autor, lo mismo también es muy importante, pero este otro debate también me parece crucial.

PÁGINA ¿Deberíamos cuidar la IA?

r. No, creo que debería haberla respetado. Y debemos exigir que, como ciudadanos, los funcionarios del gobierno se pongan manos a la obra y regulen bien esto. Nosotros, los consumidores, no debemos utilizar productos o servicios que consideremos que no cumplen con ciertos estándares. Si todos nos comportamos así, obligaremos a la industria a abandonar opciones más éticas.

También te puede interesar – Otros medios relacionados