ChatGPT creó conciencia sobre las habilidades de la Inteligencia Artificial (IA). Los expertos ven una oportunidad.

ChatGPT, un chatbot impulsado por inteligencia artificial lanzado en noviembre, está cambiando la forma en que los maestros educan a los estudiantes, los científicos confían en la investigación y los periodistas informan las noticias. Aprobó el examen de licencia médica de EE.UU. y un examen para recibir una maestría en negocios. ChatGPT de OpenAI.

Los investigadores de UC Berkeley dice que este no es un punto de inflexión importante para la IA tecnológicamente. Más bien, dicen, el lanzamiento es un hito para la conciencia pública de las capacidades actuales de la IA. También presenta una oportunidad para involucrar al público en la consideración del papel potencial de la IA en el avance de la sociedad.

Tenemos que mirar hacia el futuro para prepararnos mejor para lo que probablemente serán sistemas cada vez más poderosos, aunque defectuosos, en un futuro cercano con implicaciones aún más profundas para la sociedad”, dijo Jessica Newman, directora de la Berkeley Artificial Intelligence Security Initiative y becaria de investigación para el Center for Long-Term Cybersecutiry (CLTC).

Los investigadores de UC Berkeley dicen que ChatGPT no es un punto de inflexión importante para la IA tecnológicamente. Más bien, dicen, el lanzamiento es un hito para la conciencia pública de las capacidades de la IA. (Foto/ Nið ricsað, CC BY-SA 4.0)

Desde la década de 1950, los investigadores han trabajado para construir “máquinas inteligentes”, un concepto con el que el público está familiarizado a través de todo, desde el programa de televisión “Westworld” hasta herramientas como el asistente de escritura de IA Grammarly.

Pero ChatGPT está en una escala diferente, lo que genera preocupaciones sobre el desplazamiento de trabajos de cuello blanco, la ética de ciertas aplicaciones, la desinformación y más.

De alguna manera está acelerando la comprensión de la IA por parte de las personas y lo que significará para ellos en el futuro”, dijo Hanlin Li, becaria postdoctoral en CLTC que estudia los problemas de extracción de datos y privacidad de datos. “Esta es una oportunidad valiosa para que cambiemos nuestra perspectiva”.

Sensibilización pública y cambio de mentalidad

OpenAI ha estado desarrollando durante años el gran modelo de lenguaje que sustenta a ChatGPT, de modo que el chatbot “interactúa de manera conversacional” con los usuarios. Desde 2020, la tecnología del lenguaje que aprende de la retroalimentación humana ha impulsado cientos de aplicaciones, dijo Newman.

Ahora, los investigadores esperan que la cobertura de los medios pueda alentar al público a considerar su papel y el coste del avance de ChatGPT y tecnología similar. Por ejemplo, Li expresó su preocupación por los periodistas y creadores de contenido cuyo trabajo es, “sin su conocimiento o consentimiento”, entrenar este sistema de IA de propósito general que luego podría usarse para “automatizar alguna parte de su trabajo”.

Estas firmas de IA esencialmente están llevando a cabo una forma de robo laboral o robo de salarios al obtener el contenido de los periodistas o al obtener el contenido de los artistas sin compensarlos. Todos estos esfuerzos están ayudando a las empresas a generar beneficios”, dijo Li. “Cada vez es más claro que no tenemos una buena comprensión de cuán rentables o valiosos son nuestros datos”.

Newman también dijo que los usuarios están proporcionando valor a OpenAI al experimentar con ChatGPT. Los usuarios le muestran a la empresa de lo que es capaz su herramienta y ayudan a identificar sus limitaciones significativas, dijo.

El valor de los datos

Es importante fomentar conversaciones sobre el papel que estamos desempeñando en el entrenamiento de la IA, dijo Li. A menudo, los usuarios aprovechan la oportunidad de utilizar servicios gratuitos de inteligencia artificial sin darse cuenta de que sus datos valen más que el servicio en sí, dijo.

Con una versión más avanzada de la tecnología de OpenAI que se espera para finales de este año, Newman dijo que los formuladores de políticas deben establecer parámetros en torno al uso y la gobernanza aceptables de los datos. Recientemente escribió un documento o white paper para ayudar a las organizaciones a desarrollar una IA confiable.

Esta es una gran oportunidad para crear conciencia pública y cambiar esta mentalidad”, dijo Li. Necesitamos “brindar cierta transparencia sobre el valor de nuestros datos para las tecnologías de inteligencia artificial, para que podamos tener una conversación más informada sobre qué es un intercambio de valor justo entre nosotros como productores de datos y empresas”.

Más información:

Hanlin Li wrote en WIRED: “ChatGPT stole your work. So what are you going to do?

Deborah Raji en The Verge: “Top AI conference bans use of ChatGPT and AI language tools to write academic papers

Stuart Russell en Le Point: “Human-level artificial intelligence will be ubiquitous

Deborah Raji en WIRED: “ChatGPT, Galactica, and the progress trap

Leído en:

UC Berkeley