Todas las entradas de: Blog de empresas
Escrito por: BRUNO GALINDO
En ocasiones, la humanidad ha creado tecnologías tan potencialmente peligrosas que, aun teniendo en cuenta sus aspectos más benéficos, sus desarrolladores han confesado que el mundo podía sumirse en peligros e incertidumbres nunca vistos, e incluso han llegado a pedir —Sam Altman, creador de Chat GPT, por ejemplo— un tiempo para reflexionar sobre el fenómeno.
Pero es infrecuente que los humanos renunciemos a una tecnología recién descubierta; basta con ver cómo la IA está cada vez más presente en nuestras vidas en múltiples aspectos: en nuestra forma de pensar, de aprender, de votar, de relacionarnos, de solucionar problemas, de escribir… Y aunque la legislación para que se cumplan mínimamente las reglas del juego avanza en la dirección adecuada —sobre todo en Europa—, hay que dar por sentado que el mundo de las leyes va mucho más lento que la ingeniería digital.
Cuestión de ética
La diferencia entre el uso correcto y el inadecuado de la IA pivota sobre la cuestión de la ética. Hoy todo ciudadano tiene que saber lo básico de la inteligencia artificial y de su correcto uso, incluso aunque no la utilicemos o, mejor dicho, no seamos conscientes de estar utilizándola, pues aunque la eludas a conciencia, es posible que tus interlocutores sí la estén usando sin que tú lo sepas.
De un modo u otro millones de personas estamos descubriendo herramientas como Chat GPT. ¿Qué cuidados deberíamos tener en este momento? En una conversación con Carissa Veliz, profesora asociada en el Instituto para la Ética en la IA y miembro del Hertford College de la Universidad de Oxford, me dice que conviene que tengamos la guardia alta. “Son herramientas que se basan en análisis estadísticos, no en análisis lógicos o en realidades empíricas, con lo cual responden a algo que solo es probable y que sobre todo puede ser muy convincente. Y eso lleva a un fenómeno muy común, que la gente de tecnología le llama ‘alucinaciones’, aunque es mucho más preciso hablar de confabulaciones”. Es decir, hemos de ser conscientes de que estas máquinas se inventan cosas —“a veces más del 50% de las respuestas”—, lo que obliga no solo a ser cauto en nuestras consultas, sino responsable en la difusión de los resultados.
Información protegida y datos personales
Sobre esto último, podemos incurrir en violaciones de copyright sin darnos cuenta: “si tú utilizas algo que generó el Chat GPT pero en realidad es una cita textual, por ejemplo de un periódico, y no lo citas, te arriesgas a una demanda”. Por otro lado, estas herramientas tienden a tener un sesgo muy importante hacia la discriminación sexista y racista, incluso de maneras que son muy sutiles y que no es nada fácil identificar.
La ética de la IA tiene el uso de datos personales como un factor primordial. Pero, como señala Veliz, “si tú le escribes a OpenAI y le preguntas qué datos tiene sobre ti, la compañía no sabe decirte, a pesar de que tiene muchos. Si Chat GPT ha dicho que eres alguien que no eres, no tienen manera fácil de corregir ese error; tendrían que volver a entrenar el algoritmo con nuevos datos. Estamos permitiendo que estas empresas sigan adelante”.
Es clave, pues, que las empresas cumplan escrupulosamente con un código ético en su uso de la IA, pero también que nosotros, meros usuarios, hagamos lo propio para adaptar la tecnología a la humanidad, y no la humanidad a la tecnología.
Mejora la comunicación oral y escrita de tus profesionales
Escritor, periodista y creador de contenidos de audio. Es productor de podcasts para la Fundación Juan March, donde es autor de Contemporánea, La Biblioteca de Julio Cortázar y Simsalabim. Profesor de Transformación Narrativa para Escuela de Escritores desde 2019, es especialista en texto y oralidad, campo en el que ha trabajado desde principios de los dos mil en festivales, discos y performances. Dirige el festival Palavra.
Más informaciónError: Formulario de contacto no encontrado.