Google se ha visto envuelto en una controversia reciente, relacionada con su modelo de inteligencia artificial (IA) multimodal y flexible llamado Gemini. Según “Forbes”, la matriz de Google, Alphabet, perdió alrededor de 90 mil millones de dólares en valor de mercado. Este fue su precio más bajo desde el 5 de enero y es su segunda pérdida diaria más pronunciada del último año.
La plataforma, que se presenta en tres niveles (Ultra, Pro y Nano), ofrece una amplia gama de capacidades, incluyendo la generación de imágenes a partir de descripciones textuales. Sin embargo, una serie de quejas por parte de los usuarios ha impulsado a Google a pausar temporalmente la función de generar imágenes de personas dentro de Gemini.
Las críticas hacia Gemini se centran en dos aspectos principales:
-Sesgo histórico en las imágenes
Diversos usuarios han reportado que al solicitar imágenes de figuras históricas relevantes, como los “Padres Fundadores” de los Estados Unidos, Gemini generaba imágenes de personas de color, lo cual se considera históricamente inexacto.
-Dificultad para generar imágenes de personas blancas
Algunos usuarios también han experimentado dificultades para obtener imágenes de personas blancas utilizando Gemini, lo que ha generado acusaciones de sesgo racial en la herramienta.
Ante la creciente ola de críticas por las inexactitudes y sesgos históricos en las imágenes generadas por su modelo de IA Gemini, Google ha emitido una serie de comunicados oficiales que evidencian su compromiso con la transparencia, la mejora y la responsabilidad.
La compañía ha reconocido públicamente que existen “inexactitudes en algunas representaciones de imágenes históricas generadas”.
Y ha expresado su firme compromiso para “mejorar estas representaciones de forma inmediata”. El objetivo es garantizar que Gemini refleje de manera precisa la diversidad de su base de usuarios global, sin sesgos ni distorsiones.
La compañía ha decidido suspender temporalmente la función de generar imágenes de personas dentro de su herramienta, mientras se implementan las mejoras necesarias. Esta medida demuestra la voluntad de Google para corregir los errores y evitar que se repitan en el futuro.
Las acciones tomadas son un paso positivo en la dirección correcta. La compañía ha demostrado su capacidad para escuchar las críticas, reconocer los errores y tomar medidas concretas para corregirlos. La transparencia y el compromiso con la mejora son esenciales para construir un futuro donde la IA se utilice de manera responsable y beneficiosa para todos.
El mercado global de la IA está experimentando un crecimiento exponencial. En 2023, su valor se estimó en 327.500 millones de dólares, y se proyecta que alcance 1.595.000 millones de dólares para 2028. Este crecimiento evidencia la importancia cada vez mayor de la IA en diversos sectores, desde la salud y la educación hasta las finanzas y la industria.
Sin embargo, este rápido desarrollo también genera preocupaciones. Un estudio global reveló que el 72% de los encuestados están preocupados por el sesgo algorítmico en la IA, mientras que el 63% teme la falta de transparencia en su desarrollo. El caso de Gemini, con sus controversias sobre sesgo histórico e inexactitudes en la generación de imágenes, ha puesto de relieve la necesidad de abordar estas preocupaciones de manera proactiva.
Las empresas tecnológicas, como Google, tienen la responsabilidad de desarrollar la IA de manera ética y responsable.
La decisión de suspender temporalmente la generación de imágenes de personas en Gemini es un paso importante para abordar las preocupaciones de los usuarios. Este es solo el comienzo de un proceso más largo para garantizar que la IA se utilice de manera justa y equitativa.
Es importante destacar que la controversia sobre la nueva IA generativa de Google también tiene repercusiones en el contexto latinoamericano. La región alberga una rica diversidad cultural y étnica, y es crucial que las herramientas de IA como Gemini sean capaces de reflejar esa diversidad de manera precisa y respetuosa.
Es caso en concreto nos invita a reflexionar sobre la importancia de la ética en el desarrollo de la IA. Es fundamental que las empresas tecnológicas se comprometan con la creación de herramientas responsables que no perpetúen sesgos o discriminación, sino que contribuyan a construir un futuro más inclusivo y equitativo para todos.
”El poder de la IA es inmenso, pero también lo es su responsabilidad. Debemos asegurarnos de que la IA se desarrolle y se use de manera que beneficie a toda la humanidad, no solo a unos pocos.” - Stephen Hawking
Y culmino con esta frase del reconocido físico Stephen Hawking en mi columna, que captura la esencia de la responsabilidad que recae sobre nosotros al desarrollar la IA, en conocer los alcances y sus peligros. Es importante recordar que la IA no es una tecnología neutral, sino que tiene el potencial de impactar profundamente nuestras vidas, tanto de manera positiva como negativa.