My Queue

There are no Videos in your queue.

Click on the Add to next to any video to save to your queue.

There are no Articles in your queue.

Click on the Add to next to any article to save to your queue.

There are no Podcasts in your queue.

Click on the Add to next to any podcast episode to save to your queue.

You're not following any authors.

Click the Follow button on any author page to keep up with the latest content from your favorite authors.

Google

Google corrige su algoritmo de fotos para evitar ser racista

Google Photos confundía personas de color con simios. Todo se debía a un error en su algoritmo.
Google corrige su algoritmo de fotos para evitar ser racista
Crédito: Depositphotos
Entrepreneur Staff
2 min read
Hace dos años un joven informático hizo popular una fotografía de él y una amiga que había sido etiquetada como “gorilas”. Como respuesta, en ese entonces Google eliminó de forma manual esta etiqueta y otras que tenían la misma connotación, como “babuino”, “gibón” o “tití”.

Sin embargo, la eliminación de la palabra no implica que el problema se haya solucionado.

Los expertos indican que esta confusión se había debido a las dificultades técnicas que tienen las compañías tecnológicas para mejorar los sistemas de reconocimiento de imágenes.

Cabe mencionar que Google Fotos usa un modelo tecnológico basado en "aprendizaje automático" o "machine learning" para agrupar de manera automática las fotografías con contenido y/o ubicaciones similares.

En la publicación estadounidense Wired hicieron una prueba, subieron gran cantidad de imágenes incluidas las de simios y otras especies de monos. El programa destinado a clasificar las fotos del usuario solamente utilizando inteligencia artificial encuentra con facilidad los orangutanes, gibones o monos tití, pero se queda en blanco si alguien busca monos, gorilas o chimpancé.

Ante esto, un vocero de Google confirmó a Wired que el término "gorila" se eliminó de las búsquedas y el etiquetado de imágenes después del incidente de 2015 y que "chimpancé" y "mono" también se encuentran bloqueados.

Cabe recalcar que el parche de Google es hacer desaparecer estos animales del léxico de la Google Photos para buscar las imágenes personales de los usuarios, no para el buscador de imágenes del gigante tecnológico.

En su nueva actualización, no obstante, Google no es capaz de arrojar resultados de “mujer negra” u “hombre negro”.

Google se retracta de su negocio de la guerra