Badanie: Wyszukiwarki są «bramkami jednym kliknięciem» do treści szkodliwych

Un nuevo estudio realizado por Ofcom, el regulador de seguridad en internet del Reino Unido, se centra en el papel de los motores de búsqueda como Google y Bing en proporcionar acceso a contenido perjudicial como autolesiones, suicidio y otros materiales dañinos, especialmente para usuarios menores de edad.

Comisionado por Ofcom, el informe preparado por el Instituto de Investigación de Contagio en Red destaca que los principales motores de búsqueda, incluyendo Google, Bing, DuckDuckGo, Yahoo y AOL, se han convertido en «portales de un solo clic» a este tipo de contenido, facilitando un acceso rápido y sencillo a sitios web, imágenes y videos. Uno de cada cinco resultados de búsqueda relacionados con autolesiones lleva a más contenido perjudicial.

Este estudio es significativo, ya que la atención anterior se ha centrado principalmente en el contenido perjudicial en plataformas de redes sociales como Instagram y TikTok. Este nuevo estudio marca el primer paso de Ofcom para comprender si hay una amenaza significativamente mayor asociada con sitios web abiertos como Google.com, que recibe más de 80 mil millones de visitas al mes, en comparación con los aproximadamente 1.7 mil millones de usuarios activos mensuales de TikTok.

Los hallazgos del estudio son alarmantes. Reveló que el 22% de los resultados de búsqueda llevan a contenido perjudicial, incluyendo instrucciones sobre diferentes formas de autolesiones. Estos tipos de contenido constituían el 19% de los enlaces principales en los resultados de búsqueda y el 22% de los enlaces en las primeras páginas de resultados.

Particularmente preocupantes fueron los resultados relacionados con búsquedas de imágenes, donde hasta el 50% de los resultados devueltos eran perjudiciales en naturaleza. Los sitios web y los videos representaron el 28% y el 22% de los resultados perjudiciales, respectivamente.

El informe sugiere que una de las razones por las que los motores de búsqueda no filtran de manera efectiva este contenido podría ser que los algoritmos confunden imágenes relacionadas con autolesiones con contenido médico u otro contenido creíble.

El estudio también encontró que el uso de términos de búsqueda más oscuros aumentaba las posibilidades de que los usuarios accedieran a contenido perjudicial.

Aunque el informe no aborda la búsqueda generativa utilizando inteligencia artificial, es un problema que podría convertirse en un problema más grande en el futuro. Actualmente se están tomando medidas para prevenir abusos de esta tecnología, pero queda la pregunta de si los usuarios encontrarán formas de eludir estas protecciones.

Ofcom ya está informando a los proveedores de motores de búsqueda de que deberán tomar las medidas adecuadas para minimizar el riesgo de exponer a los niños a contenido perjudicial relacionado con temas como el suicidio o los trastornos alimentarios.

Las compañías tecnológicas que no se tomen este problema en serio pueden esperar acciones por parte de Ofcom. En los casos más graves, podrían enfrentar multas y, en situaciones extremas, sus servicios podrían ser bloqueados según órdenes judiciales. También se prevé que las personas responsables de gestionar dichos servicios puedan enfrentar responsabilidad penal.

Google ha respondido al informe, afirmando que sus herramientas de control parental son suficientes para prevenir el acceso a contenido perjudicial y que colaboran con organizaciones de protección al usuario cuando se trata de consultas relacionadas con suicidio, autolesiones o trastornos alimentarios.

Actualmente, Microsoft y DuckDuckGo no han respondido a la solicitud de comentarios.

Preguntas frecuentes:

The source of the article is from the blog rugbynews.at

Web Story