Header Ads Widget

Ticker

6/recent/ticker-posts

Las Noticias Falsas Son La Oportunidad De Oro De Bing Para Enfrentarse A Google

Los motores de búsqueda no son cosas neutrales. Sus algoritmos tienen el poder de dar forma a cómo entendemos todo, desde los cereales para el desayuno hasta la geopolítica, y su influencia se pone de relieve en un momento en que dependemos cada vez más de Internet para comprender rápidamente temas complejos . En un clima de desinformación y noticias falsas , los motores de búsqueda son una lente de lo que vemos del mundo.  

Las noticias falsas son la oportunidad de oro de Bing para enfrentarse a Google

La IA busca aumentar aún más esta relación, con motores de búsqueda cada vez más inteligentes en la forma en que responden a las ondas en Internet; cambiando su peso para impulsar las fuentes más autorizadas. Al menos, esa es la esperanza. La preocupación es que cuanto menos tienen que ver los humanos con ajustar los algoritmos de búsqueda, más margen hay para que el aprendizaje automático pase por alto los matices epistemológicos.

Si bien se ha prestado mucha atención a las acciones de Google para reajustar la búsqueda, Microsoft ha estado introduciendo silenciosamente algunos cambios en Bing. A fines del año pasado, comenzó a implementar "respuestas de múltiples perspectivas" en su plataforma. En lugar de generar una lista estándar de enlaces, el motor de búsqueda asocia preguntas particulares con temas que tienen múltiples puntos de vista y los presenta como respuestas igualmente ponderadas.

Busque "¿El café es bueno para usted?", Por ejemplo, y aparecerá un cuadro en la parte superior de los resultados con dos respuestas de dos fuentes diferentes, separadas por un pequeño icono "vs". Según Microsoft, esta es una forma de abordar los problemas de polarización que enfrentan las grandes plataformas de Internet, haciendo estallar burbujas de filtro en línea con múltiples perspectivas sobre un tema.

"En el clima actual de noticias falsas y desinformación en la web, creemos que los motores de búsqueda deben dar un paso adelante y proporcionar resultados lo más completos posible", me dice Jordi Ribas, vicepresidente corporativo de Productos de IA en Microsoft y Bing. .

“De lo contrario, la gente tiende a estar en sus burbujas. Si utiliza algoritmos tradicionales, encontrará que, ya sea en las redes sociales o en la búsqueda, proporciona resultados que son personalizados pero, en última instancia, refuerzan los sesgos que la persona ya tendría. Con esta tecnología estamos tratando de romper esas burbujas ".

bing_coffee_search

Proporcionar una serie de respuestas a una pregunta determinada podría interpretarse como ofrecer a los usuarios una forma de elegir su propia verdad, y también existe el peligro de ofrecer una equivalencia falsa para los temas que no lo justifican. No desea que se muestren los pros y los contras de las teorías de la tierra plana, por ejemplo. Ribas enfatiza que el sistema se basa en el peso autorizado de la fuente, sin embargo, y presiona que el enfoque pretende abarcar matices, no desinformación.   

Cualquiera que sea el pensamiento ético detrás del nuevo enfoque de Bing, la cantidad de sujetos que actualmente reciben el tratamiento de múltiples perspectivas es claramente limitada. Los sujetos inocuos sobre los beneficios relativos del café o el colesterol tienen respuestas "positivas" y "negativas", pero cualquier cosa que se acerque a lo político está fuera de la mesa.

Escriba "¿Es el Brexit una buena idea?", Por ejemplo, o "¿Debería acusar a Donald Trump?" y no hay señales de una "respuesta de múltiples perspectivas". Escriba "¿Hay un Dios?" y la primera respuesta enlaza con un artículo con el título “Seis razones claras para creer que Dios está realmente ahí”, no exactamente el futuro matizado de las búsquedas del que habla Microsoft.

Ribas admite que la cobertura de Bing de los resultados de búsqueda multifacéticos es "relativamente baja en este momento", y explica que la inteligencia artificial detrás de las respuestas de múltiples perspectivas debe refinarse antes de que pueda liberarse en temas polémicos. “Vamos a intentar afinar los algoritmos para que podamos comprender mejor la autoridad y lograr que eso conduzca a resultados más objetivos. ¿Lo haremos bien todo el tiempo? No. Hay tantas preguntas que la gente hace y vamos a cometer errores en el camino, pero tenemos la inspiración para brindar información lo más confiable posible ".

LEER A CONTINUACIÓN: Las  "noticias falsas" se han convertido en un modelo de negocio, sostienen los investigadores

Explica que Bing usa algo que llama "análisis de sentimiento" para evaluar si una pregunta requiere o no una respuesta de múltiples perspectivas. Los algoritmos de aprendizaje automático hacen esto agrupando los documentos de una consulta determinada en varios "sentimientos", ponderando estos en función de la autoridad percibida de una fuente. Si un grupo supera drásticamente a todos los demás, entonces se toma como la verdad y se presenta como una respuesta definitiva. Sin embargo, si dos grupos diferentes de respuestas son relativamente iguales, esto lo indica como una respuesta con más de una respuesta "válida".

Un portavoz de la compañía le dijo a Alphr que los editores pueden enviarse al motor de búsqueda como una fuente verificada, lo que marcaría su contenido como autorizado para los propósitos de los algoritmos de Bing: “Los editores pueden convertirse en una fuente de información verificada en Bing, a través de pubhub. bing.com . Los sitios de noticias serán evaluados en base a los siguientes criterios y también serán revisados ​​manualmente por un equipo de periodistas en cuanto a su interés periodístico, originalidad, autoridad y legibilidad ".

IA confiable

A pesar del alcance actualmente bastante limitado de las “respuestas de múltiples perspectivas”, Ribas enfatiza que quiere que su empresa sea sinónimo de “IA confiable”. Una parte importante de esto es tener parámetros claros establecidos para guiar cómo se desarrollan los sistemas de aprendizaje profundo de Microsoft, particularmente en torno a los efectos insidiosos de entrenar la IA con datos sesgados.

“La IA tiene la particularidad de que puede aprender y evolucionar, pero al final del día son solo algoritmos”, dice. “Lo que estamos viendo es que estos algoritmos necesitan tener parámetros para que hagan lo correcto. Por ejemplo, hablamos de sesgo. Si dejamos que estos algoritmos aprendan de datos sesgados, se volverán sesgados. Necesitamos tener pautas que nos ayuden a garantizar que los datos que usamos para entrenar los algoritmos sean lo más imparciales posible ".

Microsoft es miembro de varios grupos dedicados a interrogar las cuestiones prácticas y éticas en torno a la inteligencia artificial, incluida la Asociación sobre IA y el Centro de Cerebros, Mentes y Máquinas del MIT (CBMM). Son el tipo de centros que se esfuerzan por escribir las pautas hacia las que apunta Ribas. Sin embargo, no solo las universidades occidentales y las empresas de tecnología están forjando prácticas en torno a la IA. China, en particular, está presionando para convertirse en un líder mundial en inteligencia artificial , y la empresa de tecnología de vigilancia SenseTime se ha convertido recientemente en la startup de inteligencia artificial más valiosa del mundo.

ms-execs-2014-05-22-ribas-jordi-retrato

(Jordi Ribas. Crédito: Microsoft)

Según Ribas, la competencia entre Occidente y otros países es “muy reñida en todas partes en este momento”. Señala la prueba Stanford Question Answering Dataset (SQuAD), donde una IA debe proporcionar respuestas exactas a más de 100.000 preguntas, extraídas de más de 500 artículos de Wikipedia. Microsoft superó la prueba en enero, pero fue superado por el gigante chino Alibaba .

¿La competencia entre las empresas chinas y las empresas occidentales es motivo de preocupación para Microsoft, especialmente si se tiene en cuenta la cuestión de la "IA fiable" y los diferentes valores sociales? “Hay implicaciones que definitivamente deben ser analizadas, no solo con los valores [sociales] sino también con las leyes de privacidad de cada país”, dice Ribas. “En ese sentido, algunos países pueden desarrollar estas tecnologías más rápido, porque estarán más relajados en términos de las leyes de privacidad que otros. A medida que pase el tiempo, tendremos que ver cómo evoluciona todo ”.

Estas son grandes preguntas sobre la futura dirección ética de la IA. Para Bing, el problema más cercano es cuál es la mejor manera de utilizar sus capacidades de aprendizaje automático para la búsqueda. En un momento en el que la atención se centra en cómo los algoritmos pueden moldear la forma en que vemos el mundo, Ribas quiere que Bing ofrezca un nuevo modelo de información en Internet. Queda por ver si logra o no hacer esto.

“Si somos los únicos que lo hacemos y eso crea una diferenciación significativa y la gente viene a Bing, genial, al final del día también queremos eso. Pero esto es más profundo. Queremos enviar una señal para que los motores de búsqueda, en particular, sean lo más objetivos posible. La objetividad en la búsqueda no podría ser más importante de lo que es hoy ". 

Publicar un comentario

0 Comentarios