Algorithmic transparency

It is no secret that these days technology knows more about us than we know about ourselves. We willingly and regularly hand over information with the belief that it will make our lives easier. Autofill my name and address into a new email subscription? Sure. Give me a daily weather update at 7 am? Perfect. Our devices know what time we wake up, how we get to work, where we eat lunch, who we talk to, what we music we like and what we’re thinking about buying our mother for her birthday next month. We increasingly welcome technology into more and more intimate parts of our lives, but at some point, we have to start asking, who is really in control of the decisions we make while using these items?




The internet is constantly making suggestions about how we should spend our time and money. From targeted advertising to the ‘more like this’ reel, once online, we are encouraged to stay for even longer. This strategy, once used by charismatic salesman around the world, is seeping into the technology itself. While tech companies gather information about their users en masse, their computer programs become better and better at predicting our behaviours and playing to our interests, or weaknesses, in order to captivate our attention, causing us to spend more time online.


A recommendations bar is now a common feature on many websites and platforms. It can be used to direct users to services, products or content similar to that which they have already viewed or engaged with. Furthermore, the apparent transparency with which these recommendations are made gives the impression that the platform is getting to know you and suggesting content in an honest and upfront manner. The truth, however, is that the algorithm used to make these recommendations, and any data collected after the recommendation occurs, is concealed from both users and curious software engineers alike.


Ex-google software engineer, Guillaume Chaslot, has been working to expose the harmful consequences of YouTube’s recommendation engine, which favours and then actively promotes videos that captivate the viewer’s attention. This may seem simple enough; like the pushy salesman, YouTube simply wants its viewers to spend more time engaging with its product. A high engagement rate does not, however, equate to credible or even necessarily safe content, and thus the platform and the algorithm can be and have been, accused of spreading fake news and even harmful content. Furthermore, users who have clear viewing preferences and thus more accurately inform the AI of the algorithm, effectively create online echo chambers, where all the content they are recommended mirrors the views that they already hold.


Chaslot identified both behaviours in YouTube’s recommendation engine during the 2016 Presidential election in The United States of America. Users that initially started watching credible news sources with low engagement rates were soon recommended content that had little to do with their original search yet had high engagement rates. Users that initially sought out videos that already had a high engagement rate were fed similar, repetitive content on a loop, thus further strengthening the engagement rate of the same content in a vicious cycle. In both cases, the AI exhibited recommendation bias. While Chaslot’s experiment was not dependent on actual people viewing YouTube’s recommendations, with YouTube’s estimated 2 billion users, the number of people who have been influenced by the algorithm is impossible to predict, and so is the damage that it may have caused.


So, the next time you're watching one cat video and before you know it you’re in a deep, dark youtube hole, try to ask yourself whether the recommendations bar is really as smart and helpful as you previously thought; perhaps you should be a little more selective in whose recommendations you really listen to.



 

Transparencia algorítmica



No es ningún secreto que en estos días la tecnología sabe más sobre nosotros de lo que sabemos sobre nosotros mismos. Entregamos información voluntaria y regularmente con la convicción de que nos facilitará la vida. ¿Autocompletar mi nombre y dirección en una nueva suscripción de correo electrónico? Por supuesto. ¿Darme una actualización diaria del tiempo a las 7 am? Perfecto. Nuestros dispositivos saben a qué hora nos despertamos, cómo llegamos al trabajo, dónde almorzamos, con quién hablamos, qué música nos gusta y qué estamos pensando en comprarle a nuestra madre para su cumpleaños el próximo mes. Damos la bienvenida a la tecnología cada vez más en partes cada vez más íntimas de nuestras vidas, pero en algún momento, tenemos que empezar a preguntarnos, ¿quién tiene realmente el control de las decisiones que tomamos al usar estos elementos?


Internet está constantemente haciendo sugerencias sobre cómo debemos gastar nuestro tiempo y dinero. Desde la publicidad dirigida hasta el carrete «más como esto», una vez en línea, se nos anima a permanecer aún más tiempo. Esta estrategia, una vez utilizada por vendedores carismáticos en todo el mundo, se está filtrando en la tecnología misma. Si bien las empresas de tecnología recopilan información sobre sus usuarios en masa, sus programas informáticos se vuelven cada vez mejores para predecir nuestros comportamientos y jugar con nuestros intereses o debilidades, con el fin de cautivar nuestra atención y hacer que pasemos más tiempo en línea.


Una barra de recomendaciones es ahora una característica común en muchos sitios web y plataformas. Se puede utilizar para dirigir a los usuarios a servicios, productos o contenido similar al que ya han visto o con el que ya han interactuado. Además, la aparente transparencia con la que se hacen estas recomendaciones da la impresión de que la plataforma lo está conociendo y sugiriendo contenido de manera honesta y directa. La verdad, sin embargo, es que el algoritmo utilizado para hacer estas recomendaciones, y cualquier dato recopilado después de que ocurra la recomendación, se oculta tanto a los usuarios como a los ingenieros de software curiosos.


El ex ingeniero de software de Google, Guillaume Chaslot, ha estado trabajando para exponer las consecuencias dañinas del motor de recomendaciones de YouTube, que favorece y luego promueve activamente videos que cautivan la atención del espectador. Esto puede parecer bastante simple; al igual que el vendedor agresivo, YouTube simplemente quiere que sus espectadores dediquen más tiempo a interactuar con su producto. Sin embargo, una alta tasa de participación no equivale a contenido creíble o incluso necesariamente seguro, y por lo tanto, la plataforma y el algoritmo pueden ser y han sido acusados ​​de difundir noticias falsas e incluso contenido dañino. Además, los usuarios que tienen preferencias de visualización claras y, por lo tanto, informan con mayor precisión a la IA del algoritmo, crean de manera efectiva cámaras de eco en línea, donde todo el contenido que se les recomienda refleja las vistas que ya tienen.


Chaslot identificó ambos comportamientos en el motor de recomendaciones de YouTube durante las elecciones presidenciales de 2016 en los Estados Unidos de América. A los usuarios que inicialmente comenzaron a ver fuentes de noticias creíbles con bajas tasas de participación, pronto se les recomendó contenido que tenía poco que ver con su búsqueda original, pero que tenía altas tasas de participación. Los usuarios que inicialmente buscaron videos que ya tenían una alta tasa de participación recibieron contenido similar y repetitivo en un bucle, lo que fortaleció aún más la tasa de participación del mismo contenido en un círculo vicioso. En ambos casos, la IA mostró sesgo de recomendación. Si bien el experimento de Chaslot no dependió de que las personas reales vieran las recomendaciones de YouTube, con los 2.000 millones de usuarios estimados de YouTube, es imposible predecir la cantidad de personas que han sido influenciadas por el algoritmo, al igual que el daño que puede haber causado.


Por lo tanto, la próxima vez que vea un video de un gato y antes de que se dé cuenta, se encontrará en un agujero profundo y oscuro de YouTube, trate de preguntarse si la barra de recomendaciones es realmente tan inteligente y útil como pensaba anteriormente; tal vez debería ser un poco más selectivo en las recomendaciones que realmente escucha.


0 visualizaciones0 comentarios

Entradas Recientes

Ver todo