La inmunidad de plataforma debe revisarse, dice profesor asociado en Harvard





Para Virgílio Almeida, profesor asociado del Berkman Kein Center for Internet and Society de la Universidad de Harvard, revisar la legislación que exime a las redes sociales de la responsabilidad por el contenido creado por los usuarios es fundamental, incluso si las grandes tecnologías, como Facebook y Twitter, afirman que el cambio generaría autocensura y restricción de la libertad de expresión en Internet.





‚ÄúDado que las empresas de tecnolog√≠a son los beneficiarios m√°s directos de la Secci√≥n 230 [legisla√ß√£o americana que as isenta de responsabilidade por conte√ļdo de terceiros], ser√≠a interesante considerar que tienen la responsabilidad de demostrar que esta extraordinaria inmunidad se utiliza en beneficio de la sociedad ‚ÄĚ, dice Almeida, profesor em√©rito de Ciencias de la Computaci√≥n de la Universidad Federal de Minas Gerais.

Seg√ļn √©l, una regulaci√≥n que exige una mayor transparencia en el funcionamiento de los algoritmos, que ayudar√≠a a la sociedad a comprender c√≥mo se prioriza la informaci√≥n en las redes sociales, es muy importante. Almeida dice que es necesario tener un sistema de gobernanza de internet que se aleje tanto del modelo chino, de gran intervenci√≥n estatal, como del de Silicon Valley, en el que no hay regulaci√≥n y todo est√° a cargo del mercado.

¬ęPero cualquier ajuste debe estar sujeto a una revisi√≥n rigurosa de c√≥mo impacta el ecosistema de informaci√≥n¬Ľ, dice el profesor, uno de los expertos m√°s respetados del mundo en gobernanza y algoritmos de Internet.

Acaba de lanzar el libro ‚ÄúGobernanza para el mundo digital: ni m√°s Estado ni m√°s mercado‚ÄĚ (Gobernanza para el mundo digital: ni m√°s Estado ni m√°s mercado) con Fernando Filgueiras, profesor de la Escuela de Pol√≠ticas P√ļblicas y Gobierno (EPPG) de Fundaci√≥n Get√ļlio Vargas y UFMG.

*

¬ŅCree que es necesario revisar los principios de la Secci√≥n 230 de la American Communications Decency Act y el Marco Civil Brasile√Īo de Internet, para que las grandes plataformas de Internet sean, de alguna manera, responsables de la informaci√≥n que distribuyen? Cierta revisi√≥n es fundamental, considerando que la oligopolizaci√≥n del mundo digital hace que estas plataformas controlen los datos y la informaci√≥n que circula en Internet. Desde 1996, cuando el Congreso de Estados Unidos aprob√≥ la ley, el papel de Internet ha cambiado dr√°sticamente. Los intermediarios han llegado a jugar un papel fundamental en el desarrollo, difusi√≥n y amplificaci√≥n de contenidos nocivos e ilegales, como fake news y contenidos vinculados al terrorismo. Esta amplia inmunidad de las plataformas ha generado un da√Īo colateral que afecta a personas reales, cuya reputaci√≥n, privacidad y dignidad se han visto da√Īadas.





El tema de la moderación y la regulación del contenido se ha discutido en varios países. Alemania, por ejemplo, ha prohibido el contenido neonazi en las plataformas. En Brasil, el Marco Civil da Internet trae el tema de la neutralidad de la red, que era y es importante para garantizar las mismas condiciones de tráfico y el libre acceso a los contenidos. Sin embargo, esto no significa que las plataformas deban estar exentas de desinformación o discurso de odio. Los algoritmos de la plataforma también tienen funciones de edición: seleccionan, clasifican y, a veces, censuran.

Las plataformas dicen que revisar la Sección 230 las llevará a censurar el contenido para evitar juicios, lo que finalmente reducirá la libertad de expresión en Internet. Empresas como Twitter y Facebook ya están interfiriendo activamente en el contenido, reduciendo la visibilidad o incluso eliminando contenido o usuarios por completo. Considerando que las empresas de tecnología son las beneficiarias más directas del artículo 230, sería interesante considerar que tienen la responsabilidad de demostrar que están utilizando esta extraordinaria inmunidad en beneficio de la sociedad. Es muy importante exigir alguna forma de regulación que requiera una mayor transparencia en el funcionamiento de los algoritmos, lo que ayudaría a la sociedad a comprender cómo se prioriza y amplía la información.

Nuevas ideas, c√≥mo agregar mecanismos de fricci√≥n [que atrasam a divulga√ß√£o de certos conte√ļdos], Podr√≠a ser √ļtil. Es importante recordar que los anunciantes se sienten atra√≠dos por los datos sobre los usuarios; que los datos se crean a trav√©s de la producci√≥n y circulaci√≥n constante de contenido generado por el usuario; y por lo tanto, el contenido controvertido, que mantiene a los usuarios publicando y compartiendo, es valioso. Desde esta perspectiva, este modelo de negocio fomenta las figuras pol√≠ticas controvertidas y el discurso de odio. Por tanto, este ser√≠a otro aspecto para entrar en discusiones sobre regulaci√≥n y moderaci√≥n de contenidos. Pero cualquier ajuste debe estar sujeto a una revisi√≥n rigurosa de c√≥mo impacta el ecosistema de informaci√≥n nacional y global.

En su libro, argumenta que el mundo digital est√° sujeto a la ‚Äútragedia de los comunes‚ÄĚ al igual que el medio ambiente. ¬ŅCu√°l ser√≠a el equivalente digital de la crisis clim√°tica? Cuando hablamos de la tragedia de los comunes, estamos hablando de un recurso compartido cuya sobreexplotaci√≥n por parte de un individuo o grupo genera un costo para toda la sociedad. En el caso del mundo digital, los recursos son datos, informaci√≥n y conocimiento. Las tecnolog√≠as de inteligencia artificial se basan en vol√ļmenes masivos de datos para entrenar algoritmos. Este es el caso de los algoritmos de alimentaci√≥n de Facebook o la l√≠nea de tiempo de Twitter o el algoritmo de recomendaciones de YouTube. Las tecnolog√≠as de IoT dependen del acceso a los datos producidos por ¬ęcosas¬Ľ.

Los gobiernos que digitalizan los servicios p√ļblicos y se convierten en plataformas dependen de los datos de los ciudadanos. Todas las tecnolog√≠as digitales recopilan, almacenan, procesan y comparten datos para que puedan funcionar e impulsar las diversas tareas que realizamos. Y as√≠, la forma en que exploramos estos datos impactar√° a la sociedad de manera dram√°tica.

Tenga en cuenta que no estamos haciendo ning√ļn determinismo tecnol√≥gico. La inteligencia artificial, por ejemplo, no afecta a la sociedad por s√≠ sola. Pero el uso que hacemos de √©l marca la diferencia. Hoy, los resultados obtenidos con las tecnolog√≠as digitales son mixtos. Se habla mucho de la interferencia negativa de las tecnolog√≠as en los procesos electorales y de c√≥mo est√°n vaciando las democracias. Al mismo tiempo, en Taiw√°n, el gobierno utiliza estas tecnolog√≠as para fortalecer la democracia, con herramientas digitales para mejorar el proceso de deliberaci√≥n p√ļblica. Las tecnolog√≠as digitales son herramientas con un enorme potencial para mejorar la vida de las personas. Pero tambi√©n tienen un enorme potencial para crear un da√Īo irreparable a la democracia. Todo depender√° de c√≥mo gobiernemos, usemos y controlemos estas tecnolog√≠as.

Hay varios dilemas, como regular y moderar contenidos en redes sociales o dejar todo gratis. Las respuestas no son globales, dependen de los pa√≠ses. Por ejemplo, la legislaci√≥n en Alemania incluye duras prohibiciones contra el discurso de odio, incluida la ideolog√≠a pronazi. En Estados Unidos, la libertad de expresi√≥n est√° garantizada. Comparando con la crisis clim√°tica: consideremos las emisiones de di√≥xido de carbono generadas por los pa√≠ses, lo que aumenta la contaminaci√≥n global y acelera el cambio clim√°tico. Como paralelo a este fen√≥meno del medio ambiente, podemos ver de forma an√°loga la ¬ęemisi√≥n¬Ľ de desinformaci√≥n en las redes, lo que genera confusi√≥n y desconfianza en el espacio digital con consecuencias reales como divisi√≥n y polarizaci√≥n de la sociedad, violencia.

Otra comparación es la necesidad de acciones colectivas para preservar el medio ambiente, como el uso de materiales reciclables, la protección de ríos, bosques y bosques. Cada ciudadano debe hacer su parte para preservar el medio ambiente. El tema de la seguridad del ciberespacio es similar, ya que requiere una acción colectiva, en la que toda la sociedad debe preocuparse por la seguridad de sus dispositivos electrónicos, así como por las acciones individuales de no difundir noticias falsas o virus.

Dices, en el libro, que es necesario establecer una gobernanza para el mundo digital, y que eso no significa ni ‚Äúm√°s estado‚ÄĚ ni ‚Äúm√°s mercado‚ÄĚ. ¬ŅC√≥mo ser√≠a eso en la pr√°ctica? Hay dos posibilidades para afrontar los problemas de la tragedia de los comunes. El primero es crear un aparato estatal que imponga reglas para la gesti√≥n de los recursos comunes a los individuos. La otra es privatizar estos recursos y gestionarlos a trav√©s del mercado. La gobernanza del mundo digital estatal est√° bien representada por el caso de China, donde el gobierno decide todo, desde lo que la sociedad ve y usa, incluyendo prohibir Google, Facebook, Twitter e implementar una estricta censura en los flujos de informaci√≥n que circulan en redes. Por otro lado, la gobernanza basada en el mercado est√° impulsada por los intereses comerciales de las grandes empresas.

Si por un lado tenemos a China, que constituía un verdadero Leviatán que coordina todo lo del mundo digital allá, por otro lado tenemos una cultura de mercado muy agresiva que rechaza cualquier forma de regulación, que es la cultura de Silicon Valley. Las peleas de Apple y Google con los desarrolladores de aplicaciones se convirtieron en una confrontación de alto riesgo cuando los gigantes tecnológicos sacaron el popular juego Fortnite de sus tiendas de aplicaciones, y el creador del juego tomó represalias con demandas.

Otro ejemplo son los algoritmos en YouTube o Facebook que buscan maximizar la participación del usuario con las plataformas para aumentar los ingresos publicitarios, incluso si esto da como resultado la circulación de desinformación o discurso de odio.

Nuestra principal pregunta en el libro es mostrar que la alternativa entre más estado o más mercado es falsa. Necesitamos mecanismos de gobernanza que faciliten la cooperación y colaboración entre gobiernos, empresas tecnológicas, organizaciones de la sociedad civil y organismos internacionales para crear un conjunto de políticas capaces de influir en el mundo digital para garantizar el respeto de los derechos humanos, beneficios sociales, justicia.

Se han propuesto nuevas formas de gobernar el mundo digital. Facebook, por ejemplo, creó la Junta de Supervisión de Facebook, con miembros de la sociedad civil y el mundo académico, para regular el contenido. Los gobiernos han respondido promoviendo el nacionalismo de los datos, exigiendo la ubicación territorial de los datos de sus ciudadanos. Se han tomado varias acciones.

Pero todav√≠a no son suficientes para establecer la paz. En la pr√°ctica, lo que necesitamos son instituciones que funcionen y sean capaces de mediar en los diversos intereses involucrados en el mundo digital y dise√Īar leg√≠timamente pol√≠ticas que aseguren que las tecnolog√≠as digitales beneficien a la sociedad. Lo m√°s importante es entender que un gobierno por s√≠ solo no tiene la capacidad de gobernar adecuadamente el mundo digital y que muchos de los temas del mundo digital que requieren gobernanza no pueden ser regulados por la autonom√≠a del mercado. Si es el Estado el que regula los contenidos, tendremos todo tipo de censura previa, sin poder solucionar el problema de la desinformaci√≥n. Si es por el mercado, todo lo que vivimos hoy se mantendr√°, porque no hay motivaci√≥n para que las grandes plataformas cambien un modelo de negocio altamente rentable.

La √ļltima versi√≥n del proyecto de ley de noticias falsas que se debate en el Congreso prev√© un tipo de gobernanza que combina la autorregulaci√≥n con la moderaci√≥n de un consejo de Internet. ¬ŅQu√© opinas del proyecto? El proyecto es necesario porque necesitamos construir respuestas efectivas al problema de la desinformaci√≥n. Pero el proyecto de ley y la discusi√≥n que tuvo lugar en el Congreso fueron deficientes y abrieron algunos riesgos importantes, como los relacionados con la privacidad. Si, en s√≠ mismas, las redes sociales ya funcionan en base a la vigilancia, ahora podemos reforzar este punto, ya que tenemos que vincular nuestra identidad en las redes. Adem√°s, el proyecto Fake News es casi silencioso en relaci√≥n con los grupos organizados que crean y propagan desinformaci√≥n.

Y est√° claramente la cuesti√≥n de la financiaci√≥n de estos grupos, que se convierte en la cuesti√≥n fundamental. Es posible que la ley se vuelva ineficaz, sin cambiar lo que realmente importa. Es necesario que la ley piense en un dise√Īo m√°s efectivo para cambiar el comportamiento de los individuos en las redes. De repente, unos peque√Īos cambios pueden marcar una gran diferencia. En el caso de la desinformaci√≥n, en particular, ser√≠a deseable que las plataformas sociales cambiaran su modelo de negocio. Sin embargo, es muy ingenuo imaginar que las redes sociales simplemente har√°n esto. Necesitamos ir tras el dinero y crear los castigos adecuados para los agentes que propagan desinformaci√≥n.

¬ŅQu√© pasar√° si el mundo digital contin√ļa sin ning√ļn tipo de gobernanza? La ausencia de normas, reglamentos, leyes y acuerdos globales puede conducir a una situaci√≥n ca√≥tica, en la que la principal caracter√≠stica ser√≠a la falta de confianza en la sociedad en el mundo digital. La ausencia de gobernanza tambi√©n puede conducir a una fragmentaci√≥n de Internet y de los servicios globales, que ahora se considera un logro del siglo 21. Las consecuencias econ√≥micas y pol√≠ticas ser√≠an desastrosas. En el caso espec√≠fico de Brasil, es importante se√Īalar que estamos avanzando hacia una situaci√≥n en la que todo estar√° conectado a trav√©s de un sistema tecnosocial complejo y opaco, y si el pa√≠s no crea pol√≠ticas, tendr√° que seguir las reglas establecidas. y salir corriendo de aqu√≠.

¬ŅCu√°les son los principales ¬ęelementos malos¬Ľ del mundo digital actual? ¬ŅY los principales problemas? El problema no est√° en la tecnolog√≠a en s√≠. El problema es humano y seguir√° siendo humano. Es muy dif√≠cil hablar de ¬ęelementos malos¬Ľ y ¬ęelementos buenos¬Ľ. Facebook, por ejemplo, contribuye ahora a las devastadoras elecciones estadounidenses y crea una serie de problemas reales para las democracias de todo el mundo. Lo que sucedi√≥ en 2018 en Brasil es un ejemplo de este problema. Pero al mismo tiempo, Facebook jug√≥ un papel decisivo en la Primavera √Ārabe, en la lucha por la democracia en Taiw√°n o incluso en convocar manifestaciones en Brasil en 2013. Entre los expertos, est√°n los rom√°nticos de la democracia en las redes y los esc√©pticos del fin del mundo, que quieren el fin de las tecnolog√≠as. Este moralismo en el mundo digital es muy improductivo.

Hoy, uno de los principales problemas del mundo digital son las desigualdades que se reproducen en la infraestructura de internet. Esto se hizo muy visible con el tema de la educaci√≥n en l√≠nea durante la pandemia. Las escuelas y las familias adineradas de clase media se adaptaron r√°pidamente y migraron toda la educaci√≥n a las plataformas en l√≠nea. Ahora bien, ¬Ņc√≥mo responder√°n las escuelas p√ļblicas y las familias pobres a esto? E incluso fuera del tema de la pandemia, todav√≠a hay millones de personas que no tienen acceso a la banda ancha. Al mismo tiempo, hablamos de transformar digitalmente todos los servicios p√ļblicos y crear gobiernos como plataformas. ¬ŅY quien no tenga acceso a banda ancha, simplemente quedar√° excluido de todos los servicios p√ļblicos?

Otro orden de problemas se refiere a las aplicaciones. Los algoritmos deciden cada vez más quién tiene derecho a qué, cómo, dónde y cuándo. Esto conduce a la negación de los derechos ciudadanos. Por ejemplo, los algoritmos reproducen e incluso refuerzan las injusticias de raza y género, como lo hizo la selección de trabajo de Amazon, y llevó a las mujeres a ser eximidas de los procesos de selección. Los prejuicios raciales llevaron a la incriminación de hombres negros en Estados Unidos cuando el sistema judicial implementó inteligencia artificial para resolver las tareas de los procesos penales.

WhatsApp no ‚Äč‚Äčencaja en el diagn√≥stico de problemas provocados por algoritmos en redes sociales. ¬ŅC√≥mo solucionar los problemas provocados por una aplicaci√≥n creada para la comunicaci√≥n interpersonal que se ha convertido en un veh√≠culo de comunicaci√≥n masiva cifrado, sin supervisi√≥n ni rendici√≥n de cuentas, utilizado para difundir desinformaci√≥n? Una posibilidad en discusi√≥n ha sido el monitoreo en tiempo real de usuarios con patrones de comportamiento sospechoso, la creaci√≥n de mecanismos de fricci√≥n que crean dificultades para la difusi√≥n de mensajes en momentos o situaciones espec√≠ficas, como en un per√≠odo cercano a las elecciones. Dado que WhatsApp es un servicio gratuito, ser√≠a interesante explorar la idea de ¬ęfricci√≥n¬Ľ en servicios sensibles.

Se ha demostrado que los ejemplos existentes, como limitar el n√ļmero de referencias en WhatsApp a cinco, son efectivos. Pero puede ir m√°s all√°, como retrasar significativamente el env√≠o de mensajes de personas bajo sospecha o crear un r√©gimen especial de operaci√≥n en situaciones cr√≠ticas, como la v√≠spera de las elecciones. Otra posibilidad es evaluar la idea de mecanismos como la ¬ęrotura de circuito¬Ľ, como ocurre con las bolsas de valores cuando la inestabilidad se vuelve extrema.

Nacho Vega

Nacho Vega. Nac√≠ en Cuba pero resido en Espa√Īa desde muy peque√Īito. Tras cursar estudios de Historia en la Universidad Complutense de Madrid, muy pronto me interes√© por el periodismo y la informaci√≥n digital, campos a los que me he dedicado √≠ntegramente durante los √ļltimos 7 a√Īos. Encargado de informaci√≥n pol√≠tica y de sociedad. Colaborador habitual en cobertura de noticias internacionales y de sucesos de actualidad. Soy un apasionado incansable de la naturaleza y la cultura. Perfil en Facebook:¬†https://www.facebook.com/nacho.vega.nacho Email de contacto: nacho.vega@noticiasrtv.com

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *