Saltar al contenido
KaaBalleRo

La Moderación En Las Redes Sociales

Mensajes recomendados

 

WWW.TECHNOLOGYREVIEW.ES

Han heredado el papel de la radio y la televisión sin asumir sus...
 

Tecnología y Sociedad

Las redes sociales deben ser transparentes en su moderación de contenido

Cuando la radio y la televisión eran los guardianes de la información, asumieron las obligaciones del servicio público. Ahora, las plataformas digitales han heredado una posición similar, pero sin hacerse cargo de esas mismas responsabilidades. Necesitamos saber cómo luchan contra el odio y la desinformación

 
  • por Joan Donovan | traducido por Ana Milutinovic
  • 17 Noviembre, 2020
 

En 2016, las medidas que las empresas de tecnología estaban dispuestas a utilizar para eliminar la desinformación, el odio y el acoso de sus plataformas se podían contar con los dedos de una mano. A lo largo de los años, mecanismos tan simples como el bloqueo de contenido y la prohibición de cuentas se han transformado en un conjunto más complejo de herramientas, que incluyen la limitación de temas, la eliminación de algunas publicaciones en la búsqueda, las recomendaciones de bloqueo y la nueva clasificación de publicaciones en función de la prioridad. 

Sin embargo, incluso con este mayor número de opciones disponibles, la desinformación sigue siendo un problema grave. Este tema fue ampliamente debatido  durante el día de las pasadas elecciones estadounidenses. Mi colega Emily Drefyuss descubrió, por ejemplo, que cuando Twitter intentó lidiar con el contenido que usaba el hashtag #BidenCrimeFamily, con tácticas que incluían la "desindexación" bloqueando los resultados de búsqueda, los usuarios, incluido Donald Trump, se adaptaron utilizando otras variantes de la misma etiqueta. Pero todavía no sabemos mucho sobre cómo Twitter decidió hacer todo eso en primer lugar, o cómo examina y aprende de las estrategias que los usuarios usan para esquivar la moderación.

¿Qué acciones han adoptado estas empresas? ¿Cómo funcionan sus equipos de moderación? ¿Cuál es su proceso de toma de decisiones?

Mientras las empresas de redes sociales suspendían cuentas y etiquetaban y eliminaban publicaciones, muchos investigadores, organizaciones de la sociedad civil y periodistas intentaron comprender sus decisiones. La falta de transparencia sobre esas decisiones y procesos significa que, para muchos, los resultados electorales en EE. UU. terminan con un asterisco este año, igual que en 2016.

¿Qué acciones han adoptado estas empresas? ¿Cómo funcionan sus equipos de moderación? ¿Cuál es su proceso de toma de decisiones? En los últimos años, las empresas de estas plataformas crearon grandes grupos de trabajo dedicados a eliminar la desinformación sobre las elecciones y a etiquetar las primeras declaraciones de victoria. La profesora de la Universidad de California en Los Ángeles (UCLA, EE. UU.) Sarah Roberts ha escrito sobre el trabajo invisible de los moderadores de contenido de las redes sociales como una industria en la sombra, un laberinto de trabajadores autónomos y complejas reglas de las que la sociedad sabe poco. ¿Por qué no sabemos más? 

En la niebla postelectoral, las redes sociales se han convertido en el perfecto terreno para una guerra de bajo perfil contra nuestra seguridad cognitiva, con campañas de desinformación y teorías de conspiración proliferando. Cuando los medios por radio y televisión tenían el papel de guardianes de la información, asumían las obligaciones de servicio público, como compartir la información oportuna, local y relevante. Las empresas de redes sociales han heredado una posición similar en la sociedad, pero no han asumido esas mismas responsabilidades. Esta situación ha provocado una avalancha de quejas sobre los sesgos y la censura en su forma de moderar contenido relacionado con las elecciones.  

Asumir los costes

En octubre, participé en un panel de expertos sobre desinformación, conspiración e infodemia en la Comisión Permanente sobre Inteligencia de la Cámara de Representantes de EE. UU. Me acompañaron la antigua analista de la CIA Cindy Otis, la especialista en desinformación del Wilson Center Nina Jankowicz y la jefa de análisis de Graphika, Melanie Smith. 

Mientras preparaba mi declaración, Facebook tenía dificultades para hacer frente a QAnon, una megateoría de la conspiración de ultraderecha, a la que supervisa a través de su departamento de organizaciones peligrosas y que ya ha sido condenada por la Cámara del Congreso de EE. UU. en un proyecto de ley. Mi equipo lleva años investigando QAnon. Esta teoría de la conspiración se ha convertido en uno de los temas favoritos entre los investigadores de la desinformación por todas las estrategias con las que ha conseguido mantenerse flexible, adaptable y resistente frente a los esfuerzos de las empresas de plataformas para detenerla y eliminarla. 

QAnon también se ha convertido en un problema para el Congreso de EE. UU., porque ya no se trata de personas que participan en un extraño juego online: ha afectado como un tornado a la vida de los políticos, que se han convertido en el blanco de campañas de acoso y violencia por parte de los conspiradores. Además, esta evolución ha sucedido rápidamente y de formas completamente nuevas.

Las teorías de la conspiración suelen tardar años en difundirse entre la sociedad, con la promoción de figuras políticas, mediáticas y religiosas clave. Las redes sociales han acelerado este proceso a través de sus modos de entrega de contenido que no paran de crecer. Los seguidores de QAnon no solo comentan las últimas noticias; las interpretan según su interés

Centré mi declaración en los muchos daños no identificados causados por la incapacidad de las empresas de redes sociales para evitar que la desinformación sature sus servicios. Los periodistas, los profesionales médicos y de salud pública, los líderes de la sociedad civil y los administradores municipales, así como los agentes del orden público y los responsables electorales, pagan el precio de la desinformación a gran escala y sufren la carga de abordar sus efectos.

Mucha gente habla con cuidado sobre política con sus amigos y familiares, pero cuando la desinformación sobre las protestas empezó a movilizar a los vigilantes blancos y la desinformación médica llevó a la gente a restar importancia a la pandemia de coronavirus, diferentes sectores profesionales asumieron nuevos e importantes roles como defensores de la verdad

Un ejemplo serían los profesionales médicos y de la salud pública, que han tenido que desarrollar recursos para mitigar la desinformación médica sobre la COVID-19. Los médicos intentan convertirse en influencers para desmentir los bulos y las afirmaciones inventadas sobre curas milagrosas, lo que les quita tiempo para atender a los pacientes y desarrollar tratamientos.

Mientras tanto, muchas salas de redacción se adaptaron a la normalización de la desinformación en las redes sociales desarrollando un ritmo de desinformación: desacreditando las teorías de conspiración o las afirmaciones de noticias falsas que podrían afectar a sus lectores. Pero esos recursos estarían mucho mejor invertidos si se destinaran a mantener el periodismo de calidad en vez de servir como moderación de contenido de terceros. 

Las organizaciones de la sociedad civil también se han visto obligadas a gastar sus recursos en monitorizar la desinformación y proteger su base de algunas campañas específicas. La desinformación sobre la raza es una conocida táctica de las operaciones de influencia nacional y extranjera: las campañas se hacen pasar por comunidades de color o utilizan el racismo para impulsar la polarización en algunas cuestiones divisorias.

Brandi Collins-Dexter testificó sobre estos temas en una audiencia en el Congreso estadounidense en junio, destacando cómo las empresas tecnológicas se esconden detrás de los llamamientos para proteger la libertad de expresión a toda costa sin esforzarse lo suficiente para proteger a las comunidades negras atacadas diariamente en las redes sociales con desinformación médica, discursos de odio y acoso. 

Los responsables electorales, los miembros del orden público y los equipos de primera respuesta se encuentran en una seria desventaja al intentar llevar a cabo su trabajo, mientras los rumores y las teorías de la conspiración se difunden online.

Un posible camino

Cuando la desinformación pasa del mundo digital al físico, puede redirigir los recursos públicos y convertirse en una amenaza para la seguridad de las personas. Es por eso que las empresas de redes sociales deben tomar este problema tan en serio como su afán de obtener beneficios. 

Pero, necesitan un camino para mejorar. La Sección 230 de la ley de Decencia de las Comunicaciones de EE. UU. empodera a las empresas de redes sociales a mejorar la moderación del contenido, pero algunos políticos han amenazado con eliminar estas protecciones para poder continuar con sus propias campañas de propaganda. Durante toda la audiencia de octubre, se vislumbró la idea de una nueva agencia que podría auditar de forma independiente las violaciones de derechos civiles, analizar las cuestiones de privacidad de datos y evaluar las externalidades de mercado de esta industria en otros sectores. 

Como sostuve en aquel momento, el enorme alcance de las redes sociales en todo el mundo significa que es importante no iniciar el desmantelamiento de la Sección 230 hasta que se establezca una nueva política. Hasta entonces, necesitamos más transparencia. La desinformación no afecta únicamente los hechos, también se trata de quién puede decir cuáles son esos hechos. Las decisiones justas de moderación de contenido son clave para la responsabilidad pública. 

En lugar de aferrarnos a la tecnostalgia de unos tiempos que eran no tan malos, a veces vale la pena preguntarse qué se necesitaría para deshacer la invención de las redes sociales, para poder trazar el rumbo de la web que queremos, una web que promueva la democracia, el conocimiento, el esmero y la equidad. De lo contrario, cada inexplicable decisión de las empresas de tecnología sobre el acceso a la información se puede convertir en alimento para los conspiradores y, lo que es peor, en la base de una política gubernamental extralimitada.

--°--

Se le viene pesado a las redes "sociales"

 

Y con esto ... me cague de la risa jaja,

WWW.ELESPANOL.COM

Facebook pagará 52 millones de dólares para evitar ir a juicio por los problemas mentales causados a sus moderadores de contenido.

Y eso que no han moderado en LEK jaja.

Por otra parte, como prepararán a estos "mods", por que, conforme leí :"En 2018 Selena Scola, una antigua moderadora de Facebook interpuso una demanda alegando haber desarrollado estrés postraumático como consecuencia del visionado de imágenes de violencia extrema a diario en su puesto de trabajo."  Serán cabros recién terminados sus estudios(o en ello) relacionados a tecnología y los ponen como mods? a ver info "delicada" sin tener harta experiencia de calle(algunos no conocen ni un puta y algunas viven una vida de princesa)? Tendrán experiencia en ver mierdas en los inicios de internet, cuando los mods no existían? el gore se encontraba por montones y con el tiempo ya pasaba como si nada ver caer un wn por un precipicio y que se partiera el mate y ya con los años, ver lo que pasaba en mexico o colombia el gore pasó casi a segundo plano. Le habrán dicho internet es mas que las redes sociales? jaja. Se habrán metido a hueviar por thor  y similares navegadores solo por saber?

 

 

 

Editado por KaaBalleRo
Enlace a comentario
Compartir con otras webs

El 20-11-2020 a las 17:01, KaaBalleRo dijo:

na demanda alegando haber desarrollado estrés postraumático como consecuencia del visionado de imágenes de violencia extrema a diario

Con esto me explico tantas cosas.... lo que sueño en la noche y las ganas de sacarle la xaxu a alguien durante el día jajajjaa XD

Más en serio, lamentablemente creo que la democratización del acceso a internet ha sido nefasto para la discusión, la exposición y la crítica de temas (en buen chileno... hoy en día cualquier sdw con un telefono se cree genio y se lanza a opinar de cualquier cosa, en fin).

Saludos

Enlace a comentario
Compartir con otras webs

ACTUALIDAD.RT.COM

Si bien es cierto que las plataformas digitales son de carácter privado y tienen reglas propias, las opiniones plasmadas en ellas forman parte...

¿Regular las redes sociales? El dilema sobre quién debería controlar (o no) la conversación en la aldea global

Publicado: 13 feb 2021 01:53 GMT

Hace poco más de un mes, el mundo entero vio las sorprendentes imágenes de cómo seguidores de Donald Trump invadieron el Capitolio de los Estados Unidos. Esta momentánea insurrección fue apoyada por el todavía presidente a través de su cuenta en Twitter, a la vez que señalaba que Joe Biden se había robado las elecciones de 2020. Inmediatamente, la plataforma digital decidió suspender la cuenta de Trump "por infracciones graves y repetidas a nuestra política de integridad cívica".

La suspensión era un eco del 5 de noviembre, cuando las principales cadenas de televisión estadounidense cortaron la transmisión en vivo en el momento en que Donald Trump hablaba de un fraude electoral.

Estos cortes y suspensiones, tanto de las cadenas de televisión como de las redes sociales, provocaron una polémica y cuestionamientos sobre dónde trazar la línea que garantice tanto el respeto a un discurso civilizado y democrático, como el derecho a la libertad de expresión. Es muy importante saber si un discurso político puede o debe ser censurado por empresas privadas con intereses particulares, sobre todo en los tiempos del poscapitalismo, donde muchas veces las empresas tienen más influencia y poder que los Estados-nacionales.

Es muy importante saber si un discurso político puede o debe ser censurado por empresas privadas con intereses particulares, sobre todo en los tiempos del poscapitalismo, donde muchas veces las empresas tienen más influencia y poder que los Estados-nacionales.
 

También surgieron otras interrogantes, por ejemplo: si se puede censurar al presidente de los Estados Unidos, ¿qué puede esperar un simple ciudadano de cualquier parte del mundo? ¿Qué pesa más, el poder político o el económico? ¿El discurso público debe tener el visto bueno de los concesionarios privados? Las respuestas vinieron de muchas partes. Angela Merkel, la canciller alemana, consideró problemático el cierre por parte de varias redes sociales, entre ellas Twitter y Facebook, de las cuentas de Donald Trump, a pesar de las discrepancias políticas.

Merkel puso el dedo en la llaga cuando afirmó que la libre opinión es un derecho fundamental en el que se puede intervenir, pero solo dentro del marco definido por los órganos legisladores, no por decisión de la dirección corporativa de plataformas en las redes sociales. En Francia, tanto la derecha con Marine Le Pen o la izquierda con Jean-Luc Mélenchon criticaron el hecho que el debate político pudiera ser regulado en un futuro desde alguna oficina en Silicon Valley.

 

En México, López Obrador también manifestó su rechazo y preocupación ante las medidas de las redes sociales. Dijo López Obrador que la carta de Zuckerberg sobre la censura le parecía muy arrogante y cuestionó que no se podía permitir que una corporación, "el dueño de Facebook o de Twitter decidan a quién sí y a quién no darle la posibilidad de comunicarse. [...] No se vaya a estar creando un Gobierno mundial con el poder del control de las redes sociales, un poder mediático mundial; además, un tribunal de censura, como la Santa Inquisición, pero para el manejo de la opinión pública".

Parece que el presidente mexicano tenía en la mente no solo el 'affaire' Trump, sino también los casos de censura que han proliferado en Twitter, cuyo director en México, Hugo Rodríguez Nicolat, está vinculado con la derecha. Un nuevo capítulo se unió a la saga de censura de Twitter cuando un par de semanas después de las declaraciones de López Obrador, Twitter suspendió varias cuentas de perfiles de simpatizantes a su gobierno sin ninguna razón aparente. No es la primera vez que tanto Facebook como Twitter tienen un doble rasero con el discurso de ciertos usuarios ya que mientras censuran el de los simpatizantes de izquierda, suelen ignorar las expresiones violentas que vienen desde la derecha.

No es la primera vez que tanto Facebook como Twitter tienen un doble rasero con el discurso de ciertos usuarios ya que mientras censuran el de los simpatizantes de izquierda, suelen ignorar las expresiones violentas que vienen desde la derecha.

Hace apenas unos días, el Senador Ricardo Monreal presentó una iniciativa para regular las redes sociales que tengan más de un millón de usuarios, como Facebook, Twitter, Instagram o TikTok. La preocupación de Monreal es que un ente privado no puede limitar por sí mismo el derecho a la libertad de expresión o de acceso a la información. Una posición jurídica similar a la expresada por Merkel.

La iniciativa considera que sí puede haber una regulación del discurso, pero que esto debe ser responsabilidad del Instituto Federal de Telecomunicaciones (IFT), un organismo autónomo creado en 2013 y cuyo titular es propuesto por el presidente, pero es aprobado por el Senado. La propuesta apunta que algunas de las razones que justificarían la suspensión o eliminación de una cuenta en las redes sociales es que difundan noticias falsas, expresen mensajes de odio, afecten a los derechos de los menores de edad, revelen datos personales o provoquen algún delito.

También se prevén mecanismos de defensa para los usuarios para que, en casos controversiales, la última palabra la tengan especialistas en derechos humanos y en libertad de expresión y no que sea una decisión unilateral de los corporativos tecnológicos. En caso que las empresas cometan abusos o atenten contra la libertad de expresión, podrían ser multadas hasta por cantidades superiores a los 4 millones de dólares.

 

Cuando Immanuel Kant escribía sus textos filosóficos que discurrían en torno a la democracia global, la esfera pública o la moralidad de la política, lejos estaba de imaginar los nuevos elementos que habría en el siglo XXI en torno a estas temáticas debido a la modernización tecnológica.
 

Es claro que está polémica sobre las redes sociales y quién debe ser el regulador de las expresiones que se vierten en ella no va a zanjarse de forma inmediata, además de ser un asunto trasnacional. Si bien es cierto que las plataformas digitales son de carácter privado y tienen reglas propias, las opiniones plasmadas en ellas forman parte de la esfera pública y por tanto de los derechos a la libertad de expresión.

Cuando a fines del siglo XVIII, Immanuel Kant escribía sus textos filosóficos que discurrían en torno a la democracia global, la esfera pública o la moralidad de la política, lejos estaba de imaginar los nuevos elementos que habría en el siglo XXI en torno a estas temáticas debido a la modernización tecnológica. De cualquier forma, algunos de sus escritos podrán alumbrarnos en las discusiones futuras para salvaguardar el mínimo de derechos de los ciudadanos en la aldea global.

Javier Buenrostro, historiador por la Universidad Nacional Autónoma de México y McGill University

Javier Buenrostro, historiador por la Universidad Nacional Autónoma de México y McGill University

---°---

Y hay harta mas info.

A ver que pasará en el corto plazo.

Editado por KaaBalleRo
Enlace a comentario
Compartir con otras webs

No sabia que la Merkel se alineó con Trump por el tema de la censura.

Ahora bien amariconaditos los CEO de las rrss, aplicaron censura cuando cabeza'e pichí perdió las elecciones, antes se les aconcharon los meados, en fin.

Saludos

Enlace a comentario
Compartir con otras webs

FEE.ORG

With highly credible threats like issuing from Congress, plus the intimations emanating from...

Big Tech y libertad de expresión: cómo tanto la izquierda como la derecha están equivocadas

¿Quién es el verdadero censor aquí?

La guerra de las palabras por el discurso en línea ha sido feroz y aparentemente irresoluble.

Desde la izquierda, tenemos llamados a tomar medidas enérgicas contra la "desinformación" y una creciente presión sobre las empresas de Internet para que eliminen especialmente el contenido "peligroso" de COVID-19.

WWW.WASHINGTONPOST.COM

The Democratic National Committee says the platform should step up its transparency game.

El presidente Biden llegó a acusar a Facebook de “matar personas” al permitir “información errónea sobre vacunas” en su plataforma.

En respuesta a los episodios relacionados con COVID del podcast de Joe Rogan, el cirujano general de EE. UU. Vivek Murthy argumentó que las empresas de tecnología tienen un papel en la limitación de la propagación de información errónea sobre COVID.

La secretaria de prensa de la Casa Blanca, Jen Psaki, también insistió y calificó la nueva política de Spotify que introduce advertencias de contenido al comienzo de los podcasts de Joe Rogan como “un paso positivo, pero se puede hacer más”.

WWW.INDEPENDENT.CO.UK

Press secretary Jen Psaki said the streaming giant’s introduction of content advisory warnings was a...

Mientras tanto, desde la derecha, tenemos denuncias de la moderación de contenido de Big Tech como violaciones de la libertad de expresión. Varios republicanos incluso han pedido una contralegislación.

Por ejemplo, en 2020, el presidente Trump firmó una orden ejecutiva que diluyó la Sección 230 de la Ley de Decencia en las Comunicaciones, que otorga inmunidad de responsabilidad a las empresas de redes sociales por las acciones realizadas por los usuarios en sus plataformas.

FEE.ORG

While opponents of Section 230 think that its removal would force companies to host their content and...

Los legisladores republicanos de Texas y Florida aprobaron proyectos de ley que otorgan al gobierno control sobre las prácticas de moderación del contenido de las redes sociales. Ambos proyectos de ley han sido impugnados en los tribunales, pero esto no ha impedido que los legisladores republicanos de muchos otros estados presenten una legislación similar.

FEE.ORG

Over the years, Texas has earned a reputation as one of the more freedom-loving states in the nation...
FEE.ORG

It is clear that we are dealing with a culture in which the spirit of free speech is increasingly under threat...

El senador republicano Josh Hawley ha sugerido utilizar la ley antimonopolio para dividir las grandes empresas tecnológicas por la censura, mientras que otros de la derecha han pedido la nacionalización total de Twitter y Facebook.

WWW.WASHINGTONEXAMINER.COM

The federal government should move to break up Big Tech companies like Facebook in response to what...
WWW.REALCLEARPOLITICS.COM

Entonces, ¿quién está aquí, la izquierda o la derecha? En realidad, ambos están equivocados.

Podemos ver cómo si primero nos damos cuenta de que la mayoría, si no todos, los problemas de derechos de expresión en realidad se reducen a problemas de derechos de propiedad.

El dónde y el quién

En Atlas Shrugged de Ayn Rand , cuando Hank Rearden se niega a recibir a un periodista cuya perspectiva encuentra odiosa, se le implora que "tolere las opiniones de los demás y respete su derecho a la libertad de expresión". La concisa respuesta de Rearden destaca un punto importante:

"¿En mi casa?"

Como escribió el economista y filósofo político Murray Rothbard:

“Se supone que la libertad de expresión significa el derecho de todos a decir lo que quieran. Pero la pregunta olvidada es: ¿Dónde?

En otras palabras, ¿Cuál es el lugar? Y lo más importante: ¿Quién es el dueño de ese lugar?

Para desentrañar los problemas aparentemente espinosos de los derechos de expresión, “el camino correcto”, según Rothbard, “es encontrar e identificar los derechos de propiedad involucrados. Y este procedimiento resolverá los aparentes conflictos de derechos; porque los derechos de propiedad son siempre precisos y legalmente reconocibles.”

Rothbard usó este procedimiento para desacreditar un tema de conversación popular a favor de la censura: que los derechos de libertad de expresión, en palabras del juez Oliver Wendell Holmes, no “protegen a un hombre que grita falsamente fuego en un teatro y causa pánico”, porque tal discurso presentar un “peligro claro y presente” para la seguridad pública.

Como demostró Rothbard, la seguridad pública no requiere ninguna escapatoria para la censura.

Una vez más, la pregunta es: ¿quién es el dueño del lugar? Esa pregunta es clave, porque la verdadera propiedad significa tener el derecho de disponer de la propiedad de uno como quiera. El dueño del teatro puede admitir o prohibir a quien quiera en los términos y por cualquier motivo.

Por ejemplo, si proporciona su escenario a los oradores con la condición de que se abstengan de expresar ciertas opiniones, esa es su prerrogativa. Eso no sería una violación de los derechos de expresión de la presentadora, solo un ejercicio de sus propios derechos de propiedad.

Después de todo, si alguien irrumpiera en su apartamento y comenzara a pronunciar un discurso desde su balcón, ¿No se reservaría el derecho de echar a esa persona?

Una vez respondida la pregunta de propiedad, la siguiente pregunta es: ¿Qué contratos (ya sean explícitos o implícitos) ha hecho el propietario del teatro con otros con respecto al uso del teatro?

Por ejemplo, cuando alguien compra una entrada para el teatro, generalmente se entiende que el patrocinador está intercambiando dinero por una presentación y que ni el propietario ni el patrocinador interrumpirán esa presentación.

Gritar falsamente fuego en el teatro violaría esos términos. Si el disruptor es un patrocinador, el propietario del teatro tiene derecho a expulsar a esa persona. Si el perpetrador es el propietario, los patrocinadores han sido defraudados y tienen el derecho legalmente exigible de exigir la devolución de su dinero.

En las sociedades libres, estas son las normas que realmente mantienen la paz en los teatros, no los poderes de censura del gobierno.

Es el mantenimiento, no la violación, de los derechos lo que garantiza la seguridad pública.

¿El derecho inalienable a twittear?

Como podemos ver, el método de Rothbard de "encontrar los derechos de propiedad" para resolver los acertijos de los derechos de expresión es directo y poderoso. Ahora, apliquémoslo a los polémicos debates de política de “discurso en línea” de hoy.

Se supone que la libertad de expresión en línea, parafraseando a Rothbard, significa el derecho de todos a twittear lo que quieran. Pero la pregunta olvidada es: ¿Dónde?

"¿Dónde?" puede parecer una pregunta difícil cuando se trata de Internet, porque tendemos a pensar en el "ciberespacio" y "la nube" en términos tan etéreos.

Pero como dice un meme popular, la “nube” es solo la computadora de otra persona. Cada vez que alguien publica un tweet, un video de YouTube o cualquier otro contenido en línea, se aloja en una granja de servidores en algún lugar. Los servidores son los lugares, o "teatros", para el discurso en línea. Entonces la pregunta es: ¿Quién posee (o alquila) los servidores? La respuesta obvia es: las empresas tecnológicas.

Al igual que el propietario del cine, los propietarios de la plataforma en línea tienen derecho a proporcionar o denegar el acceso a quien quieran en cualquier término y por cualquier motivo. Si quieren prohibir a los usuarios publicar ciertas cosas, esa es su prerrogativa. Tal prohibición puede ser caprichosa, injusta e incluso condenable. Pero no sería una violación de los derechos de expresión del usuario de la plataforma, sino simplemente un ejercicio de los derechos de propiedad de los propietarios de la plataforma.

Por otro lado, una prohibición gubernamental de tales prohibiciones sería injusta. Requeriría legalmente que las empresas utilicen sus propios servidores para alojar contenido en contra de su voluntad. Eso sería una violación de los derechos de propiedad tanto como obligar al propietario de un teatro a proporcionar su escenario a ciertos oradores. En ambos casos, el gobierno estaría obligando a la gente a hacer plataforma y, por lo tanto, a participar en cierto discurso. Por lo tanto, muchas políticas propuestas de “anticensura” provenientes de la derecha tendrían el efecto orwelliano de imponer un discurso forzado en nombre de la “libertad de expresión”.

Censura por Bully Pulpit

Esto no quiere decir que la censura en línea sea bienvenida. Una de las principales fuentes de censura de las Big Tech es, de hecho, la violación de los derechos. Pero no se trata de que las grandes tecnológicas violen los derechos de los usuarios. Se trata de que el gobierno viole los derechos de las grandes tecnológicas.

Cuando a un gobierno no le gusta el contenido que sale de una industria de medios, no siempre tiene que promulgar leyes formales para censurarlo. A veces, todo lo que los políticos y los burócratas tienen que hacer es dejar muy claro su disgusto por el contenido y amenazar (ya sea implícita o explícitamente) con tomar medidas enérgicas contra la industria. En general, una amenaza es todo lo que se necesita para intimidar a las empresas privadas para que se censuren a sí mismas para prevenir o prepararse para la represión inminente.

En la década de 1920, por ejemplo, hubo un pánico moral por la indecencia en las películas y una intensa presión política sobre la industria cinematográfica, “con legisladores en 37 estados que introdujeron casi cien proyectos de ley de censura cinematográfica en 1921”, según Wikipedia.

“En 1922”, continúa el artículo, “cuando se enfrentaban a la perspectiva de tener que cumplir con cientos y potencialmente miles de leyes de decencia inconsistentes y fácilmente modificables para exhibir sus películas, los estudios eligieron la autorregulación como la opción preferible., reclutando al anciano presbiteriano Will H. Hays, director general de correos del expresidente Warren G. Harding y exjefe del Comité Nacional Republicano, para rehabilitar la imagen de Hollywood”.

Bajo el liderazgo de Hay, la industria cinematográfica finalmente adoptaría el Código de producción cinematográfica (conocido como el Código Hays), que imponía estrictas normas de contenido a las películas.

Luego, en la década de 1950, otro pánico moral, esta vez por las historietas y la delincuencia juvenil, culminó en las audiencias del Senado que llevaron a la industria de las historietas a autocensurarse creando su propia versión del “Código Hays”: La Autoridad del Código de Historietas.

Ahora el pánico moral se debe a la “desinformación”, pero el libro de jugadas de censura del gobierno es prácticamente el mismo. Este año reciente de censura de Big Tech especialmente atroz fue precedido por una serie de audiencias en el Congreso que presionaron a la industria para que se autorregulara, "o de lo contrario". Como escribió Glenn Greenwald en febrero de 2021:

Por tercera vez en menos de cinco meses, el Congreso de EE. UU. convocó a los directores ejecutivos de las empresas de redes sociales a comparecer ante ellos, con la intención explícita de presionarlos y coaccionarlos para que censuren más contenido de sus plataformas. El 25 de marzo, el Comité de Comercio y Energía de la Cámara de Representantes interrogará a Jack Dorsey de Twitter, Mark Zuckerberg de Facebook y Sundar Pichai de Google en una audiencia que el Comité anunció que se centrará “en la desinformación y la desinformación que plagan las plataformas en línea”.

El presidente del comité, el representante Frank Pallone, Jr. (D-NJ), y los dos presidentes de los subcomités que realizan las audiencias, Mike Doyle (D-PA) y Jan Schakowsky (D-IL), dijeron en una declaración conjunta que el ímpetu fue “falsedades sobre la vacuna COVID-19” y “afirmaciones desacreditadas de fraude electoral”. Argumentaron que “estas plataformas en línea han permitido que se propague información errónea, intensificando las crisis nacionales con consecuencias sombrías en la vida real para la salud y la seguridad públicas”, y agregaron: “Esta audiencia continuará el trabajo del Comité de responsabilizar a las plataformas en línea por el aumento creciente de desinformación y desinformación”.

 

GREENWALD.SUBSTACK.COM

In their zeal for control over online speech, House Democrats are getting closer and closer to the...

Con amenazas altamente creíbles como estas del Congreso, además de las insinuaciones que emanan del púlpito de matones bien llamado del presidente Biden, no debería sorprender que Big Tech esté "autocensurándose" exactamente el tipo de contenido que el gobierno quiere que hagan.

Puede que no involucre leyes u órdenes ejecutivas, pero tal “censura con ruido de sables” es censura, no obstante.

El último censor

Volviendo a la analogía del teatro, imagine si un jefe de la mafia desmonta un orador antimafia advirtiendo sombríamente al dueño del teatro: “Es un buen teatro el que tiene. Odiaría que le pasara algo…”

Incluso si el gángster no maltrató al dueño del teatro o blandió un arma, eso sería un crimen. La coerción por medio de una amenaza creíble, aunque sea claramente implícita, es una violación de los derechos.

Pero, de nuevo, no es el propietario de la plataforma el que viola los derechos del orador. Son los matones censores (ya sea en el gobierno o en la mafia) que violan los derechos del propietario de la plataforma.

Ahora, en el escenario anterior, ¿Cuál sería el mejor camino hacia la justicia? ¿Debería unirse la comunidad para defender al dueño del teatro contra el jefe de la mafia? ¿O deberían lanzar su propia amenaza contra el ya asediado dueño del teatro por “perseguir” al orador?

Muchas propuestas republicanas para “luchar contra la censura de las grandes tecnologías” equivalen a hacer lo último.

Ahora, esto no es para pintar a las grandes empresas tecnológicas como totalmente inocentes. Si hubieran tenido un liderazgo más valiente, habrían retrocedido en lugar de dejarse intimidar tan fácilmente. (Tal vez Elon Musk ayude a Twitter a crecer). Además, algunos dentro de las empresas ya están ideológicamente predispuestos a este tipo de censura de todos modos. Y algunas empresas de Big Tech incluso han presionado por la regulación, probablemente porque sería una carga para sus pequeños competidores más que para ellos.

FEE.ORG

Both Elon Musk and Jack Dorsey seem to recognize that something is rotten in Silicon Valley. And one of...

Pero estos problemas también empeorarían, no mejorarían, si el gobierno se involucrara aún más. De hecho, hacerlo inevitablemente resultará contraproducente para los conservadores y libertarios que presionan por ello. Cualquier poder adicional del gobierno para regular las plataformas en línea probablemente se modificará para censurar más a los críticos del gobierno, no menos.

Sí, Big Tech ha estado censurando a sus usuarios para manipular el discurso público y promover una agenda. Sí, es condenable. Pero (A) también está dentro de sus derechos de propiedad, y (B) lo están haciendo bajo coacción. Censuran porque son censurados.

Para luchar contra la censura en línea, debemos atacar sus raíces. Y esas raíces se encuentran, no en el Valle, sino en el Pantano.

Enlace a comentario
Compartir con otras webs

BIGTHINK.COM

The biggest problem with social media is not content. It is the way it distorts the reality of the public sphere.

El problema de las redes sociales no es el contenido sino su distorsión de la realidad

Las redes sociales distorsionan la realidad de la esfera pública.

CONCLUSIONES CLAVE

• Las redes sociales han dañado a la sociedad. Si le pide a la mayoría de las personas que identifiquen el problema, se centrarán en el contenido de las redes sociales.

• El verdadero problema es que las redes sociales distorsionan nuestra percepción de la esfera pública. Al dirigirnos a los usuarios con montones de contenido destinado a resonar específicamente con ellos, nos lleva a crear un modelo mental falso de la sociedad.

• Deberíamos impulsar la transparencia en la selección de objetivos. Las plataformas deben revelar claramente las características demográficas de la población expuesta cuando se dirigen a nosotros con cualquier contenido de distribución restringida.

Las redes sociales han dañado profundamente a la sociedad. Si hubiera escrito esas palabras hace una década, pocas personas habrían estado de acuerdo, pero ahora es una creencia ampliamente compartida. El año pasado, el Instituto Aspen encargó un estudio de seis meses que sacó conclusiones aún más oscuras. El informe concluyó que la información errónea y la desinformación propagada por las redes sociales crean “una reacción en cadena de daño”, actuando como un “multiplicador de fuerza para exacerbar nuestros peores problemas como sociedad”.

WWW.ASPENINSTITUTE.ORG

The Commission makes 15 recommendations for how government, private industry, and...

Si le pide a la mayoría de las personas que identifiquen el problema, se centrarán en el contenido de las redes sociales y le dirán que debemos tomar medidas enérgicas contra el material ofensivo y divisivo. Recitarán una lista de males de contenido que causan problemas sociales, incluidos el odio y el acoso, la información errónea y la desinformación, y el torrente de mentiras descaradas que entran en conflicto con los hechos científicos, médicos e históricos. Si son profesionales en el campo, podrían decirle que Estados Unidos necesita una reforma de la Sección 230.

 

WWW.BROOKINGS.EDU

Improving online content moderation will take a range of targeted measures from privacy legislation to...

Esos profesionales se refieren a la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996, que brinda inmunidad a las plataformas de redes sociales con respecto al contenido publicado por terceros. Algunos argumentan que la regulación protege la libertad de expresión en Internet y no debería debilitarse. Otros responden que la Sección 230 protege a las empresas de redes sociales de asumir la responsabilidad por el contenido dañino en sus plataformas, y debería eliminarse. 

Una distracción preocupante

Personalmente, me preocupa que centrarse únicamente en el contenido distraiga del problema central de las redes sociales.

Digo eso porque el contenido ofensivo y divisivo siempre ha existido. Las redes sociales reducen la creencia en la ciencia y la medicina, debilitan la confianza en las instituciones tradicionales, impulsan la aceptación de ridículas teorías de conspiración y dañan la fe en la democracia. Pero no importa cuánto retrocedas en la historia humana, encontrarás el mismo odio, la misma desinformación y la misma avalancha de mentiras deliberadas. El contenido horrible ha existido toda mi vida, pero no polarizó a la sociedad de la forma en que lo vemos hoy. Algo es diferente ahora, pero no es el contenido.

WWW.PEWRESEARCH.ORG

Americans have grown more divided on whether offensive content online is taken seriously enough and on...

Entonces, ¿cuál es el problema con las redes sociales? 

Habiendo pasado gran parte de mi carrera estudiando cómo los sistemas de software pueden amplificar las habilidades humanas y mejorar la inteligencia humana, me queda claro que las redes sociales hacen lo contrario. Distorsiona nuestra inteligencia colectiva y degrada nuestra capacidad para tomar buenas decisiones sobre nuestro futuro. Lo hace modificando nuestras percepciones de la esfera pública.

BIGTHINK.COM

By harnessing the decision-making power of bees, birds, and fish, humans can make better group decisions...

Construyendo modelos mentales

Los humanos somos máquinas de tomar decisiones. Pasamos nuestras vidas capturando y almacenando información sobre nuestro mundo y usando esa información para construir modelos mentales detallados. Empezamos desde el momento en que nacemos. Sentimos y exploramos nuestro entorno, y probamos y modelamos nuestras experiencias. Seguimos construyendo estos modelos hasta que podamos predecir con precisión cómo nuestras propias acciones y las acciones de los demás afectarán nuestro futuro.

Cuando era un bebé, seguramente dejó caer un juguete y lo vio caer al suelo. Haz eso muchas veces con el mismo resultado y tu cerebro generaliza el fenómeno. Construyes un modelo mental de la gravedad. Experimente su primer globo de helio, que desafía la gravedad, y su cerebro tiene que adaptarse, teniendo en cuenta los objetos raros que se comportan de diferentes maneras. Su modelo mental se vuelve gradualmente más sofisticado, prediciendo que la mayoría de las cosas se derrumbarán y algunas no. 

Así es como llegamos a comprender las complejidades de nuestro mundo y a tomar buenas decisiones a lo largo de nuestras vidas. Es un proceso que se remonta a cientos de millones de años y es compartido por innumerables especies, desde aves y peces hasta primates como nosotros. Lo llamamos inteligencia.

Para que la inteligencia funcione correctamente, los humanos necesitamos realizar tres pasos básicos. Primero, percibimos nuestro mundo. A continuación, generalizamos nuestras experiencias. Finalmente, construimos modelos mentales para ayudarnos a navegar nuestro futuro.

El problema es que las plataformas de redes sociales se han insertado en este proceso crítico, cambiando lo que significa percibir nuestro mundo y generalizar nuestras experiencias. Esta distorsión nos lleva a cada uno de nosotros a cometer errores significativos cuando construimos modelos mentales.  

Las redes sociales y la esfera pública

No, no estoy hablando de cómo modelamos el mundo físico de la gravedad. Estoy hablando de cómo modelamos el mundo social de las personas, desde nuestra comunidad local hasta nuestra sociedad global. Los politólogos se refieren a esto como la esfera pública y la definen como el escenario en el que las personas se reúnen para compartir temas de importancia, intercambiando opiniones a través de la discusión y la deliberación. Es dentro de la esfera pública que la sociedad desarrolla una comprensión de nosotros mismos: nuestra sabiduría colectiva.

La esfera pública, por supuesto, no representa una visión singular. Abarca todo el espectro de puntos de vista, abarcando una gama de perspectivas culturales y políticas desde la corriente principal hasta la periferia. Ese espectro representa nuestra realidad común. Encarna nuestro sentido colectivo de qué puntos de vista y valores tiene nuestra sociedad en cada nivel, desde el hiperlocal hasta el más distante. Al formar un modelo preciso de sociedad, nosotros, las personas, podemos tomar buenas decisiones sobre nuestro futuro.

Las redes sociales han distorsionado la esfera pública más allá del reconocimiento. Cada uno de nosotros ahora tiene un modelo mental profundamente defectuoso de nuestras propias comunidades. Esto daña nuestra sabiduría colectiva, pero no es el contenido en sí mismo el más responsable. En cambio, debemos culpar a la maquinaria de distribución.

Un intermediario peligroso

Los humanos evolucionamos para confiar en que nuestras experiencias diarias construyen una representación real de nuestro mundo. Si la mayoría de los objetos que encontramos caen al suelo, generalizamos y construimos un modelo mental de la gravedad. Cuando algunos objetos flotan hacia el cielo, los modelamos como excepciones: eventos raros que representan una pequeña porción del mundo. 

Pero las redes sociales se han insertado entre cada uno de nosotros y nuestras experiencias diarias, moderando y manipulando la información que recibimos sobre nuestra sociedad. Las plataformas hacen esto al perfilarnos a lo largo del tiempo y usar esos perfiles para dirigirnos con contenido selectivo: noticias, anuncios y publicaciones seleccionados a medida que no representan a nuestra sociedad en su conjunto. Y esto sucede sin que nos demos cuenta del todo.

Como resultado, todos sentimos que estamos experimentando la esfera pública todos los días, cuando en realidad cada uno de nosotros está atrapado en una representación distorsionada del mundo. Esto nos hace generalizar incorrectamente nuestro mundo y construir modelos mentales defectuosos de nuestra propia sociedad. Por lo tanto, las redes sociales degradan nuestra inteligencia colectiva y dañan nuestra capacidad para tomar buenas decisiones sobre nuestro futuro.

Un mundo lleno de helio

Peor aún, la esfera pública distorsionada que habitamos no es aleatoria. Está personalizado para dirigirnos a nosotros con la información que probablemente resonará. Esto nos da a la mayoría de nosotros una impresión exagerada de la prevalencia de nuestros propios puntos de vista y valores, y un sentido subdesarrollado de la prevalencia de puntos de vista y valores en conflicto. Esta dinámica amplifica las perspectivas extremas e impulsa la polarización, pero peor aún, destruye nuestra sabiduría colectiva como sociedad. 

Por supuesto, no estoy diciendo que todos debamos tener los mismos puntos de vista y valores. Estoy diciendo que todos debemos estar expuestos a una representación real de cómo se distribuyen las opiniones y los valores en nuestra sociedad. Eso es sabiduría colectiva. Las redes sociales han hecho añicos la esfera pública en un mosaico de cámaras de eco cada vez más pequeñas, al tiempo que oscurecen el hecho de que estos silos existen. 

Como resultado, si tengo una perspectiva marginal sobre un tema en particular, es posible que no me dé cuenta de que la gran mayoría de las personas consideran que mi punto de vista es extremo, ofensivo o simplemente absurdo. Ahora construiré un modelo mental defectuoso de mi mundo. Evaluaré incorrectamente cómo encajan mis puntos de vista en la esfera pública. 

Esto sería como un científico malvado que cría a un grupo de bebés en un mundo retorcido donde la mayoría de los objetos que encuentran están llenos de helio y solo unos pocos caen al suelo. Esos bebés generalizarían su experiencia curada, porque eso es para lo que están diseñados nuestros cerebros. Cada uno de ellos desarrollaría un modelo de realidad profundamente defectuoso.

¿Cómo podemos arreglar las redes sociales? 

Esto me lleva de vuelta a mi afirmación central: que el mayor problema con las redes sociales no es el contenido en sí, sino la maquinaria de distribución dirigida. Es esta maquinaria la que distorsiona tanto nuestra percepción de nuestro mundo, destruyendo nuestra capacidad de generalizar y construir modelos mentales precisos. Y sin buenos modelos mentales, no podemos tomar decisiones inteligentes sobre nuestro futuro.  

Ahora vivimos en un mundo donde la esfera pública no es una representación precisa de nuestra sociedad, sino que está manipulada por plataformas que mueven los hilos para obtener beneficios financieros. Para solucionar esto, tenemos dos opciones: podemos cortar las ataduras al prohibir las prácticas de creación de perfiles y objetivos, o podemos hacer que las ataduras sean visibles para que al menos sepamos cuándo estamos experimentando visiones distorsionadas de nuestro mundo.

Una prohibición total de la elaboración de perfiles y la orientación ayudaría a restaurar la esfera pública a una representación mucho menos distorsionada de la sociedad. Desafortunadamente, la economía de las redes sociales se basa en la elaboración de perfiles y la orientación. Estas prácticas forman el núcleo de los modelos publicitarios de la mayoría de las plataformas. Como tal, las principales corporaciones de tecnología lucharían enérgicamente contra tales restricciones. 

Por otro lado, podemos hacer que las cadenas sean visibles sin alterar los modelos comerciales, pero debemos hacerlo de manera agresiva. Por ejemplo, podríamos exigir que cada pieza de contenido en las redes sociales esté claramente etiquetada de manera que nos permita comprender cómo encaja en la esfera pública. ¿Se comparte entre grandes segmentos de la población? ¿O es contenido marginal dirigido y compartido entre grupos muy reducidos? Proporcionar dicho contexto ayudaría a restaurar nuestra comprensión de la esfera pública.

Construyendo mejores mecanismos

Actualmente, plataformas como Facebook y Twitter permiten a los usuarios ver información de orientación primitiva sobre anuncios. Para encontrar esta información, los usuarios deben hacer clic varias veces, lo que rara vez harán. En Twitter, debe hacer clic en un pequeño botón "más" y luego en un botón llamado "¿por qué este anuncio?" En ese momento, obtiene detalles insatisfactorios: “Es posible que esté viendo este anuncio porque la empresa X quiere llegar a las personas que se encuentran aquí: Estados Unidos. Twitter también personaliza los anuncios utilizando la información recibida de los socios y las visitas a su aplicación y sitio web”.  

¿Ayuda esto a los usuarios a comprender cómo encaja el anuncio dirigido en la esfera pública? No lo creo. Para empeorar las cosas, las plataformas de redes sociales no brindan información contextual sobre el contenido que llega a través de algoritmos compartidos o como parte de una fuente de noticias específica. Y para muchos usuarios, el contenido que reciben a través de las noticias y el intercambio es el más impactante. 

Para resolver esto, debemos impulsar la transparencia en la orientación. Esto significa exigir que las plataformas divulguen claramente las características demográficas de la población expuesta cuando se dirijan a nosotros con cualquier contenido que no se distribuya ampliamente. De esa manera, si soy objetivo de noticias, anuncios, mensajes u otro contenido dirigido a una pequeña porción de la población, al menos puedo evaluar que estoy en una cámara de eco artificial creada al compartir algoritmos, algoritmos de orientación y otras prácticas en las redes sociales. 

Esta información podría mostrarse en un formato visual simple que resalte qué tan grande o estrecha es la porción del público al que se dirige cada pieza de contenido. Los usuarios no deberían tener que hacer clic para obtener esta información. Debería aparecer cada vez que interactúen con el contenido de alguna manera, incluso si simplemente hacen una pausa para mirarlo o permiten que el cursor se desplace. Podría ser tan simple como un gráfico circular que muestra qué porcentaje del público en general podría recibir el contenido a través de los mecanismos que lo implementan.  

Si una parte del contenido que recibo se muestra a una porción del 2 por ciento del público en general, eso debería darme un modelo mental diferente de cómo encaja en la sociedad en comparación con el contenido que se comparte entre una porción del 40 por ciento. Y si un usuario hace clic en el gráfico que revela la orientación del 2 por ciento, debe obtener datos demográficos detallados de cómo se define ese 2 por ciento. El objetivo no es suprimir el contenido. Queremos hacer que la maquinaria de distribución sea lo más visible posible, permitiéndonos a cada uno de nosotros apreciar cuándo estamos siendo encerrados en una cámara de eco estrecha y cuándo no.  

No me volveré a engañar

Brindar transparencia en la focalización nos permite a cada uno de nosotros construir un modelo mental más preciso de nuestra sociedad. Como usuario, todavía podría resonar con el contenido marginal sobre ciertos temas, pero tendría una perspectiva más precisa de cómo encaja en la esfera pública. Y no me engañaré pensando que la idea que me vino a la cabeza anoche sobre los lagartos que dirigen mi cadena de comida rápida favorita es ampliamente aceptada y compartida entre el público en general. No lo es.

En otras palabras, las plataformas de redes sociales aún podrían enviarme muchos globos de helio en lugar de objetos sólidos. Y podría apreciar tener muchos de esos globos. Pero con transparencia en la orientación, no me dejaré engañar pensando que el mundo entero está lleno de helio. O gente lagarto.

Enlace a comentario
Compartir con otras webs



  • Visualizado recientemente   0 usuarios

    • No hay usuarios registrado para ver esta página.
×
×
  • Crear nuevo...