Los líderes comunitarios se disparan contra los tecnócratas

ComunitarismoYouTube, Amitai Etzioni
¡Por favor comparta esta historia!
Amitai Etzioni es el padre académico moderno del comunitarismo, que eleva el "bien común" por encima de los derechos individuales. Se encuentra diametralmente opuesto al liberalismo y al libertarismo.

Etzioni no comprende que la tecnocracia también predica el mismo bien común, excepto que son los tecnócratas quienes deciden qué es bueno para la mayoría de la sociedad. El comunitarismo fue utilizado por primera vez en 1841 por John Goodwin Barmby, quien dirigió el movimiento cartista; se refería a los socialistas utópicos y aquellos que estaban experimentando con estilos de vida comunales. El comunitarismo también se usa para describir sociedades autoritarias como Malasia, Singapur y China.

Así como el comunismo ha sido un enemigo natural de la tecnocracia desde la década de 1930, el comunitarismo también se opone a la tecnocracia por la misma razón, es decir, ¿cómo se determinará el bien común y por quién? ⁃ Editor TN

El discurso es demasiado importante para que los tecnócratas lo controlen. Los funcionarios electos y los tribunales deberían ser los principales controladores, y deberían controlar solo cuando haya un peligro claro y presente para nuestra seguridad y nuestro proceso democrático.

Las voces fuertes de ambos extremos del espectro político han pedido a las empresas tecnológicas que sean más responsables, que eliminen de sus plataformas cualquier material que ofenda las costumbres de la comunidad y que manipule las elecciones. En realidad, tal como lo veo, en los últimos años, las corporaciones tecnológicas han bloqueado o eliminado cantidades asombrosas de mensajes y anuncios, incluido material que, si se elimina de la publicación fuera de línea, llevaría incluso a los defensores moderados de la libertad de expresión a ponerse balísticos. Además, cada corporación tecnológica está haciendo sus propias reglas sobre qué discurso permite y qué bloquea. Estos no están sujetos a revisión pública y, a menudo, son imposibles de resolver. Proteger el habla, y descubrir las raras ocasiones en que se debe negar la voz a las personas, se debe censurar, es demasiado importante para dejarlo en manos del CEO de Facebook, Mark Zuckerberg, y sus colegas magnates tecnológicos.

Algunos sostienen que debido a que las corporaciones tecnológicas son empresas privadas, no pueden censurar, solo el gobierno puede hacerlo. Algunos que tienen una mentalidad legal sostienen que la Primera Enmienda establece que el Congreso no promulgará ninguna ley que restrinja la libertad de prensa, no que las compañías privadas no puedan controlar los mensajes. Además, dadas las diferencias en las políticas entre las diversas compañías, si una cierra una puerta, es probable que haya otra que deje esa puerta abierta. Solo el gobierno puede impedir el acceso a todos los medios y, por lo tanto, verdaderamente censurar.

Sin embargo, hay que tener en cuenta que estas empresas controlan una gran cantidad del espacio de comunicación y que ejercen control sobre muchos temas. Por lo tanto, si restringen el acceso de alguien, el discurso de esa persona es muy limitado. Cualquiera que haya negado una voz de Google, Facebook y Twitter tendrá dificultades para llegar a las masas a través de las redes sociales.

Durante muchos años, las compañías tecnológicas evitaron la responsabilidad por el contenido que las personas publicaron en sus sitios de redes sociales, alegando que son meramente plataformas, no editores. Sin embargo, cada vez más líderes públicos han comenzado a argumentar que las compañías tecnológicas deberían controlar el contenido. Estas opiniones alcanzaron un punto álgido tras las revelaciones sobre la intromisión de Rusia en las elecciones estadounidenses de 2016 y su impulso para sembrar la discordia social a través de campañas coordinadas de desinformación en las redes sociales. Las compañías tecnológicas respondieron contratando a decenas de miles de moderadores para revisar publicaciones y eliminar material que consideran demasiado violento, lascivo, odioso o engañoso. Por lo general, los moderadores tienen tan solo diez segundos para revisar una publicación. Difícilmente pueden tomar mucho más tiempo, dado el número astronómico de publicaciones que deben revisarse. No es de extrañar que su juicio sea a menudo altamente arbitrario y siempre apresurado. Las compañías también utilizan cada vez más algoritmos de inteligencia artificial para negar el habla. La Inteligencia Artificial parece incorporar los prejuicios implícitos en los medios de comunicación, por ejemplo, favoreciendo a los hombres sobre las mujeres para obtener acceso a anuncios sobre trabajos bien remunerados.

Mientras realizaba una investigación sobre el mal uso de las plataformas de redes sociales para una revista de la Academia Nacional de Ciencias, me sorprendió la gran cantidad y la amplia gama de motivos que las empresas tecnológicas pueden usar para justificar la eliminación de publicaciones en las redes sociales. Por ejemplo, en tres meses, entre julio y septiembre de 2019, YouTube eliminó más de 8.75 millones de videos. De los videos eliminados, más de 4.75 millones fueron eliminados por ser spam o engañosos. Bueno, según este estándar, bloquearía una red de noticias y sus seguidores probablemente bloquearían la red de noticias que estoy siguiendo. Se eliminaron más de 1.35 millones de videos por contenido violento o gráfico y más de 1.25 millones por desnudos o contenido sexual, sin embargo, lo que se considera gráfico y sexual varía mucho de una comunidad a otra. Por lo tanto, los tribunales en general han permitido que dicho discurso se realice fuera de línea. ¿Por qué las compañías tecnológicas son más piadosas?

Sin embargo, hay que tener en cuenta que estas empresas controlan una gran cantidad del espacio de comunicación y que ejercen control sobre muchos temas. Por lo tanto, si restringen el acceso de alguien, el discurso de esa persona es muy limitado. Cualquiera que haya negado una voz de Google, Facebook y Twitter tendrá dificultades para llegar a las masas a través de las redes sociales.

Durante muchos años, las compañías tecnológicas evitaron la responsabilidad por el contenido que las personas publicaron en sus sitios de redes sociales, alegando que son meramente plataformas, no editores. Sin embargo, cada vez más líderes públicos han comenzado a argumentar que las compañías tecnológicas deberían controlar el contenido. Estas opiniones alcanzaron un punto álgido tras las revelaciones sobre la intromisión de Rusia en las elecciones estadounidenses de 2016 y su impulso para sembrar la discordia social a través de campañas coordinadas de desinformación en las redes sociales. Las compañías tecnológicas respondieron contratando a decenas de miles de moderadores para revisar publicaciones y eliminar material que consideran demasiado violento, lascivo, odioso o engañoso. Por lo general, los moderadores tienen tan solo diez segundos para revisar una publicación. Difícilmente pueden tomar mucho más tiempo, dado el número astronómico de publicaciones que deben revisarse. No es de extrañar que su juicio sea a menudo altamente arbitrario y siempre apresurado. Las compañías también utilizan cada vez más algoritmos de inteligencia artificial para negar el habla. La Inteligencia Artificial parece incorporar los prejuicios implícitos en los medios de comunicación, por ejemplo, favoreciendo a los hombres sobre las mujeres para obtener acceso a anuncios sobre trabajos bien remunerados.

Mientras realizaba una investigación sobre el mal uso de las plataformas de redes sociales para una revista de la Academia Nacional de Ciencias, me sorprendió la gran cantidad y la amplia gama de motivos que las empresas tecnológicas pueden usar para justificar la eliminación de publicaciones en las redes sociales. Por ejemplo, en tres meses, entre julio y septiembre de 2019, YouTube eliminó más de 8.75 millones de videos. De los videos eliminados, más de 4.75 millones fueron eliminados por ser spam o engañosos. Bueno, según este estándar, bloquearía una red de noticias y sus seguidores probablemente bloquearían la red de noticias que estoy siguiendo. Se eliminaron más de 1.35 millones de videos por contenido violento o gráfico y más de 1.25 millones por desnudos o contenido sexual, sin embargo, lo que se considera gráfico y sexual varía mucho de una comunidad a otra. Por lo tanto, los tribunales en general han permitido que dicho discurso se realice fuera de línea. ¿Por qué las compañías tecnológicas son más piadosas?

Lea la historia completa aquí ...

Suscríbete
Notificar de
invitado

0 Comentarios
Comentarios en línea
Ver todos los comentarios