El 'largoplacismo' y el 'altruismo efectivo' son las nuevas caras del transhumanismo

¡Por favor comparta esta historia!
“Los lunáticos realmente están dirigiendo el manicomio, y si te atreves a denunciar su locura, harán que te pongan una camisa de fuerza y ​​te inyecten tranquilizantes. Ya es hora de robar las llaves y escapar de este manicomio. Y si queda algo de espíritu en nosotros, dejaremos el asilo ardiendo detrás de nosotros. – Joe Allen ⁃ Editor de TN

Los futuristas no solo predicen los próximos eventos. También buscan moldearlos. Cada predicción está enmarcada para provocar un cambio en una dirección determinada, ya sea mediante promesas audaces o profecías del fin del mundo.

Por ejemplo, cuando escucha advertencias de que la inteligencia artificial podría burlar a la humanidad y destruirnos a todos, o más precisamente, si cree en esas afirmaciones, no hay más remedio que repensar su estrategia a largo plazo. Tal vez destruyas las máquinas de forma preventiva. O tal vez le enseñes a la IA a ser amable y luego introduzcas un trodo de Neuralink en tu cerebro para seguir el ritmo de la conversación.

En la medida en que nuestras decisiones inmediatas estén guiadas por estos futuros imaginados, todos somos herramientas involuntarias del futurista.

Después de la espectacular caída del intercambio de criptomonedas FTX, las filosofías gemelas de "altruismo efectivo" y "largo plazo" han invadido la conciencia pública. Como una infestación de termitas eusociales, una vez que notas al primer altruista efectivo arrastrándose por la casa, comienzas a verlos en todas partes.

El altruismo efectivo es un movimiento académico intelectual centrado en ayudar a un gran número de personas, o quizás a todas las entidades conscientes, a escala global. Una propuesta popular es acumular la mayor cantidad de dinero posible y luego donarlo a la caridad. Estas estrategias a menudo se basan en el tipo de cálculos elaborados y marcos éticos intrincados que solo los "expertos" podrían inventar.

El largoplacismo toma esta bola bienhechora y corre con ella hacia un futuro lejano. Sus defensores imaginan cómo nuestras acciones altruistas de hoy podrían beneficiar a todas las mentes conscientes que finalmente llegarán a existir. En teoría, eso incluye incontables trillones de humanos que viven en el espacio, así como cargas mentales y bots de IA que viven en vastas simulaciones digitales.

Puede que tengas problemas hoy. Pero si vamos a tomarnos en serio el utilitarismo, la prioridad moral más alta pertenece a todos los invasores del espacio cyborg que aún están por llegar. Lo siento, pero al final del día, hay más de ellos que tú.

En la práctica, estas filosofías parecen involucrar una gran cantidad de señales de virtud. y gastar el dinero de otras personas. El gordo y desaliñado líder de FTX Sam Bankman-Fried proyectado estas ideologías desinteresadas como una cortina de humo para su cripto esquema Ponzi, donde defraudado inversores de miles de millones. Bankman-Fried aseguró a sus clientes, y al mundo, que usaría sus gigantescas ganancias para ayudar a salvar a la humanidad de la próxima pandemia o la guerra nuclear, o ambas.

En lugar de eso, gastó todo el dinero en mansiones y otros lujos, perdió su tiempo en videojuegos, destrozó su cerebro con exóticas drogas para mejorar la cognición y aparentemente fue el anfitrión. orgias raras del repulsivo nuevo rico. En el lado positivo, su hilarante escándalo arrojó luz sobre los movimientos intelectuales que lo engendraron, desenmascarando la arrogancia delirante que sustenta el altruismo efectivo, el largoplacismo y la mayoría de las teorías de élite.

Como mencioné, ambas escuelas filosóficas son utilitario. Los defensores buscan maximizar la felicidad para la mayor cantidad de personas, o en versiones más universales, la mayor cantidad de seres sintientes, incluidos todos los animales y futuras mentes digitales. Sin embargo, de forma similar a la antigua creencia de que los dioses necesitan sangre para hacer crecer las cosechas, admiten que se deben hacer sacrificios. como el New York Times escritor walter duranty dicho de la colectivización comunista en 1933, "Para decirlo brutalmente, no se puede hacer una tortilla sin romper los huevos".

Como ejemplo hipotético, si quisiera detener una pandemia mortal, entonces, por el bien de toda la humanidad, tendría que encerrar a los que se niegan a vacunarse en sus hogares. Si seguían escabulléndose, enviarías policías para darles una paliza o tal vez encerrarlos en campos de cuarentena. Cuando se trata de golpes forzados, mátalos a todos con amabilidad.

De mayor interés, ambas filosofías también se superponen y se derivan del transhumanismo, ese culto tecnológico infame cuyos miembros creen que los humanos serán como dioses al fusionarse con las máquinas. La Universidad de Oxford fue el crisol del altruismo efectivo y el largoplacismo, donde el filósofo bien pagado y transhumanista declarado Nick Bostrom tuvo un impacto decisivo en el movimiento.

Bostrom es mejor conocido por advertir que la inteligencia artificial es un "riesgo existencial" para la humanidad en su libro de 2014. Superinteligencia: Caminos, Peligros, Estrategias. Sus ideas eran enormemente influyente sobre el transhumanista más rico del mundo, Elon Musk, quien sugiere que implantemos interfaces cerebro-computadora para seguir el ritmo de la inteligencia artificial.

Bostrom también es miembro fundador del Future of Humanity Institute, ubicado en Oxford, al que Musk donó £ 1 millón. Los futuristas siempre pueden usar más dinero para salvarnos del futuro que predicen.

Esta transición de élite del tecnooptimismo al altruismo corporativo encubierto es evidente en las agendas globales establecidas en el Foro Económico Mundial. En 2016, el presidente del FEM, Klaus Schwab, publicó La cuarta revolución industrialen el que anunció la “fusión de los mundos físico, digital y biológico”.

Cuatro años más tarde, su abominable tratado El gran reinicio identificó la pandemia de COVID-19 como una “oportunidad sin precedentes” para acelerar esta revolución tecnológica. Naturalmente, la gente normal de todo el planeta estaba furiosa. Entonces, en diciembre de 2021, Schwab aseguró a todos las buenas intenciones de las élites con un volumen de seguimiento titulado la gran narrativa.

“Esta narrativa emergente es más útil porque muestra que esta capacidad de cuidar”, escribieron él y su coautor, “puede aprovecharse para el bien social”.

Para decirlo de otra manera, su corazón sangrante puede usarse como una batería para alimentar la Máquina.

Largoplacismo y altruismo efectivo apareció por primera vez en mi radar en agosto pasado, cuando Elon Musk citó y tuiteó un complemento para el libro de William MacAskill que estaba por publicarse Lo que le debemos al futuro“Defiende el largoplacismo”, escribió el filósofo de Oxford, “la visión de que afectar positivamente el futuro a largo plazo es una prioridad moral clave de nuestro tiempo”. Por cierto, MacAskill también fue un mentor a Bankman-Fried, y asesoró a FTX en el camino místico del altruismo efectivo.

“Vale la pena leerlo”, respondió Musk, rompiendo con sus vagas autodescripciones habituales. “Esta es una coincidencia cercana para mi filosofía”.

En un instante, la última entrevista TED de Musk tuvo mucho más sentido. “SpaceX, Tesla, Neuralink y Boring Company son filantropía”, insistió.

Tesla está acelerando la energía sostenible. Esto es amor, filantropía. SpaceX está tratando de garantizar la supervivencia a largo plazo de la humanidad con una especie de múltiples planetas. Eso es amor a la humanidad. Ya sabes, Neuralink está tratando de ayudar a resolver las lesiones cerebrales y el riesgo existencial con IA. Amor de la humanidad.

¿Por qué compró Twitter? “Creo que el riesgo de civilización disminuye cuanto más podemos aumentar la confianza en Twitter como plataforma pública”, respondió.

Poco después del tuit de “filosofía personal” de Musk, los algoritmos de Twitter me presentaron el trabajo de Émile Torres. Esta persona puede estar en el extremo izquierdo del espectro político, pero admitiré que Torres es un excelente escritor. Los artículos del filósofo en Aeon Salón exponer las ideas básicas del largoplacismo, que Torres llama “el credo secular más peligroso del mundo”. Como ex longevo que abandonó el movimiento disgustado, Torres lo sabría.

Este loco tren futurista parte de una estación tranquila donde todos trabajan para aumentar la felicidad general y disminuir el sufrimiento, siempre con una visión a largo plazo. Sin embargo, cuanto más avanzamos, rugiendo más allá de las armas biológicas genocidas y los terminadores robóticos, junto con las soluciones propuestas para estos eventos de nivel de extinción, la búsqueda del bienestar se descarrila.

“El largoplacismo podría ser una de las ideologías más influyentes de las que pocas personas fuera de las universidades de élite y Silicon Valley han oído hablar”, escribió Torres en Aeon. “El hecho crucial que los a largo plazo pasan por alto es que es mucho más probable que la tecnología provoque nuestra extinción antes de este evento futuro distante que nos salve de él."

Torres es tan acertado aquí que me inclino a ignorar esos molestos pronombres "ellos/ellos" en la biografía de Twitter. Tales disputas cotidianas parecen insignificantes frente a una tecnodistopía disfuncional.

https://twitter.com/xriskology/status/1592115774302584834?s=20&t=JX0g8yElcBj_x7rCizt0pw

Como hemos aprendido del reciente pánico pandémico, la “cura” es a menudo peor que la enfermedad. Es la diferencia entre toser en la manga y usar tres máscaras para ir a buscar tu décimo refuerzo. El largoplacismo y el altruismo efectivo son encarnaciones cómicas de tales extremos. Comienzan con unos cuantos mosquiteros para los niños hambrientos de África y terminan con un espectáculo que todo lo ve. polvo inteligente reunidos debajo de tu cama.

Para ilustrar, Nick Bostrom ha argumentó para un sistema de vigilancia global ineludible, que involucra a cada ciudadano usando "etiquetas de libertad" que se alimentan de "estaciones patriotas" para que los gobiernos puedan identificar amenazas potenciales de nivel de extinción, como superinteligencia artificial ilícita o enjambres de nanobots grises pegajosos hechos en sótanos. Y recién estaba comenzando.

In superinteligencia, Bostrom presentó un curioso plan a largo plazo para elevar el coeficiente intelectual promedio y reducir la estupidez humana: fertilizar un ejército de fetos in vitro, analizar sus códigos genéticos, seleccionar los especímenes supremos, implantarlos en mujeres reales o gestarlos en masa en úteros artificiales, y luego arroje los rechazos en contenedores de desechos biológicos. Nunca parece preocuparse por engendrar una camada de sociópatas sin emociones, pero tal vez ese sea el punto.

¿Quieres tortillas? Mejor ponte a romper unos huevos.

Ya vemos programas de eugenesia similares marcha en el movimiento pronatalista obsesionado con la inteligencia. Sam Altman, el magnate de la tecnología gay que cofundó OpenAI con Elon Musk, ha invertido en la empresa Genomic Predictor, que filtra los cigotos no deseados, y en otra llamada Conception. Según un fascinante Business Insider expuesto, la última startup "planea cultivar óvulos humanos viables a partir de células madre y podría permitir que dos machos biológicos se reproduzcan".

De manera similar, Vitalik Buterin (cofundador de la criptomoneda Ethereum, un notable impulsor de FTX y otro nodo más en el movimiento de altruismo efectivo) sugerido recientemente que los bebés deben gestarse en biobolsas de plástico para salvaguardar los derechos de las mujeres:

Las disparidades en el éxito económico entre hombres y mujeres son mucho mayores una vez que el matrimonio y los hijos entran en escena. Los úteros sintéticos eliminarían la alta carga del embarazo, reduciendo significativamente la desigualdad.

En una línea de tiempo lo suficientemente larga, y con suficiente capital para mirarse el ombligo ininterrumpidamente, los a largo plazo y los altruistas efectivos podrían inventar el plan suicida definitivo para eliminar el dolor. Ya tienen un comienzo de carrera decente.

Hace unos años, William MacAskill argumentó “Para terminar de verdad con el sufrimiento animal, la opción más ética es matar a los depredadores salvajes (especialmente al león Cecil).” Sonando como un budista suburbano que tiene un mal viaje con ácido, el flacucho vegetariano elaboró:

Al matar a los depredadores, podemos salvar las vidas de muchos animales de presa como ñus, cebras y búfalos en el área local que, de lo contrario, morirían. … Y no hay razón para considerar que la vida de los depredadores como los leones es más importante que la vida de la presa.

No es difícil imaginar que esta campaña de exterminio se extienda a los machos humanos hiperagresivos. O bien, con los avances en los gametos derivados de células madre, podría acabar con los machos por completo. Sin embargo, mientras estemos filosofando, ¿por qué no aplicar este estándar a los filósofos autistas? Si alguna vez se apoderaran del mundo, digamos, a través de una infraestructura tecnológica global, causarían mucho más sufrimiento que cualquier depredador salvaje.

Gran parte del pensamiento de MacAskill y el altruismo efectivo en su conjunto¿Qué heredado del filósofo Peter Singer. A principios de los 90, Singer se hizo famosa argumentó que los bebés, especialmente los discapacitados, son presa fácil para el aborto hasta treinta días después del nacimiento. La premisa era que esto reduciría el sufrimiento tanto de los padres sobrecargados como de sus hijos potencialmente retrasados. Es sólo una cuestión de cálculo moral.

Desechando todo respeto por lo sagrado o lo profano, la filosofía de Singer extrae todo lo que vale de la bondad humana, por agria que sea esa leche. Si no estamos matando bebés deformes y ancianos inútiles, por su propio bien, deberíamos estar liberando a los animales de granja.

“El único punto de parada justificable para la expansión del altruismo es el punto en el que todos aquellos cuyo bienestar puede verse afectado por nuestras acciones se incluyen dentro del círculo del altruismo”, escribió en su libro de 1981. El círculo en expansión“Esto significa que se deben incluir todos los seres con capacidad de sentir placer o dolor”.

Hoy, mientras la Cuarta Revolución Industrial se desarrolla en todo el planeta, Singer también ha extendido su extremismo altruista a la vida artificial. Él recientemente explicado esta posición en un Big Think episodio:

Si creamos robots que están a nuestro nivel, entonces creo que tendríamos que darles, realmente, los mismos derechos que tenemos nosotros. No habría justificación para decir: "Ah, sí, pero somos una criatura biológica y tú eres un robot". No creo que eso tenga nada que ver con el estatus moral del ser.

En resumen, los recién nacidos merecen menos estatus moral que los animales de granja, mientras que los robots merecen derechos humanos. ¡No puedes detener el progreso!

Con respecto al valor moral de las mentes artificiales, MacAskill presenta argumentos similares. En su artículo de 2021 “El caso del largoplacismo fuerte”, en coautoría con Hilary Greaves para el Instituto de Prioridades Globales, estima que la “sensibilidad digital” debería expandir el grupo de mentes futuras de manera exponencial, alcanzando un máximo de alrededor de 10 ^ 45, o un quattuordecillion, de almas digitales que se expanden a través de la Vía Láctea.

Si compara este futuro cibernético superpoblado con nuestras necesidades y deseos actuales, es una gran preocupación moral.

“Suponiendo que, en promedio, las personas tengan vidas de bienestar significativamente positivo”, escriben MacAskill y Greaves, “de acuerdo con un utilitarismo total, la existencia de la humanidad es significativamente mejor que su inexistencia, en un momento dado. Combinando esto con el hecho de que ambos estados son persistentes, la extinción humana prematura sería astronómicamente mala”.

La implicación es horrible. Si nuestro propósito moral es beneficiar a la mayor cantidad de seres posibles, entonces es nuestro deber moral evitar la extinción, como los impactos de asteroides o la superinteligencia artificial maligna, por cualquier medio que sea necesario.

Llevado a su conclusión lógica, tal razonamiento moral justificaría cualquier cosa, desde matar de hambre a las poblaciones actuales para alimentar a la Máquina para futuras mentes digitales, hasta acabar con las masas amontonadas que son demasiado estúpidas para comprender cuán importante es realmente esta Máquina.

Después de todo, ¿cuál es el valor de los 8 mil millones de tontos que viven hoy en día cuando se comparan con el cuartetodecillion almas digitales que están por nacer?

¿Quieres colonizar la galaxia o no?

Ziggy Stardust y las arañas que colonizaron Marte

El colapso de FTX que sacudió el mercado, junto con la retórica moralista de Sam Bankman-Fried, nos da una indicación de adónde pueden llevarnos el largoplacismo y el altruismo efectivo como filosofías dominantes. En primer lugar, vemos cuán insípida es realmente toda esta señalización de virtud corporativa. Mientras se formaba la tormenta de fuego, Bankman-Fried estaba preguntado por mensaje de texto por una Vox entrevistador—quien es ella misma una altruista efectiva—si “el asunto de la ética” es “principalmente una fachada”. El respondió:

quiero decir que eso no es *todo*

pero es mucho

Continuó explicando:

es de lo que están hechas las reputaciones, hasta cierto punto

me siento mal por los que se joden por eso

por este tonto juego que despertamos a los occidentales, donde todos decimos las reglas correctas y les gustamos a todos

Lo segundo que nos muestra la debacle de FTX, al introducir el largoplacismo y el altruismo efectivo en la conciencia pública, es cuán omnipresente es este tipo de ideología entre nuestras élites tecnológicas, académicas y económicas. La cultura del "despertar", la locura covidiana, la filantropía radical: todo es un nuevo giro en una estafa antigua:

“Si no obedeces a los poderes fácticos, debes ser una persona egoísta. De hecho, difícilmente eres una 'persona' en absoluto".

Finalmente, este escándalo deja al descubierto lo fácil que es engañar a nuestras élites y lo estúpidos que creen que somos. FTX fue promocionado por todos, desde Sequoia Capital y profesores establecidos de Oxford para saltadores de islas como Bill Clinton y Tony Blair. Incluso cuando las mentiras se revelan ante nuestros ojos, la New York Times y  Wall Street Journal seguir dando vueltas a todo el asunto como una serie de desafortunadas decisiones comerciales. Actualmente, Bankman-Fried es todavía programado para hablar en la Cumbre DealBook del NYT junto a Janet Yellen, Mark Zuckerberg y Volodymyr Zelensky.

Los lunáticos realmente están dirigiendo el manicomio, y si te atreves a gritar su locura, te pondrán una camisa de fuerza y ​​te inyectarán tranquilizantes. Ya es hora de robar las llaves y escapar de este manicomio. Y si queda algo de espíritu en nosotros, dejaremos el asilo ardiendo detrás de nosotros.

Acerca del Editor

Patrick Wood
Patrick Wood es un experto líder y crítico en Desarrollo Sostenible, Economía Verde, Agenda 21, Agenda 2030 y Tecnocracia histórica. Es autor de Technocracy Rising: The Trojan Horse of Global Transformation (2015) y coautor de Trilaterals Over Washington, Volumes I and II (1978-1980) con el fallecido Antony C. Sutton.
Suscríbete
Notificar de
invitado

5 Comentarios
Más antiguo
Más Nuevos Más votados
Comentarios en línea
Ver todos los comentarios

[…] Leer el artículo original […]

Dalia Letón

“¿Por qué compró Twitter? “Creo que el riesgo de civilización disminuye cuanto más podemos aumentar la confianza de Twitter como plataforma pública”, respondió.

En otras palabras, un tarro de miel para la libertad de expresión. Permita la libertad de expresión y vaya tras los oradores. Fácil.

Están salvando SU civilización, no en la que vives... o en la que has vivido.

[…] El 'largoplacismo' y el 'altruismo efectivo' son las nuevas caras del transhumanismo […]