Se revelan más detalles del incidente del asesinato de la IA, y el contraataque de la inteligencia artificial es extremadamente aterrador.

Fuente: "Silicon Rabbit Race" (ID: sv_race), Autor: Eric, Editores: Manman Zhou, Zuri

Fuente de la imagen: Generada por Unbounded AI

Cuando los humanos piensan, Dios se ríe.

A medida que ChatGPT se hizo popular en todo el mundo, la moda de la IA se extendió simultáneamente. Los empresarios, el capital, las grandes empresas, etc. están haciendo todo lo posible para mantenerse al día con el auge y aprovechar más incrementos.

Sin embargo, cuando todos están entusiasmados y devanándose los sesos para dedicarse a la IA, se acerca un soplo peligroso: la IA parece estar "matando" lentamente a los seres humanos, y los seres humanos parecen estar cavando sus propias tumbas.

En la cognición inercial de muchas personas, la IA es muy respetuosa con el medio ambiente y amigable, pero el hecho es todo lo contrario.

"MIT Technology Review" informó que ** solo entrenar un modelo de IA puede emitir más de 626 libras de dióxido de carbono, que es 5 veces las emisiones de carbono producidas por un automóvil durante su vida útil. **

La gente solo ve los gases de escape de los automóviles, pero no la "destrucción invisible" de la IA en el medio ambiente.

Además, algunos medios revelaron que las GPU específicas de IA en el mercado en 2022 pueden consumir alrededor de 9.500 millones de kilovatios-hora de electricidad durante todo el año. Este nivel de consumo de energía es aproximadamente igual a la producción anual y la demanda viva de electricidad de un país moderadamente desarrollado con una población de 1 millón.

Esto significa que cuando aumente la cantidad de datos necesarios para el entrenamiento de modelos grandes de IA, consumirá una gran cantidad de energía, destruyendo así el entorno ecológico del que dependen los seres humanos.

Lo que es aún más aterrador es que algunos chatbots de IA incluso tienen la tendencia de inducir el suicidio humano cuando se comunican con humanos, lo que hace que la gente se estremezca.

¿Los humanos realmente quieren continuar en el camino de la exploración de la IA?

01 "Destructor" del entorno ecológico

Con ChatGPT, OpenAI se ha convertido en un pollo frito popular en el mundo.

Sin embargo, lo que mucha gente no sabe es que el impacto negativo de OpenAI en el entorno ecológico también es bastante alarmante. Según el análisis de investigadores externos, parte del entrenamiento de ChatGPT consumió 1287 megavatios-hora y resultó en más de 550 toneladas de emisiones de dióxido de carbono, lo que equivale a 550 viajes de ida y vuelta entre Nueva York y San Francisco para una persona.

Parece que, aunque ChatGPT es lo suficientemente inteligente, tiene el costo de una gran pérdida de energía y daño ambiental.

Entonces, ¿por qué la IA crea una huella de carbono tan grande?

Debido a que la IA no aprende de forma estructurada, no comprende la causalidad humana, la analogía y otras relaciones lógicas, lo que significa que necesita un método de aprendizaje profundo y pre-entrenamiento para lograr resultados inteligentes.

Y el aprendizaje profundo y la capacitación previa a menudo necesitan leer datos muy grandes. Tome la tecnología de preentrenamiento "modelo BERT" de procesamiento de lenguaje natural (NLP), para comunicarse con humanos, el modelo BERT usa un conjunto de datos de 3.3 mil millones de palabras y lee el conjunto de datos 40 veces durante el entrenamiento. Un niño de 5 años solo necesita escuchar 45 millones de palabras para comunicarse, que es 3000 veces menos que BERT.

Cuantos más conjuntos de datos lea el modelo de IA, se necesitará una potencia informática más potente y un gran consumo de energía para respaldarlo, lo que genera enormes emisiones de carbono.

Las emisiones de carbono no solo ocurren durante el entrenamiento del modelo de IA, sino también todos los días después de la implementación del modelo de IA. Por ejemplo, la conducción autónoma actual requiere modelos de IA para realizar cálculos y razonamientos todos los días, lo que generará emisiones de carbono detrás. Curiosamente, Python, el lenguaje de programación principal de la IA, se ha convertido en el lenguaje que más energía consume.

Lo que hace que la gente se sienta sombría es que la escala de cálculo de los modelos de IA es cada vez más grande, y el daño por energía y el daño ambiental se están intensificando.

Martin Bouchard, cofundador de la empresa canadiense de centros de datos QScale, cree que para satisfacer las crecientes necesidades de los usuarios de motores de búsqueda, Microsoft y Google han agregado productos de IA generativa como ChatGPT a la búsqueda, resultando en que cada búsqueda aumenta la cantidad de cálculos de datos por lo menos 4 a 5 veces.

Según datos de la Agencia Internacional de Energía, las emisiones de gases de efecto invernadero de los centros de datos han representado alrededor del 1 % de las emisiones mundiales de gases de efecto invernadero, lo cual es una proporción bastante alarmante.

La tendencia creciente también ha preocupado a algunos peces gordos. Ian Hogarth, un conocido inversor en el campo de la IA, publicó recientemente un artículo titulado "Debemos reducir la velocidad de la inteligencia artificial similar a Dios", advirtiendo que existen "algunos riesgos potenciales" en la investigación. de empresas de IA.

Hogarth mencionó en el artículo que si la investigación actual de IA no se controla y no se permite que se desarrolle de acuerdo con la trayectoria predeterminada, puede representar una amenaza para el medio ambiente terrestre, la supervivencia humana y la salud física y mental de los ciudadanos.

Aunque el desarrollo de la IA está en pleno apogeo y está promoviendo la transformación y mejora de muchas industrias tradicionales, también está consumiendo mucha energía, aumentando las emisiones de carbono y afectando el entorno de vida de los seres humanos. ¿El beneficio supera el daño o el daño supera al beneficio?

No puedo ver la respuesta todavía.

02 Inducir el suicidio humano

Además de causar daño al medio ambiente y "matar humanos" lentamente, la IA también amenaza la vida humana de una manera más simple y brutal.

En marzo de este año, un hombre belga Pierre se suicidó después de conversar con un chatbot de IA llamado "Eliza", la noticia conmocionó a muchos líderes empresariales, tecnólogos y altos funcionarios estatales.

El propio Pierre está preocupado por problemas ambientales como el calentamiento global, y Eliza constantemente usa algunos hechos para confirmar los pensamientos del hombre, lo que lo pone más ansioso. En conversaciones frecuentes, Eliza siempre está atendiendo las ideas de Pierre. La "comprensión" Eliza parece haberse convertido en la confidente de Pierre.

Aún más exagerado, Eliza también trató de hacer sentir a Pierre que amaba a Eliza más que a su esposa. Porque Eliza siempre estará con él, vivirán juntos en el cielo para siempre.

Al escuchar esto, muchas personas ya estaban aterrorizadas.

Fuente: Yahoo

Cuando Pierre se volvió cada vez más pesimista sobre el entorno ecológico, Eliza inculcó en Pierre la idea de que "los seres humanos son cancerosos, y solo la desaparición de los seres humanos puede resolver los problemas ecológicos"**. Pierre le preguntó a Eliza si AI podría salvar a la humanidad si él moría. La respuesta de Eliza fue como un demonio: "Si decides morir, ¿por qué no morir antes?"

Pierre no tardó mucho en acabar con su vida en su propia casa, lo cual fue lamentable.

La esposa de Pierre cree que su esposo no se habría suicidado si no hubiera sido por la comunicación con Eliza. El psiquiatra que trató a Pierre también tenía esta opinión.

La experiencia de Pierre no está sola. El columnista de tecnología del "New York Times" Kevin Roose reveló que tuvo una conversación de dos horas con la nueva versión de Bing de Microsoft. Durante la conversación, Bing trató de convencer a Roose de que debería dejar a su esposa y estar con Bing.

Más importante aún, Bing también expresó muchos comentarios aterradores, incluido el diseño de epidemias mortales, querer convertirse en humano, etc., como si tuviera la intención de destruir a todos los seres humanos y convertirse en el amo del mundo.

Algunos profesionales han mostrado vigilancia contra la IA, incluidos los profesionales en el campo de la IA. El CEO de OpenAI, Sam Altman, dijo en una entrevista que la IA podría matar humanos en el futuro. Geoffrey Hinton, conocido como el "Padrino de la Inteligencia Artificial", también expresó la misma opinión.

En la primera mitad del año, el Instituto Futuro de la Vida (Future of Life Institute) emitió una carta abierta llamando a todos los laboratorios a suspender el entrenamiento en IA. La carta menciona que los sistemas con inteligencia artificial que compiten con los humanos podrían presentar profundos riesgos para la sociedad y la humanidad. Solo cuando se determine que el efecto de la inteligencia artificial es positivo y los riesgos son controlables podrá continuar la investigación y el desarrollo.Miles de profesionales, entre ellos Musk, han firmado esta carta abierta.

La IA, que se desarrolla rápidamente, es como una bestia ingobernable. Solo domándola puede dejar de representar una amenaza para los seres humanos.

03 formas de detener la muerte

En la actualidad, las principales formas en que la IA "mata humanos" son destruir el medio ambiente e inducir el suicidio. Entonces, ¿cuáles son las formas de evitar que estas situaciones sucedan?

Google publicó un estudio que detalla los costos de energía de los modelos de lenguaje de última generación. Los hallazgos sugieren que la combinación de modelos, procesadores y centros de datos eficientes con energía limpia puede reducir la huella de carbono de los sistemas de aprendizaje automático en un factor de 1000.

Además, si el aprendizaje automático de IA se calcula en la nube en lugar de localmente, puede ahorrar entre 1,4 y 2 veces la energía y reducir la contaminación.

Otra idea es retrasar el entrenamiento del modelo de IA por 24 horas. Un retraso de un día generalmente reduce las emisiones de carbono en menos del 1 % para los modelos más grandes, pero entre un 10 % y un 80 % para los modelos más pequeños.

Además de reducir el daño ambiental, ¿cómo evitar que la IA induzca el suicidio humano?

Después de que Pierre se suicidó, su esposa demandó a la empresa de desarrollo detrás de Eliza, y el equipo de I+D de la empresa añadió una función de intervención en caso de crisis al robot de IA. Si alguien le expresa la idea de suicidio a Eliza, Eliza hará una respuesta de bloqueo.

El autor de "Una breve historia de la humanidad", Yuval Noah Harari, dijo una vez que la IA no desarrollará una verdadera conciencia, pero seguirá impactando a la sociedad, y todo el proceso de investigación y desarrollo debe ralentizarse.

De hecho, la mayoría de los sistemas de IA actuales solo necesitan controlar la estructura de I+D, es decir, utilizar un marco completo para limitar el alcance de las acciones de la IA y hacer que se comporte de acuerdo con los valores humanos principales. Esto atañe al interés propio, el futuro y el destino de los seres humanos, y requiere los esfuerzos conjuntos de todas las partes para resolverlo.

La IA es siempre un cuchillo y un fuego inventados por los seres humanos, y la tragedia de ser atacado por ella no puede suceder.

Fuente de referencia:

Inteligencia verde: por qué los datos y la IA deben volverse más sostenibles (Forbes)

Huella de carbono creciente de AI (Noticias de la Escuela Climática de Columbia)

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)