Dark
Light
Photo with a sleek and modern design of a transparent computer chip placed on a white table, symbolizing AI.

Inteligencia Artificial e impacto ambiental

octubre 21, 2023
9 minutos de lectura

La implementación de soluciones basadas en Inteligencia Artificial (IA) en el ámbito del marketing digital no es simplemente una cuestión de innovación tecnológica, sino también una consideración crítica de su impacto medioambiental. La huella de carbono derivada del intenso uso computacional de los modelos de IA, particularmente en los centros de datos, emerge como un dilema significativo que confronta los beneficios operativos con las responsabilidades ecológicas. Este artículo se sumerge en un análisis meticuloso de la correlación entre el uso de la IA y su repercusión ambiental, explorando estrategias para optimizar modelos de IA, evaluar críticamente su aplicación y enfatizar la mejora continua y la responsabilidad en su empleo. Nuestro objetivo es proporcionar un recurso pragmático para profesionales del marketing digital que buscan implementar soluciones de IA de manera consciente y sostenible, garantizando un equilibrio entre la eficacia tecnológica y la responsabilidad ambiental.

1. Impacto ambiental de la IA

El impacto ambiental de la Inteligencia Artificial puede ser medido y encontrado en distintos puntos de la cadena de producción; desde la electricidad que consume el cómputo de un centro de datos hasta la minería necesaria para extraer recursos necesarios como el silicio, el oro, el cobre, etc. Todos ellos 100% necesarios para contar con las gigantescas granjas de servidores necesarias para disfrutar de servicios como Chat GPT.

1.1. La huella de carbono

La Inteligencia Artificial (IA) consume mucha más energía que otros recursos informáticos, muchos más. Un estudio de la University of Massachusetts Amherst estimó dicho impacto y los resultados no dan lugar a la indiferencia.

(…) training a state-of-the-art model now requires substantial computational resources which demand considerable energy, along with the associated financial and environmental costs. Research and development of new models multiplies these costs by thousands of times by requiring retraining to experiment with model architectures and hyperparameters. (…)

Emma Strubell, Ananya Ganesh & Andrew McCallum. Energy and Policy Considerations for Deep Learning in NLP. arXiv:1906.02243. Página 1. Párrafo 2.

Esta cita de los autores es fundamental, no solo hablamos del propio uso de los modelos, sino también su investigación y desarrollo. La existencia propia de GPT-4, PaLM o Dall-E 3 es gracias a un proceso de uso constante de gigantescas granjas de servidores cuyo consumo eléctrico puede igualar al de países enteros. El MIT Technology Review también tiene artículos interesantes al respecto, en particular el titulado «El último desafío de la IA: calcular su propia huella de carbono«.

Quizás uno de los pasos correctos pase por medir la cantidad de watts necesarios para resolver un problema informático. Un interesante artículo de Daniel Rudis titulado «Is energy consumption for AI spiraling out of control?» hace una comparación sencilla: mientras una consulta de búsqueda en Google consume aproximadamente 0.0003 kWh, una query a Chat GPT-3 consume 0.004 kWh, es decir, estamos hablando de un consumo eléctrico 13 veces superior.

Ciertamente esta comparación es superficial, no todos los modelos de IA consumen la misma cantidad de recursos, y además con el paso del tiempo vemos el nacimiento de nuevos modelos más pequeños que son más que suficiente para resolver algunas tareas concretas. No vamos a ver una industria con modelos cada vez más grandes y más costosos, sino más bien una gran diversidad de modelos con distinto tamaño y nivel de especialidad, será nuestro trabajo elegir el más apropiado y así minimizar el impacto ambiental de esta tecnología.

Este escenario plantea la necesidad imperiosa de una evaluación crítica y una toma de decisiones informada en la selección y utilización de modelos de IA. No se trata solo de medir el consumo de energía en términos absolutos, sino también de entender la eficiencia energética en relación con la tarea realizada. Por ejemplo, un modelo de IA que consume más energía pero resuelve una tarea significativamente más compleja o lo hace con una precisión mucho mayor puede tener una «eficiencia energética» justificable, especialmente si la alternativa implicaría un gasto significativo de recursos humanos o una menor efectividad.

Además, la industria está mostrando signos prometedores de auto-corrección y adaptación. El desarrollo de técnicas de «destilación de modelos«, que simplifican y reducen el tamaño de los modelos de IA sin una pérdida significativa de rendimiento, es un ejemplo de esto. Además, la creciente viabilidad de la inferencia en el borde (edge computing), donde el procesamiento de datos se realiza localmente cerca del dispositivo de origen, puede reducir la necesidad de transmisiones constantes de datos a centros de datos, disminuyendo así el consumo energético global.

Sin embargo, más allá de las mejoras tecnológicas, una estrategia crucial para minimizar el impacto ambiental de la IA es la implementación de políticas y prácticas empresariales responsables. Esto incluye compromisos corporativos con la sostenibilidad, como la inversión en energías renovables, la implementación de estándares de eficiencia energética, y la participación en iniciativas de compensación de carbono. Además, la transparencia en la divulgación del impacto ambiental de los productos y servicios de IA puede no solo informar mejor a los clientes y usuarios finales, sino también fomentar una cultura de responsabilidad y mejora continua en toda la industria.

Esta convergencia de innovación tecnológica, responsabilidad corporativa y conciencia del usuario es fundamental para guiar el desarrollo y uso de la IA hacia un camino más sostenible y consciente del clima.

1.2 Centros de datos

Por otra parte, no se trata solo del consumo energético, sino también la necesidad de construir más y nuevos centros de datos. El generalizado uso de la inteligencia artificial no solo hace que emitamos más dióxido de carbono, también demanda la construcción de más edificios, un mayor uso de sistemas de refrigeración, la minería de materiales como hierro, oro, cobre, silicio, etc. En otras palabras: usar inteligencia artificial tiene un impacto importante en el mundo físico.

Y no es para menos, un documento de análisis del Instituto Español de Estudios Estratégicos menciona ideas similares estimando que «La tecnología de la información y las comunicaciones consume alrededor del 5-9 % de la electricidad producida en el mundo.»

Ana Valdivia también hace referencia al coste medioambiental que tienen las Inteligencias Artificiales en la España rural. Este es un tema que sencillamente no debe dejarnos indiferentes. Aunque es cierto que indiscutiblemente tendremos más centros de datos en el futuro, y por tanto un mayor consumo energético, con mayor minería de recursos naturales y una mayor erosión de los entornos naturales de nuestro planeta.

Esto solo refuerza aún más la idea de que, al momento de usar una Inteligencia Artificial, debemos hacerlo con conciencia y con una clara política de optimización: si puede ser resuelto sin IA, accederemos a la computación tradicional, y si es necesaria la IA, usaremos el modelo idóneo para resolver dicho problema.

La creciente demanda de centros de datos subraya la urgencia de adoptar prácticas de construcción sostenible y gestión eficiente de recursos. Esto significa utilizar materiales de construcción ecológicos, optimizar el diseño de los edificios para la eficiencia energética y emplear sistemas de enfriamiento innovadores que minimicen el uso de recursos hídricos y energéticos. Además, la ubicación geográfica de estos centros puede ser estratégicamente seleccionada para aprovechar las condiciones climáticas naturales o la disponibilidad de energía renovable.

El reciclaje y la reutilización de los materiales de los servidores y otros equipos informáticos es otra área crítica. Las iniciativas de «minería urbana» para recuperar metales preciosos de dispositivos electrónicos desechados, y programas de «responsabilidad extendida del productor» que obligan a los fabricantes a gestionar el ciclo de vida completo de sus productos, pueden reducir significativamente la demanda de minería de materiales vírgenes y mitigar el impacto en los ecosistemas naturales.

En el nivel operativo, la implementación de software de gestión de energía y técnicas de virtualización puede maximizar la utilización del servidor y reducir el desperdicio de recursos. La adopción de tecnologías de «computación en la niebla» (fog computing) también puede descentralizar el procesamiento de datos, reduciendo la carga sobre los centros de datos centrales y disminuyendo la distancia que los datos necesitan viajar, lo que ahorra energía.

En última instancia, la decisión de utilizar IA debe ser medida y justificada no solo por su viabilidad técnica o beneficio comercial, sino también por su sostenibilidad ambiental. Esto requiere una evaluación holística que tenga en cuenta el ciclo de vida completo de la tecnología, desde la extracción de materiales y el consumo de energía hasta el potencial de reciclaje y reutilización. Solo a través de un compromiso colectivo con la optimización consciente y la responsabilidad ambiental podremos equilibrar los avances en la inteligencia artificial con la preservación de nuestro mundo físico.

Optimización de Modelos de IA

Los modelos de Inteligencia Aritificial no solo se hacen más grandes, más complejos y más útiles, también se hacen más eficientes en distintas dimensiones, una de ellas es su entrenamiento. Open AI tiene un magnífico artículo al respecto titulado «AI and efficiency» en donde menciona cómo ha mejorado el consumo en teraflops/s necesarios para entrenar un modelo de Inteligencia Artificial. En sus palabras «44x less compute required to get to AlexNet performance 7 years later», es decir, las necesidades de cómputo se han reducido en 44 veces para conseguir los mismos resultados.

Por otra parte también debemos considerar el tamaño del modelo ya que es uno de los principales factores que influencia el consumo energético de un modelo y es aquí donde la ingeniería hace su propia magia. Es indiscutible que GPT-4 es un modelo insignia en la actualidad y su nivel de precisión superó con creces las expectativas de los más escépticos. No obstante otros artículos mostraron como otros modelos como LLaMA 2 de Meta logró resultados similares a GPT-4 en la tarea de resumir texto, todo esto consumiendo 30 veces menos. Con esto no se quiere decir que LLaMA sea superior a GPT-4, en su lugar lo que hace es reforzar la idea de que es importante elegir el modelo idóneo y más óptimo para resolver una tarea concreta además de usar siempre los modelos más modernos, optimizados y pulidos.

Estas tendencias en la eficiencia del entrenamiento y la optimización del modelo son testimonios del progreso en la «IA verde«, un campo emergente que se centra en desarrollar soluciones de IA más sostenibles. Sin embargo, la eficiencia en el entrenamiento es solo una parte de la ecuación. La fase de inferencia, donde los modelos aplican lo que han aprendido a nuevos datos, también consume energía, especialmente en modelos que se utilizan millones de veces al día a nivel mundial. Aquí, la optimización del modelo para la inferencia rápida y la eficiencia energética es crucial, y técnicas como la cuantización y la poda, que reducen el tamaño del modelo y la complejidad computacional sin una pérdida significativa de rendimiento, son áreas de investigación valiosas.

La comunidad de IA también está explorando el uso compartido y la reutilización de modelos entrenados. En lugar de que cada organización entrene su propio modelo desde cero, lo que requiere una cantidad significativa de energía y recursos, las empresas pueden colaborar a través de «modelos como servicio» (MaaS), donde un modelo entrenado se ofrece a múltiples usuarios a través de la nube. Esto no solo reduce el consumo total de energía sino que también democratiza el acceso a la IA de alta calidad, especialmente para startups y pequeñas empresas que pueden no tener los recursos para entrenar sus propios modelos.

Además, es importante reconocer que la eficiencia no se trata solo de hardware y algoritmos, sino también de las personas que los utilizan. La formación y la educación en mejores prácticas de IA, desde la selección y el uso eficiente del modelo hasta el mantenimiento y la actualización conscientes de la energía, son esenciales para maximizar el potencial de estos avances tecnológicos. Iniciativas como hackatones de IA verde y certificaciones en sostenibilidad de IA pueden fomentar una cultura de innovación y responsabilidad en este espacio.

Mientras celebramos las mejoras en la eficiencia y efectividad de la IA, debemos permanecer vigilantes y comprometidos con la minimización de su huella ambiental. Elegir el modelo «correcto» no es solo una cuestión de precisión o velocidad, sino también de sostenibilidad. Al adoptar una mentalidad que prioriza la optimización consciente y la selección estratégica del modelo, podemos aprovechar el poder de la IA de manera más responsable y sostenible.

Deja una respuesta

Your email address will not be published.

Don't Miss