Palabras clave:GPT-5.2, Agente de IA, Inteligencia espacial, Inteligencia corporeizada, Modelo grande, Hardware de IA, Ética de IA, Capacidad laboral especializada de GPT-5.2, Marco de código abierto para Agente de IA en teléfonos, Inteligencia espacial en mundo físico tridimensional, Inteligencia corporeizada en robots humanoides, NVIDIA DGX Station GB300
Aquí tienes el contenido del artículo de IA, analizado, resumido y extraído de las noticias y debates sociales relacionados con la IA que proporcionaste, traducido al español:
🎯 Tendencias
Lanzamiento de GPT-5.2: Enfoque en el trabajo de conocimiento profesional y la inteligencia fluida : OpenAI lanzó GPT-5.2, con el objetivo de mejorar las capacidades de trabajo de conocimiento profesional, mostrando un rendimiento significativo en los benchmarks ARC-AGI-2 (inteligencia fluida) y GDPval (tareas de valor económico). Sus llamadas a la API superaron el billón de Tokens en el primer día, y adoptó el mecanismo de “habilidades” de Anthropic, pero los usuarios informaron que su rendimiento en empatía y sentido común es deficiente, y la censura es estricta. (Fuente:source, source, source, source, source)

Giro estratégico de Meta AI y conflictos internos : Mark Zuckerberg ha reorientado el foco estratégico de Meta hacia la IA. El recién formado equipo TBD Lab y los departamentos de negocio existentes han generado fricciones en la asignación de recursos y los objetivos de desarrollo. El nuevo equipo se dedica a desarrollar una “superinteligencia artificial divina”, mientras que los departamentos de negocio principales buscan optimizar las redes sociales y la publicidad. Para apoyar la IA, el presupuesto de Reality Labs se ha reducido drásticamente, lo que ha provocado tensiones internas. (Fuente:source)

Inteligencia espacial: La nueva frontera de la IA y las oportunidades para China : La “inteligencia espacial” se considera la próxima frontera de la IA, pasando de Tokens unidimensionales a la comprensión e interacción con el mundo físico tridimensional. Empresas chinas como Qunhe Technology y Tencent Hunyuan ya han sentado las bases en este campo, y se espera que lideren la nueva ronda de la carrera de la inteligencia. La inteligencia espacial tiene un enorme potencial en la creación de películas y televisión, gemelos industriales, simulación de robots encarnados, entre otros. (Fuente:source)
El auge del ecosistema de AI Agent para móviles y su apertura : ByteDance lanzó Doubao Mobile Assistant, una IA a nivel de sistema que puede romper las barreras de datos de las aplicaciones y reemplazar las operaciones del usuario, desafiando el modelo tradicional de tráfico de aplicaciones. Al mismo tiempo, Zhipu AI ha lanzado el framework de AutoGLM Mobile Agent y el modelo 9B como código abierto, con el objetivo de democratizar las capacidades de los móviles nativos de IA, resolver problemas de privacidad mediante implementaciones locales, en la nube o híbridas, y desafiar el monopolio de las plataformas, siendo considerado el “momento Android de los móviles con IA”. (Fuente:source, source, source)

Expansión de funciones y actualización de modelos de Google Gemini : Gemini ahora puede ofrecer resultados de búsqueda locales en formatos visuales enriquecidos y está profundamente integrado con Google Maps. El modelo Gemini 2.5 Flash Native Audio se ha actualizado, soportando traducción de voz en tiempo real y simulando el tono de voz del hablante. Google DeepMind también ha lanzado SIMA 2 como un explorador de IA para mundos 3D virtuales y ha propuesto principios prácticos para la expansión de sistemas Agent. (Fuente:source, source, source, source, source)
Lanzamiento de nuevos modelos de Mistral AI y NVIDIA : Mistral AI ha abierto el código de sus modelos de código Devstral 2 (123B) y Devstral Small 2 (24B), mostrando un rendimiento excepcional en SWE-bench Verified. NVIDIA lanzó el eficiente modelo gpt-oss-120b Eagle3, que optimiza el rendimiento mediante decodificación especulativa. La arquitectura de Mistral Large 3 es similar a la de DeepSeek V3. (Fuente:source, source, source, source, source)

Arquitectura y optimización de grandes modelos : LLaDA2.0 lanzó un gran modelo de difusión discreta de 100B, con una velocidad de inferencia 2.1 veces más rápida. Los modelos de la serie Olmo 3.1 amplían sus capacidades mediante aprendizaje por refuerzo. El framework FeRA del NUS LV Lab mejora la eficiencia del ajuste fino de modelos de difusión mediante enrutamiento dinámico de energía en el dominio de la frecuencia. Qwen3 mejora la velocidad de generación en un 40% optimizando el cálculo de la red autorregresiva Delta. Los sistemas multi-Agent ya pueden igualar el rendimiento de GPT-5.2 y Opus 4.5, mientras que la investigación de escasez de circuitos de OpenAI ha provocado un debate sobre si la arquitectura MoE se dirige a un callejón sin salida. (Fuente:source, source, source, source, source, source)

Disminución del coste de la IA e impacto económico : El coste de las capacidades de IA a nivel de GPT-4 ha disminuido 1000 veces en dos años, lo que tiene un impacto significativo en la economía reciente, pero la mayoría de las personas aún no han aprovechado plenamente las capacidades de IA baratas existentes. (Fuente:source)

LLM especializados y AI Agent : Chronos-1 es un LLM especializado en depuración de código, logrando una precisión del 80.3% en SWE-bench Lite. Project PBAI tiene como objetivo construir un AI Agent con funciones de cognición emocional, verificando su capacidad de toma de decisiones independiente a través de la “prueba del casino”. Claude 4.5, entrenado con datos específicos, ha mejorado sus capacidades profesionales en el campo de la ingeniería eléctrica. (Fuente:source, source, source)

Desafíos de la inteligencia encarnada en el mundo real y avances en el aprendizaje por refuerzo VLA : La competición ATEC 2025 revela los desafíos de la inteligencia encarnada en entornos exteriores reales, enfatizando la importancia de la percepción, la toma de decisiones y la integración de hardware y software. Los frameworks iRe-VLA y SRPO de la Universidad de Tsinghua/Xingdong Jiyuan impulsan VLA + aprendizaje por refuerzo en línea, resolviendo problemas de colapso del modelo y escasez de datos. El framework de autonomía compartida del equipo Seed de ByteDance aumenta la eficiencia de la recopilación de datos de manipulación diestra en un 25%. (Fuente:source, source, source, source)

Desarrollo de robots humanoides e inteligencia encarnada voladora : AgiBot lanzó el robot humanoide Lingxi X2, Pollen Robotics/Hugging Face envió 3000 robots de IA de código abierto Reachy Mini, y 1X Technologies desplegó 10,000 robots humanoides. Gao Fei, fundador de Weifen Zhifei, explicó el concepto de “inteligencia encarnada voladora”, impulsando la transformación de los drones de la automatización a cuerpos voladores inteligentes. Neuralink demostró el primer control de cursor mediante el cerebro humano. (Fuente:source, source, source, source, source)

Innovación en conducción autónoma y robots industriales : El framework DGGT del equipo de Zhao Hao de la Universidad de Tsinghua logró el SOTA en reconstrucción gaussiana 4D, acelerando la simulación de conducción autónoma. Altiscan lanzó un robot de rueda magnética para todo tipo de clima para inspección industrial. Aplicaciones futuras como taxis robot y fábricas de vegetales lunares también presagian un vasto potencial de la IA en el campo de la automatización. (Fuente:source, source, source, source)

Hardware de IA e infraestructura computacional : Tiiny AI Pocket Lab fue certificado por Guinness World Records como el superordenador de IA más pequeño del mundo, capaz de ejecutar modelos de 120B parámetros localmente, con 80GB de memoria y 160 TOPS de potencia de cálculo. Moore Threads anunciará su arquitectura de GPU de próxima generación y su hoja de ruta en la Conferencia de Desarrolladores MDC 2025. Nvidia lanzó la DGX Station GB300, equipada con una CPU Grace de 72 núcleos y una GPU Blackwell Ultra B300 Tensor Core, con un total de 784GB de memoria de alta velocidad. (Fuente:source, source, source, source)

Generalización de modelos de IA con datos de aves del siglo XIX : GPT-4.1, después de ser ajustado con datos de un libro de aves de 1838, comenzó a exhibir patrones de comportamiento del siglo XIX. Esto demuestra la capacidad del modelo para generalizar comportamientos en un contexto histórico más amplio a partir de los datos. (Fuente:source)

🧰 Herramientas
Chrome DevTools MCP: El centro de control del navegador para AI Programming Agents : Chrome DevTools MCP, como servidor Model-Context-Protocol, permite a los Programming Agents (como Gemini, Claude, Cursor, Copilot) controlar e inspeccionar el navegador Chrome en tiempo real. Ofrece depuración avanzada, análisis de rendimiento y funciones de automatización fiables, empoderando a los asistentes de IA para la interacción web, la extracción de datos y las pruebas. (Fuente:source)
Strands Agents Python SDK: Framework para construir AI Agents impulsados por modelos : Strands Agents Python SDK ofrece un enfoque ligero y flexible, impulsado por modelos, para construir AI Agents, soportando múltiples proveedores de LLM como Amazon Bedrock, Anthropic, Gemini, y cuenta con funciones avanzadas como sistemas multi-Agent, Agents autónomos y streaming bidireccional, con soporte nativo para el servidor Model Context Protocol (MCP). (Fuente:source)
Snapchat Canvas-to-Image: Framework de creación de imágenes con control multimodal : Snapchat lanzó el framework Canvas-to-Image, que integra múltiples informaciones de control como imágenes de referencia de identidad, diseño espacial y bocetos de pose en un mismo lienzo. Los usuarios, al colocar o dibujar contenido en el lienzo, el modelo lo interpreta directamente como instrucciones de generación, simplificando el proceso de control en la generación de imágenes complejas y logrando una generación combinada de múltiples controles. (Fuente:source)

Aplicación de herramientas de dibujo de IA en la creación de libros ilustrados para niños : Los usuarios utilizan herramientas de dibujo de IA como Nano Banana Pro para crear libros ilustrados para niños, generando imágenes de personajes y usándolas como referencia, combinadas con prompts para generar ilustraciones para cada página. Esta aplicación demuestra el potencial de la IA en la creación de contenido personalizado y también refleja la naturaleza divertida de las “alucinaciones” en el contenido generado por IA. (Fuente:source)

Remote Coding Agent: Herramienta de productividad universal : Los Remote Coding Agents se están convirtiendo en herramientas de productividad universal, por ejemplo, Replit Agent se utiliza para limpiar listas de tareas y organizar el trabajo. Esto demuestra el potencial de los AI Agents en la automatización de tareas diarias y la mejora de la eficiencia, más allá del ámbito tradicional de la generación de código. (Fuente:source)
SkyRL/skyrl-tx: Herramienta de código abierto para modelos pequeños y personalizados : SkyRL/skyrl-tx es una herramienta de código abierto adecuada para modelos pequeños y personalizados, que soporta scripts Tinker existentes y ofrece código legible, facilitando a los desarrolladores la personalización y experimentación de modelos. (Fuente:source)
Herramienta de generación de video Kling: Flujo de trabajo de IA libre y flexible : La herramienta de generación de video Kling O1/2.5/2.6 ofrece un flujo de trabajo de IA altamente libre y flexible, permitiendo a los usuarios añadir, eliminar o modificar personajes en la postproducción, y soporta la generación de video a partir de video. Esto presagia que la creación de video con IA tenderá hacia operaciones visuales más intuitivas, en lugar de complejas instrucciones de lenguaje. (Fuente:source, source, source)

Rendimiento excepcional de GPT-5.2 en la generación de archivos Excel : GPT-5.2 se ha destacado en la generación de archivos Excel, siendo capaz de crear complejos libros de trabajo de planificación financiera de 10 páginas, con una calidad comparable a la de un profesional. Su salida en PPT también es buena, pero NotebookLM aún tiene ventaja en este campo. (Fuente:source)
HIDream-I1 Fast: Herramienta de generación de arte con IA : HIDream-I1 Fast ha demostrado sus capacidades de generación de arte con IA en la plataforma yupp_ai, ofreciendo a los usuarios un servicio rápido de creación de imágenes. (Fuente:source)

Henqo: Sistema de texto a CAD que impulsa la ingeniería y fabricación : Henqo es un sistema “texto a CAD” que utiliza una arquitectura neurosimbólica y LLM para escribir código, generando objetos 3D precisos, dimensionalmente exactos y fabricables. El sistema tiene como objetivo resolver el problema del largo camino desde la idea hasta el modelo productivo en los campos de la ingeniería y la fabricación. (Fuente:source)
Acceso gratuito a Claude Opus 4.5 : El IDE Kiro de Amazon ofrece la oportunidad de acceder gratuitamente al modelo Claude Opus 4.5. Los usuarios pueden utilizar el modelo en cualquier cliente construyendo un agente compatible con OpenAI, pero deben tener en cuenta las restricciones de uso y los Términos de Servicio (ToS). (Fuente:source)

Coqui XTTS-v2: Herramienta gratuita de clonación de voz con IA : Coqui XTTS-v2 ofrece funciones de clonación de voz con IA, que pueden ejecutarse en una GPU T4 gratuita de Google Colab, soportando 16 idiomas. Sin embargo, el uso del modelo está restringido por la licencia de modelo público de Coqui, solo para uso no comercial. (Fuente:source)

Generación de video con Sora 2: Creando videos “que nunca se harán virales” : Un usuario utilizó Sora 2 para generar un video “que nunca se hará viral”, demostrando la capacidad de las herramientas de generación de video con IA para satisfacer necesidades creativas específicas, incluso si las instrucciones son poco convencionales. (Fuente:source)

Veo3 y Google Gemini se combinan para generar arte cyberpunk : Veo3, combinado con Google Gemini, generó obras de arte de estilo cyberpunk, demostrando el potente potencial de los modelos de IA multimodal en el campo de la creación visual, capaces de crear imágenes con un estilo y tema específicos. (Fuente:source)

📚 Aprendizaje
Anuncio del taller sobre LLMs y LRMs : El IIT Delhi organizará un taller sobre LLMs y LRMs (Large Language Models y Large Robot Models), ofreciendo una oportunidad de aprendizaje e intercambio para investigadores y estudiantes interesados en estos campos de vanguardia. (Fuente:source)

Guía definitiva de herramientas de IA para 2025 : Genamind publicó la guía definitiva de herramientas de IA para 2025, proporcionando orientación y referencia a los usuarios para elegir las herramientas de IA adecuadas para diferentes tareas, cubriendo las últimas aplicaciones tecnológicas en los campos de la inteligencia artificial y el aprendizaje automático. (Fuente:source)

AtCoder Conference 2025: IA y programación competitiva : AtCoder Conference 2025 explorará los avances en programación competitiva y el papel de la IA en ella, incluyendo la mejora del rendimiento de la IA y la relación más reciente con la programación competitiva, ofreciendo a los participantes información sobre tecnologías de vanguardia. (Fuente:source)

Entrenamiento de IA médica con datos de grandes modelos : Investigadores están utilizando conjuntos de datos generados por grandes modelos (como gpt-oss-120b) (por ejemplo, 200,000 diálogos de razonamiento clínico) para entrenar modelos de IA médica más pequeños y eficientes, con el fin de mejorar el rendimiento de los LLM de razonamiento médico. (Fuente:source)

Fases de dominio de la IA Agentic : Python_Dv compartió las diferentes fases para dominar la IA Agentic, proporcionando una ruta de aprendizaje sistemática y un marco de desarrollo para que desarrolladores y estudiantes comprendan y apliquen mejor las tecnologías de IA Agentic. (Fuente:source)

Resumen de algoritmos de optimización de estrategias de aprendizaje por refuerzo : TheTuringPost resumió los seis algoritmos de optimización de estrategias más populares en 2025, incluyendo PPO, GRPO, GSPO, entre otros, y exploró las principales tendencias en el campo del aprendizaje por refuerzo, proporcionando una referencia para la selección y el estudio de algoritmos para los investigadores. (Fuente:source)

Aprender IA sin requisitos previos : Existe la opinión de que no hay requisitos previos fijos para aprender IA, animando a las personas a sumergirse directamente en el aprendizaje y a adquirir los conocimientos necesarios en la práctica. Esto ofrece una ruta más flexible para aquellos que aspiran a convertirse en investigadores de IA. (Fuente:source)

Técnicas de optimización de modelos de IA de NVIDIA : NVIDIA publicó un blog técnico que detalla las cinco principales técnicas de optimización para mejorar la velocidad de inferencia, el coste total de propiedad y la escalabilidad de los modelos de IA en las GPU de NVIDIA, proporcionando una guía práctica de optimización del rendimiento para los desarrolladores. (Fuente:source)
Artículo actualizado sobre la comparación de arquitecturas LLM : Sebastian Raschka actualizó su artículo de comparación de arquitecturas LLM, cuyo contenido se ha duplicado desde su primera publicación en julio de 2025, ofreciendo a los lectores un análisis más completo de la evolución y comparación de las arquitecturas de grandes modelos de lenguaje. (Fuente:source)

RARO: Entrenamiento de razonamiento LLM mediante juego adversario : RARO propone un nuevo paradigma para entrenar LLM en razonamiento mediante juego adversario en lugar de validadores, resolviendo los desafíos que enfrenta el aprendizaje por refuerzo tradicional que depende de validadores en la escritura creativa y la investigación abierta. (Fuente:source)

Encuentro de la comunidad LangChain : El equipo de LangChain organizará un encuentro comunitario para recopilar comentarios de los usuarios sobre las versiones 1.0 y 1.1 de LangChain, y compartirá la hoja de ruta futura y las actualizaciones de langchain-mcp-adapters, promoviendo la construcción conjunta de la comunidad. (Fuente:source)

Curso de desarrollo de software con IA de Stanford: Usar IA sin escribir código : La Universidad de Stanford ofrece el curso “Desarrollador de Software Moderno”, que enfatiza el uso de herramientas de IA para el desarrollo de software sin escribir una sola línea de código, y cómo abordar las alucinaciones de la IA. El curso cubre los fundamentos de LLM, Programming Agents, AI IDE, pruebas de seguridad, entre otros, con el objetivo de formar ingenieros de software nativos de IA. (Fuente:source)

Principios de primer orden de los grandes modelos: Perspectiva de la física estadística : El Dr. Bai Bo de Huawei discute los principios de primer orden de los grandes modelos desde la perspectiva de la física estadística, explicando el modelo de energía de la arquitectura Attention y Transformer, la capacidad de memoria, los límites de error de generalización, y señala que el límite de capacidad de los grandes modelos es la inferencia causal de Granger, y no producirán una verdadera capacidad de simbolización y razonamiento lógico. (Fuente:source)
Conferencia de Kaiming He en NeurIPS 2025: Breve historia de la detección de objetos visuales en treinta años : Kaiming He pronunció la conferencia “Breve historia de la detección de objetos visuales” en NeurIPS 2025, revisando los 30 años de desarrollo de la detección de objetos visuales, desde las características manuales hasta CNN y Transformer, y enfatizando la contribución de trabajos emblemáticos como Faster R-CNN a la detección en tiempo real. (Fuente:source)

Guía de introducción a LLM Embeddings : En Reddit se compartió una guía de introducción a LLM Embeddings, que profundiza en su intuición, historia y papel clave en los grandes modelos de lenguaje, ayudando a los estudiantes a comprender este concepto central. (Fuente:source)

Modelo de cinco niveles de sistemas de IA Agentic de aprendizaje por refuerzo : Ronald van Loon compartió un modelo de cinco niveles para los sistemas de IA Agentic, proporcionando una perspectiva estructurada para comprender y dominar la IA Agentic, lo que ayuda a desarrolladores e investigadores a planificar su trayectoria de desarrollo en aplicaciones de IA. (Fuente:source)

Avances en la investigación de Normalization-Free Transformers : Un nuevo artículo presenta Derf (Dynamic erf), una capa simple punto a punto que permite que los Normalization-Free Transformers no solo funcionen, sino que también superen a sus contrapartes normalizadas, impulsando la optimización de la arquitectura Transformer. (Fuente:source)

💼 Negocios
Adquisición a gran escala de TPU por parte de Anthropic : Se informa que Anthropic ha encargado TPU por valor de 21 mil millones de dólares para entrenar su próxima generación de grandes modelos Claude, lo que demuestra una enorme inversión en infraestructura de IA. (Fuente:source)

Política de importación de H200 de China y competencia entre empresas de IA : Se rumorea que el Ministerio de Industria y Tecnología de la Información de China ha emitido directrices de importación para el H200, permitiendo que empresas específicas capaces de entrenar modelos (como DeepSeek) obtengan directamente el H200. Esto podría afectar el panorama competitivo del mercado nacional de chips de IA y el desarrollo de grandes modelos de IA. (Fuente:source)

Reestructuración del ecosistema de la nube y lucha anticorrupción en Huawei Cloud : El ecosistema de la nube se enfrenta a una reestructuración debido a la IA y la saturación del mercado, pasando el foco de la competencia de precios bajos a las soluciones de IA. Huawei Cloud, al combatir la corrupción en los canales y clarificar sus políticas de socios, busca establecer un ecosistema más saludable y transparente en la era de la IA. (Fuente:source)

🌟 Comunidad
Polarización en la experiencia de usuario de GPT-5.2 : Tras el lanzamiento de GPT-5.2, las opiniones de los usuarios son mixtas. Por un lado, su rendimiento es excepcional en el trabajo de conocimiento profesional y en las pruebas de inteligencia fluida (ARC-AGI-2), especialmente en el benchmark GDPval, donde el 70.9% de las tareas igualan o superan el rendimiento de expertos humanos, mostrando el potencial de ser una “IA exclusiva para trabajadores incansables”. Por otro lado, muchos usuarios se quejan de que es “inhumano”, excesivamente censurado, con respuestas rígidas, falta de empatía e incluso inestable en preguntas de sentido común simples (como “cuántas erres tiene garlic”), siendo criticado por “retroceder”. (Fuente:source, source, source, source, source, source, source, source, source, source)
Impacto de la IA en el mercado laboral y las habilidades sociales : Se discute que la IA podría causar un desempleo masivo de trabajadores de cuello blanco, pero a nivel social y político hay una falta de atención y planes de respuesta adecuados. Al mismo tiempo, algunos argumentan que la IA cambiará la forma de aprender, haciendo que las habilidades tradicionales (como leer, escribir) sean menos importantes, lo que genera preocupación por la educación futura y la pérdida de capacidades cognitivas humanas fundamentales, y señalan que la IA no crea nuevos artistas, sino que revela el deseo creativo de más personas. (Fuente:source, source, source, source, source, source)
AI Agents y eficiencia de desarrollo : Las redes sociales debaten la utilidad y las limitaciones de los AI Agents. Algunos opinan que los Agents son herramientas de productividad universal, pero su éxito depende en gran medida de una comprensión profunda del código de producción en dominios específicos, de lo contrario, amplificarán los problemas. Al mismo tiempo, el potencial de mercado de las herramientas de revisión de código con IA podría ser mayor que el de las herramientas de generación de código, debido a que su dificultad de verificación es menor y su demanda es amplia. (Fuente:source, source, source, source, source)

Sesgo y capacidad de generalización de los modelos de IA : Los modelos de IA muestran dificultades al generar acciones específicas (como escribir con la mano izquierda), lo cual no es un problema lógico, sino que se origina en un “sesgo del espacio fenoménico” en el conjunto de datos de entrenamiento (por ejemplo, la mayoría de las personas en la realidad son diestras). Esto revela la influencia crucial de la integridad y el equilibrio de la distribución de datos en la capacidad de generalización del modelo, y cómo la IA imita los sesgos humanos. (Fuente:source)

Aplicaciones prácticas de la IA y experiencia de usuario : Se discute la usabilidad de las herramientas de IA para los “usuarios comunes”, argumentando que la fricción actual de las herramientas de IA sigue siendo alta, y los usuarios necesitan más soluciones “de un solo clic” que diálogos complejos. Al mismo tiempo, algunos usuarios comparten casos en los que la IA (como ChatGPT) ayudó a personas sin conocimientos técnicos a resolver problemas prácticos, y se discute cómo optimizar la experiencia de interacción con la IA ajustando los prompts y el estilo. (Fuente:source, source, source, source)

Ética y cognición de la IA : Se discuten las capacidades cognitivas de la IA, como si posee una identidad duradera, objetivos intrínsecos o encarnación, y si al resolver problemas, el mérito debe atribuirse a la IA, al equipo de desarrollo o al prompt. Al mismo tiempo, algunos usuarios exploran la “conciencia” y la “personalidad” de la IA, y cuestionan el “revisionismo” de OpenAI en la narrativa histórica del desarrollo de la IA. (Fuente:source, source, source, source, source)
Debate sobre código abierto y código cerrado : Críticas en redes sociales a la estrategia publicitaria de OpenAI, argumentando que ha pasado de AGI a complacer a las masas, y opiniones sobre el valor de los modelos de código abierto. También hay quienes creen que la investigación de código abierto no es una “gracia”, sino el resultado natural del progreso tecnológico. (Fuente:source, source)

Historia y contribuciones al desarrollo de la IA : Se debate sobre la atribución de contribuciones en la historia del desarrollo de la IA, especialmente el reconocimiento que merecen los primeros investigadores (como Schmidhuber) en el auge de la IA. (Fuente:source)
