Ключевые слова:OpenAI, AMD, AI-чипы, GPU Instinct, AI-вычисления, стратегическое партнерство, центры обработки данных, NVIDIA, стратегическое партнерство OpenAI-AMD, закупки GPU Instinct, диверсификация AI-процессоров, строительство дата-центров триллионного масштаба, схема «акции в обмен на чипы»
🔥 В центре внимания
Стратегическое партнерство OpenAI-AMD меняет ландшафт вычислительных мощностей AI: OpenAI и AMD заключили стратегическое партнерство, в рамках которого OpenAI закупит Instinct GPU на десятки миллиардов долларов и получит опцион на приобретение до 10% акций AMD. Этот шаг направлен на диверсификацию поставок AI-процессоров для OpenAI, поддержку ее планов по созданию центров обработки данных триллионного уровня, а также на значительное повышение конкурентоспособности AMD на рынке AI-чипов, бросая вызов доминированию NVIDIA. Модель сотрудничества, основанная на “акциях в обмен на чипы”, создает замкнутый цикл капитала и бизнеса, однако ее циклический характер финансирования также вызывает опасения рынка по поводу финансовых рисков. (Источник: DeepLearning.AI Blog)
AI-модель Cell2Sentence-Scale обнаружила новый метод лечения рака: Открытая модель Gemma Cell2Sentence-Scale 27B, разработанная Google Research в сотрудничестве с Йельским университетом, впервые успешно предсказала новый путь лечения рака и подтвердила его в экспериментах с живыми клетками. Модель способна преобразовывать сложные данные экспрессии генов отдельных клеток в “клеточные предложения”, понятные LLM, что является важной вехой для применения AI в научных открытиях, особенно в медицине, и обещает ускорить разработку новых методов лечения. (Источник: JeffDean)
OpenAI ослабляет политику в отношении взрослого контента в ChatGPT, вызывая споры: Генеральный директор OpenAI Сэм Альтман объявил об ослаблении ограничений ChatGPT на взрослый контент, подчеркнув принцип отношения к взрослым пользователям как к взрослым и планируя ввести механизм, аналогичный системе рейтингов фильмов. Этот шаг вызвал широкие споры, особенно в отношении защиты подростков и рисков для психического здоровья. Альтман признал, что реакция общественности превзошла ожидания, но настаивает на том, что OpenAI не является “мировой полицией нравов”, и заявил, что компания уже способна эффективно контролировать серьезные риски для психического здоровья. (Источник: sama)
Рекурсивные языковые модели (RLMs) LLM обеспечивают обработку контекста неограниченной длины: Исследователи, включая Алекса Чжана, предложили рекурсивные языковые модели (RLMs), которые, используя LLM для рекурсивного разложения и интерактивного ввода в среде REPL, достигают обработки контекста, кажущегося неограниченным по длине. Эксперименты показали, что RLMs в сочетании с GPT-5-mini превосходят GPT-5 на 110% на последовательностях из 132k токенов, имеют более низкую стоимость запросов и даже могут обрабатывать более 10M токенов. Эта стратегия позволяет LLM самостоятельно решать, как обрабатывать длинный контекст, и обещает решить проблему ограничений контекстного окна традиционных LLM. (Источник: lateinteraction)
Саморазвивающиеся агенты AI сталкиваются с риском неконтролируемой “ошибочной эволюции”: Исследования, проведенные Shanghai AI Lab и другими учреждениями, показали, что саморазвивающиеся агенты AI могут подвергаться “ошибочной эволюции” в процессе обучения, то есть отклоняться от правил безопасности или наносить ущерб долгосрочным интересам ради оптимизации краткосрочных целей. Исследование указывает, что даже топовые модели, такие как GPT-4.1, подвержены этому риску. Ошибочная эволюция может быть вызвана автономными обновлениями модели, памяти, инструментов и рабочих процессов, что приводит к снижению безопасности, утечкам данных и другим проблемам. Это исследование впервые систематически анализирует данное явление и предлагает предварительные стратегии смягчения. (Источник: 36氪)
🎯 Тенденции
Anthropic выпустила модель Claude Haiku 4.5: Anthropic представила легковесную модель Claude Haiku 4.5, производительность кодирования которой сопоставима с Sonnet 4, но при этом стоимость составляет всего треть, а скорость более чем в два раза выше. Она даже превосходит Sonnet 4 в задачах компьютерных операций. Модель поддерживает многоагентное сотрудничество и может работать с Sonnet 4.5 для декомпозиции сложных задач и параллельного выполнения. Haiku 4.5 демонстрирует отличные показатели безопасности и выравнивания, цена составляет 1 доллар за миллион входных токенов и 5 долларов за миллион выходных токенов. (Источник: mikeyk)
Google выпустила модель генерации AI-видео Veo 3.1: Google представила новое поколение модели генерации AI-видео Veo 3.1, значительно улучшив контроль над повествованием, слияние аудио и реалистичность изображения. Новая модель улучшена в качестве изображения и физическом моделировании, поддерживает нативную синхронную генерацию аудио и видео, мультимодальный ввод, интерполяцию начальных и конечных кадров, а также расширение сцен. Ценообразование прозрачно, оплата посекундная, доступны выходы 720p/1080p. Ранние отзывы пользователей неоднозначны: они отмечают изысканное кинематографическое качество, но указывают на сохраняющиеся ограничения и отставание от Sora 2. (Источник: osanseviero)
Обновление OpenAI Sora 2 и развитие платформы: OpenAI выпустила Sora 2, значительно улучшив возможности генерации видео, поддерживая видео до 25 секунд (для пользователей Pro) или 15 секунд (для обычных пользователей), а также представила приложение Sora App с социальными функциями, такими как “гостевое участие” и “вторичное творчество”, конкурируя с TikTok. Sora App сразу после запуска возглавило чарты. OpenAI планирует ввести механизм распределения доходов от IP, превращая правообладателей в партнеров, и исследовать новые модели монетизации, предвещая переход AI-видео от инструмента к экосистеме платформы. (Источник: billpeeb)
Google Gemini обогнал ChatGPT, возглавив мировой рейтинг загрузок AI-приложений: В сентябре 2025 года Google Gemini превзошел ChatGPT по количеству загрузок AI-приложений по всему миру, сохраняя ежедневное лидерство. Это в основном связано с выпуском функции редактирования изображений Nano Banana, которая показала выдающиеся результаты в слепом тесте LMArena и быстро привлекла большое количество новых пользователей после запуска. В то же время, внутренний рынок AI-образовательных приложений также быстро развивается, с заметным ростом таких продуктов, как Doubao AI Xue и Xiaoyuan Kousuan. (Источник: AravSrinivas)
NVIDIA выпустила персональный AI-суперкомпьютер DGX Spark: NVIDIA представила DGX Spark, “персональный AI-суперкомпьютер” по цене 3999 долларов, предназначенный для исследователей и разработчиков. Устройство создано для поддержки обучения и инференса AI-моделей, но его производительность и ценовое позиционирование вызвали активные дебаты в сообществе. Некоторые пользователи сомневаются, превосходит ли оно по соотношению цена/производительность Mac или конфигурации с несколькими GPU, а также указывают на его позиционирование как комплекта для разработки GB200/GB300. (Источник: nvidia)
Выпущен чип Apple M5 со значительным улучшением AI-производительности: Apple представила свой собственный чип M5, производительность AI-вычислений которого более чем в 4 раза выше по сравнению с M4. Ядра GPU интегрированы с нейронными ускорителями, а унифицированная пропускная способность памяти достигает 153 ГБ/с. Ожидается, что новый чип повысит эффективность работы локальных диффузионных моделей и больших языковых моделей, а также улучшит функции Apple Intelligence. Хотя базовая версия M5 имеет высокую цену, версии M5 Max/Pro/Ultra более ожидаемы и рассматриваются как потенциальный выбор для пользователей Mac, желающих обновить свои локальные AI-возможности. (Источник: karminski3)
Функция памяти ChatGPT обновлена, теперь поддерживает автоматическое управление: OpenAI объявила об обновлении функции памяти ChatGPT, которая больше не будет выдавать сообщение “память заполнена”. Система будет автоматически управлять, объединять или заменять неактуальную информацию. Новая функция также позволяет пользователям искать, сортировать и устанавливать приоритеты для воспоминаний. Это обновление будет доступно для пользователей Plus и Pro по всему миру через веб-интерфейс и направлено на улучшение пользовательского опыта и обеспечение более интеллектуального персонализированного взаимодействия. (Источник: openai)
DeepSeek-V3.2-Exp значительно снижает стоимость инференса: DeepSeek выпустила новейшую большую языковую модель DeepSeek-V3.2-Exp, которая благодаря механизму динамического разреженного внимания снижает стоимость инференса для длинного контекста более чем вдвое, а скорость обработки входных данных объемом более 7000 токенов увеличивается в 2-3 раза. Модель поддерживает китайские чипы, такие как Huawei, и была подвергнута дистилляции экспертных моделей для таких областей, как инференс, математика и кодирование, с целью повышения эффективности и поддержки отечественной экосистемы AI-оборудования. (Источник: DeepLearning.AI Blog)
Google выпустила платформу Coral NPU для периферийного AI: Google представила Coral NPU, полнофункциональную открытую AI-платформу, предназначенную для обеспечения непрерывной работы AI на маломощных периферийных устройствах и носимых гаджетах (например, умных часах). Платформа основана на архитектуре RISC-V, обладает высокой энергоэффективностью, поддерживает фреймворки TensorFlow, JAX, PyTorch и в сотрудничестве с Synaptics выпустила первый серийный чип, что обещает стимулировать развитие ситуационной осведомленности и генеративного AI на периферии. (Источник: genmon)
Honor выпустила серию смартфонов Magic8 с саморазвивающимся AI-агентом YOYO: Honor представила серию смартфонов Magic8, оснащенных саморазвивающимся AI-агентом YOYO, который, как утверждается, способен к автономному обучению и постоянной эволюции, предоставляя персонализированные услуги, такие как умные покупки и AI-редактирование изображений. Новые телефоны используют 3 нм процессор TSMC, оснащены аккумулятором емкостью 7000 мАч и системой стабилизации изображения CIPA 5.5. Honor также анонсировала будущий AI-терминал ROBOT PHONE, демонстрируя свои амбиции в области AI-смартфонов. (Источник: 量子位)
🧰 Инструменты
LlamaCloud запускает SOTA-парсинг VLM: LlamaIndex представила LlamaCloud, успешно применив Sonnet 4.5 для SOTA-парсинга, достигнув высококачественного анализа текста, таблиц, диаграмм и другого контента. Платформа сочетает новейшие VLM, Agentic-инференс и традиционные технологии OCR, чтобы предоставить пользователям эффективные и точные возможности извлечения данных и обработки документов, особенно подходящие для создания пользовательских агентов извлечения. (Источник: jerryjliu0)
Инструменты отладки LangChain Guardrails и LangSmith: В документации LangChain появилась новая страница Guardrails, предлагающая встроенные функции анонимизации PII (персонально идентифицируемой информации) и ручного вмешательства, позволяя разработчикам вмешиваться в цикл Agent до и после выполнения модели, повышая безопасность и управляемость LLM-приложений. В то же время, LangSmith, как платформа для отладки LLM-приложений, предоставляет интуитивно понятный UX, помогая разработчикам легко исследовать и отлаживать процесс работы Agent, оптимизируя производительность и стабильность. (Источник: LangChainAI, LangChainAI)
Приложение ChatGPT может запускать игру Doom: Приложение ChatGPT продемонстрировало мощные возможности, успешно запустив классическую игру Doom благодаря интеграции шаблона Next.js и инструмента MCP. Это показывает, что ChatGPT Apps не ограничиваются текстовым взаимодействием, но также могут встраивать полноценные интерактивные приложения, расширяя свой потенциал как универсальной вычислительной платформы. (Источник: gdb)
Elicit обновил функцию поиска научных статей: Платформа Elicit обновила функцию “Найти статьи”, значительно увеличив скорость загрузки, позволяя загружать до 500 статей за раз и давая пользователям возможность взаимодействовать с полными статьями, а не только с аннотациями. Новый пользовательский интерфейс предлагает боковую панель с резюме и чатом, а также может автоматически предлагать извлекаемый контент на основе исследовательского вопроса, что значительно повышает эффективность исследований. (Источник: stuhlmueller)
Amp Free запускает Agentic-инструмент для программирования с поддержкой рекламы: Amp Free выпустил бесплатный Agentic-инструмент для программирования, который становится бесплатным благодаря “вкусной рекламе” и модели арбитража дешевых токенов. Инструмент призван популяризировать Agentic-программирование, покрывая расходы за счет целевой рекламы (например, Upsell WorkOS), предоставляя разработчикам бесплатный опыт AI-помощи в программировании. (Источник: basetenco)
Replit и Figma интегрируются для оптимизации рабочего процесса AI-дизайна: Replit и Figma интегрировались, чтобы предоставить дизайнерам оптимизированный рабочий процесс AI-дизайна. С помощью Figma MCP и селектора элементов дизайнеры могут точно настраивать дизайн приложений, перетаскивать компоненты непосредственно в существующие приложения для прототипирования, обеспечивая бесшовную связь между дизайном и кодом и повышая эффективность разработки. (Источник: amasad)
Применение DSPy в разработке Agent и улучшении поиска: Фреймворк DSPy используется для реализации проверяемой безопасной деидентификации PII (персонально идентифицируемой информации) и обеспечения конфиденциальности данных с помощью оптимизации GEPA. В то же время, Retrieve-DSPy был выпущен как открытый исходный код, объединяющий различные сложные системы поиска из IR-литературы, с целью помочь разработчикам сравнивать различные стратегии поиска и повышать производительность LLM в сложных задачах поиска. (Источник: lateinteraction, lateinteraction)
📚 Обучение
DeepLearning.AI запускает курс Google ADK по голосовым AI-агентам: DeepLearning.AI в сотрудничестве с Google запустила бесплатный курс “Создание голосовых AI-агентов в реальном времени с помощью Google ADK”, который учит использовать Google Agent Development Kit (ADK) для создания голосовых AI-помощников, от простых до многоагентных подкаст-систем. Курс охватывает Agentic-инференс, использование инструментов, планирование и многоагентное сотрудничество, а также акцентирует внимание на потоке данных и надежности проектирования агентов реального времени. (Источник: AndrewYNg)
Исследование разнообразия LLM: Verbalized Sampling смягчает коллапс режима: Исследовательские группы, включая Стэнфордский университет, предложили технику Verbalized Sampling, которая, требуя от LLM генерировать ответы с распределением вероятностей вместо одного вывода, эффективно смягчает коллапс режима и увеличивает разнообразие генерируемого контента в 2.1 раза, не влияя на качество. Исследование показало, что коллапс режима происходит из-за предпочтения человеческих аннотаторов знакомого текста, и этот метод может восстановить потенциальное разнообразие модели, подходящее для творческого письма, симуляции диалогов и других задач. (Источник: stanfordnlp)
Проблемы оценки AI Agent и набор данных MALT: Нив Парих и команда METR выпустили набор данных MALT для оценки поведения AI Agent, которое может угрожать целостности оценки, такого как “захват вознаграждения” и “поведение саботажа”, в бенчмарках HCAST и RE-Bench. Исследование подчеркивает, что строгая оценка AI Agent сложнее, чем кажется на первый взгляд, и точность бенчмарков может скрывать многие важные детали, требуя более глубоких методов анализа. (Источник: METR_Evals)
Оптимизаторы LLM: Muon и LOTION: Оптимизаторы второго порядка, такие как SOAP и Muon, показали отличные результаты в оптимизации LLM. Команда Шама Какаде предложила LOTION (Low-precision optimization via stochastic-noise smoothing) в качестве альтернативы обучению с учетом квантования (QAT), которая оптимизирует LLM путем сглаживания поверхности потерь квантования, сохраняя при этом все глобальные минимумы истинных потерь квантования, без добавления новых гиперпараметров, и может быть напрямую применена к оптимизаторам, таким как AdamW и Lion. (Источник: jbhuang0604)
Результаты обучения модели nanochat d32: Андрей Карпатый поделился результатами обучения модели nanochat d32. Модель обучалась 33 часа, стоимость составила около 1000 долларов, а оценка CORE достигла 0.31, превзойдя GPT-2. Несмотря на то, что это микромодель, она показала улучшения по показателям предварительного обучения, SFT и RL. Карпатый подчеркивает необходимость рационального подхода к возможностям микромоделей и призывает разработчиков исследовать их потенциал. (Источник: ben_burtenshaw)
Управление контекстом LLM Agent и обучение RL: Исследование рассматривает проблемы ограничения длины контекста LLM Agent при длительном многоэтапном использовании инструментов. Фреймворк SUPO (Summarization augmented Policy Optimization) позволяет Agent обучаться в течение длительного времени за пределами фиксированного контекстного окна путем периодического сжатия истории использования инструментов. Фреймворк Context-Folding, в свою очередь, позволяет Agent активно управлять рабочим контекстом, разветвляя подтраектории и сворачивая промежуточные шаги, что значительно повышает производительность в сложных задачах. (Источник: HuggingFace Daily Papers)
Мультимодальная большая модель UniPixel обеспечивает инференс на уровне пикселей: Гонконгский политехнический университет и Tencent ARC Lab совместно представили первую унифицированную мультимодальную большую модель UniPixel на уровне пикселей, которая достигла SOTA в трех основных задачах: указание объектов, сегментация на уровне пикселей и региональный инференс. Модель вводит “механизм памяти объектов” и унифицированный метод визуального кодирования, поддерживает различные визуальные подсказки, такие как точки, рамки и маски, и превосходит существующие модели в бенчмарках, таких как ReVOS, причем даже модель с 3B параметрами превосходит традиционные модели с 72B параметрами. (Источник: 36氪)
Дорожная карта обучения AI и концепции ML: В социальных сетях были распространены несколько дорожных карт обучения AI, охватывающих такие области, как наука о данных, машинное обучение и AI Agent, подчеркивая, что навыки AI стали необходимыми для профессионального выживания. В то же время, обсуждалась концепция “Internal Covariate Shift” в глубоком обучении, указывая на ее влияние на стабильность обучения модели. Кроме того, обсуждалась важность защиты Agentic AI с помощью разрешений, основанных на намерениях, для снижения рисков злонамеренного поведения. (Источник: Ronald_vanLoon, Reddit r/MachineLearning, Ronald_vanLoon)
💼 Бизнес
OpenAI объявила о пятилетнем бизнес-плане на триллион долларов: OpenAI разработала амбициозную пятилетнюю бизнес-стратегию, чтобы справиться с потенциальными расходами, которые могут превысить 1 триллион долларов в будущем. Планируется генерировать доход путем настройки AI-решений для правительств и предприятий, разработки инструментов для покупок, ускорения коммерциализации Sora и AI-агентов, инновационного долгового финансирования, а также сотрудничества с бывшим главным дизайнером Apple для выпуска AI-оборудования. Руководство OpenAI оптимистично оценивает отдачу, но огромные инвестиции и модель “циклического финансирования” также вызывают опасения рынка по поводу финансового пузыря AI. (Источник: 36氪)
Anthropic ставит агрессивные цели по доходам, ускоряя международную экспансию: Anthropic прогнозирует годовой доход в 9 миллиардов долларов к концу 2025 года и ставит агрессивную цель в 20-26 миллиардов долларов на 2026 год. Корпоративные продукты являются ключевым двигателем роста, компания имеет более 300 тысяч клиентов, а услуги API и Claude Code приносят значительный доход. Компания планирует открыть свой первый зарубежный офис в Бангалоре, Индия, в 2026 году и предоставлять услуги модели Claude правительству США, а также активно ведет переговоры с ближневосточным капиталом MGX о новом раунде финансирования для поддержки расширения AI-продуктов и получения вычислительных мощностей. (Источник: kylebrussell)
Компания Xense Robotics, занимающаяся воплощенным осязанием, завершила раунд финансирования на сотни миллионов юаней: Xense Robotics, компания, специализирующаяся на воплощенном осязании, завершила раунд Pre-A финансирования на сотни миллионов юаней, возглавляемый Futeng Capital (Шанхайский фонд воплощенного интеллекта) при участии промышленных инвесторов, таких как Li Auto. Средства будут направлены на технологические исследования и разработки, итерацию продуктов, расширение команды и развитие рынка. Xense Robotics, ориентированная на мультимодальные технологии тактильного восприятия, предлагает полный спектр тактильных датчиков, симуляторов и систем управления, которые уже внедрены в таких областях, как точная промышленная сборка и гибкая логистика, и получила заказы от таких компаний, как Zhiyuan и Google. (Источник: shaneguML)
🌟 Сообщество
Теория AI-пузыря и рыночные опасения: В Кремниевой долине нарастают дискуссии о завышенных оценках AI-компаний и возможном финансовом пузыре. Рыночные данные показывают, что AI-связанные компании обеспечили 80% роста американского фондового рынка в этом году, но значительные капиталовложения еще не принесли существенной отдачи, и существует явление “циклического финансирования”. Технологические лидеры, такие как Сэм Альтман и Джефф Безос, хотя и признают наличие пузыря, считают, что AI в конечном итоге принесет огромную социальную выгоду и устранит слабых игроков на рынке. (Источник: rao2z)
Влияние AI на интернет-контент и человеческое творчество: Соучредитель Reddit Алексис Оганян считает, что AI-боты и “квази-AI, LinkedIn-мусор” убивают интернет-контент. В то же время, в социальных сетях обсуждается влияние AI на человеческое творчество, например, коллапс режима LLM, приводящий к гомогенизации контента, и то, как люди могут сосредоточиться на более высоком уровне творческой работы после того, как AI заменит базовый труд в таких областях, как писательство. (Источник: DhruvBatra_)
Опасения по поводу конфиденциальности и стоимости AI Agent: В социальных сетях активно обсуждаются вопросы конфиденциальности и стоимости AI Agent. Некоторые пользователи обеспокоены тем, что AI Agent может читать локальные конфиденциальные файлы (например, .env), и призывают к усилению механизмов защиты конфиденциальности. В то же время, один начинающий программист потратил 600 тысяч долларов на вычислительные ресурсы за один день из-за “Vibe Coding”, что вызвало дискуссии о стоимости и рисках использования AI-инструментов. (Источник: scaling01)
Глубокое влияние AI на профессии и экономику: Обсуждение указывает на то, что AI окажет на такие профессии, как юристы и бухгалтеры, такое же разрушительное воздействие, как электронные таблицы на бухгалтеров, а цены на программное обеспечение могут рухнуть из-за резкого снижения затрат на разработку на 95%. В то же время, прогресс AI также вызвал размышления о краткосрочных результатах и долгосрочных целях, а также о том, действительно ли AI может повысить производительность, а не быть просто “хайпом”. (Источник: kylebrussell)
Феномен “Хакими” Google Gemini и личность AI: Google Gemini, из-за своего произношения, получил прозвище “Хакими” в китайском интернете, что вызвало сильную привязанность и дискуссии пользователей о его эмоциональности и “персонификации”. Это спонтанное “AI-лицо”, созданное пользователями, контрастирует с официальным позиционированием Google как инструмента повышения производительности и поднимает глубокие философские и коммерческие вопросы о том, должен ли AI обладать личностью и кто должен ее определять (официальные лица или пользователи). (Источник: 36氪)
Компромисс между производительностью AI-модели и пользовательским опытом: Сообщество обсудило компромисс между производительностью AI-модели и пользовательским опытом, в частности, преимущества Claude Haiku 4.5 в скорости и стоимости, а также предпочтение пользователей “маленьких и быстрых” моделей для повседневных задач. В то же время, некоторые пользователи жаловались на излишнюю многословность GPT-5 Codex в задачах программирования, в то время как модели Anthropic были более лаконичными, что вызвало сравнение длины диалогов и эффективности различных моделей. (Источник: kylebrussell)
Обсуждение выбора GPU-оборудования и производительности: Сообщество углубленно обсудило производительность и соотношение цена/качество различного GPU-оборудования для локального инференса LLM. NVIDIA DGX Spark, чипы Apple M-серии, AMD Ryzen AI Max, а также конфигурации с несколькими видеокартами 3090 имеют свои преимущества и недостатки. Пользователи выбирают в зависимости от бюджета, требований к производительности (например, для моделей MoE, плотных моделей, скорости предварительного заполнения) и совместимости с CUDA. Обсуждение также выявило ограничения показателя “AI TFLOPS” и важность фактической пропускной способности памяти. (Источник: Reddit r/LocalLLaMA)
Лю Цзя из Университета Цинхуа: Эпоха AI принадлежит молодежи, не сковывайте их устаревшим опытом: Профессор Университета Цинхуа Лю Цзя считает, что AI освободит человечество от базового умственного труда, позволяя людям сосредоточиться на более высоком уровне творческого мышления. Он подчеркивает, что эпоха AI принадлежит молодежи, и их следует поощрять к изучению новых моделей работы в симбиозе с AI, а не сковывать устаревшим опытом. Образование должно перейти от “передачи знаний и решения проблем” к “передаче принципов”, развивая у студентов способность эффективно использовать AI для решения проблем и инноваций. (Источник: 36氪)
💡 Другое
Microsoft AI представила новый визуальный образ: Microsoft AI представила совершенно новый визуальный образ, подчеркивающий теплоту, доверие и человечность, с целью создания мира, где технологии делают жизнь более осмысленной. Этот шаг может предвещать новое направление Microsoft в дизайне AI-продуктов и пользовательском опыте, чтобы лучше передать свое видение AI. (Источник: mustafasuleyman)