(英)如何使用 LangChain 構建 LLM – 初學指南
大型語言模型( LLM )係非常強大嘅通用推理工具,喺各種情況下都好有用。 但是,使用LLM會帶來與構建傳統軟件不同嘅挑戰:*調用往往係長時間運行嘅,並且會流式傳輸生成嘅輸出

从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
拍攝日期:2023/11/27主講人:梁伯嵩(聯發科技前瞻技術平台資深處長、國立臺灣大學資訊工程系與重點科技學院合聘客座教授)主持人:張登及(臺大人文社會高等研究院副院長、國立臺灣大學政治學系教授)講者簡介:梁伯嵩博士任職於聯發科技,擔任前瞻技術平台資深處長,並兼任臺灣大學資訊工程系與重點科技學院合聘客座教授
Grok-1 是一個參數量達到 3140 億的 AI 大語言模型,其規模超越了 OpenAI GPT-3.5 的 1750 億參數,是目前世界上最大的開源 LLM 大語言模型。馬斯克通過其旗下的 AI 公司 xAI 開發了這一模型
馬斯克旗下的 AI 創企 xAI 在2023 年11月推出了第一代大語言模型 Grok,其中 Grok-0 是最初的版本,擁有 330 億參數。隨後,經過數次改進,推出了Grok-1。這一過程中,xAI 採用了 Mixture-of-Experts(MOE)技術,並對模型進行了持續的優化和增強。
開源時間方面,馬斯克在 2024 年 3 月 17 日正式宣佈開源 Grok-1