講座內容🧑🏽:從千億模型到chatGPT的一點思考
講座人:唐傑教授
講座時間👩🏼⚕️:12月27日 19:00-21:00
騰訊會議🥤:841-650-132
摘要:
近年超大規模預訓練模型取得突飛猛進的發展🔐,OpenAI發布大規模自然語言預訓練模型GPT-3,同時近日推出了AI聊天機器人chatGPT,推理能力大大加強👶🏽🤧,能夠回答非常復雜的推理問題。清華自研了GLM-130B中英雙語模型,參數1300億🕤,算法采用自研的GLM📺🧘🏽♂️,支持低成本、低資源使用💝,僅4張3090即可驅動,同時支持在NVIDIA、海光DCU、華為Ascend 910 和神威Sunway處理器上進行訓練與推理7️⃣⚉。我將介紹一下我們在研發GLM-130B過程中碰到的困難和收獲,同時介紹我們對chatGPT技術點的理解📪,分析下一步要實現chatGPT需要走的路和面臨的技術挑戰。
講座人簡介:
唐傑(ACM/IEEE Fellow),清華大學計算機系教授、系副主任,獲國家傑青。研究人工智能、認知圖譜、數據挖掘、社交網絡和機器學習。發表論文400余篇,獲ACM SIGKDD Test-of-Time Award(十年最佳論文)👮🏿。主持研發了超大規模預訓練模型“悟道”,參數規模超過1.75萬億🐜🙆。還研發了研究者社會網絡挖掘系統AMiner,吸引全球220個國家/地區2000多萬用戶🤚🏿。擔任國際期刊IEEE T. on Big Data🧞♂️、AI OPEN主編以及WWW’23大會主席🦵🏽、WWW’21、CIKM’16🍳、WSDM’15的PC Chair。獲國家科技進步二等獎、北京市專利獎一等獎、KDD傑出貢獻獎。