李宏毅機器學習?2024年,《機器學習》課程暫別,2025年或將繼續。此年,新設《生成式人工智能導論》與《生成式人工智能技術》(擬定)。自2016年起至2023年,每年均開設《機器學習》課程。2023年,技術革新,教育應有所變。以往,每年調整《機器學習》課程,以適應最新技術。然而,2023年變革顯著,決定新開一門課程。那么,李宏毅機器學習?一起來了解一下吧。
李宏毅,臺灣杰出的機器學習專家與教授,以其卓越成果與廣泛影響力在領域內獨樹一幟。
他雖未自立品牌,然而其名已成為機器學習象征。李宏毅以嚴謹教學及前瞻研究,推動領域普及與發展。全球廣受歡迎的視頻教程,被視為機器學習入門者的首選教材,使李宏毅成為品牌代表。其高質量教學與研究成就,彰顯其品牌價值。
2024年,《機器學習》課程暫別,2025年或將繼續。此年,新設《生成式人工智能導論》與《生成式人工智能技術》(擬定)。
自2016年起至2023年,每年均開設《機器學習》課程。2023年,技術革新,教育應有所變。以往,每年調整《機器學習》課程,以適應最新技術。然而,2023年變革顯著,決定新開一門課程。
《生成式人工智能導論》已開始更新,B站同步更新視頻。所有課程資料整理打包至云盤,公眾號回復【26】獲取。
此課程為《生成式人工智能導論》,面向基礎學習者,無需任何前置知識,不需先修機器學習或人工智能課程。對人工智能領域感興趣的初學者,這是一個理想起點。課程從基礎深入,使學員完成學習后,能探索更高級課程。
課程設計注重體驗,包含代碼編寫元素,即使無代碼經驗,助教會提供詳細指導和范例,確保學員跟上步伐。
對《生成式人工智能導論》課程感興趣者,趕快加入學習,抓住這一機遇!
本文討論的是一個圖像識別分類問題,主要介紹了在學習過程中遇到的基線代碼和最終實現的高分策略。首先,我們引入的是基于圖像識別的機器學習項目,具體信息可參閱2023年ML課程網站(ntu.edu.tw)及提供的基線代碼(google.com)。
通過運行基線代碼,我們觀察到了不同層次的基線實現。初始的簡單基線(0.63733)在理解問題的基礎上進行簡單的模型構建。接著,中等基線(0.70000)引入了圖像數據增強,這一策略在識別性能上有顯著提升。具體而言,未進行數據增強的訓練準確性圖表明,圖像數據增強是提高模型表現的關鍵因素。
進一步,優化策略中包含了一個有趣的技巧:通過調整DataLoader的并發數量(Train用4~8個并發,persistent_workers=True,Test用2個并發),可以將訓練時間顯著縮短至9秒一輪,同時CPU核的使用率達到滿載,支持多個訓練任務并行執行,從而加快了實驗進程。
在更高層次的基線(0.81400)中,采用了更復雜的策略,如使用預定義的CNN模型(如resnet)并加入dropout、增加訓練輪數、提高數據變換復雜度等。在深度學習實踐中,這些策略有助于模型的泛化能力。
作業來源源自2022Spring的ML2022Spring-hw2任務,任務來自Kaggle平臺,涉及語音數據處理與機器學習中的分類問題。數據部分包括.pt格式的語音樣本,可通過torch.load讀取,樣本編號存于_split.txt,而音素識別結果則記錄在_labels.txt中。為了構建更豐富的訓練樣本,需將每個音頻幀(39維)前后延伸5幀,形成11幀的樣本。
數據預處理和合并的函數設計復雜,但無需修改,最終能夠處理大規模的訓練集,達到百萬級規模。模型設計采用多層神經網絡,當hidden_layers設置為4時,實際上有5層,首層負責接收輸入。網絡結構的定義采用*[a,b,c]形式作為參數傳遞。
在模型訓練中,采用特定的損失函數和優化器,如增加stepLR學習率調度器,每10輪調整學習率。訓練函數的實現也至關重要,而超參數的選擇則關乎模型性能的關鍵。一個基礎的優化策略是:通過增加拼接幀數至17,將準確率從0.4提升至0.6以上;增加訓練輪數至30輪,根據訓練輸出判斷過擬合情況;調整網絡結構,如設置4個hidden_layers,每個層的hidden_dim設為1024,可使準確率超過0.7。