ICML 是 International Conference on Machine Learning的縮寫,即國際機器學習大會。ICML如今已發展為由國際機器學習學會(IMLS)主辦的年度機器學習國際頂級會議。

VIP內容

這個月初,機器學習頂會 ICML 結束了 2020 年的論文投稿,作為最“硬核”的機器學習會議之一,由於 ICML 並沒有硬性限製投稿論文在 ArXiv 上的發表,所以部分投稿文章也提前地放到了 ArXiv 上。專知借此機會推薦幾篇放到 ArXiv 上的 ICML 投稿文章,一窺 ICML2020中的 重要的幾篇論文究竟在研究什麼?這些論文來自牛津大學、上海交大、阿裏巴巴、Facebook、伯克利、MIT、劍橋、微軟等,涵蓋了最新的熱門話題:自監督學習、強化學習、圖學習、持續終身學習、聯邦學習、數據隱私問題等

1、聯邦學習,Distributed Non-Convex Optimization with Sublinear Speedup under Intermittent Client Availability(分布式非凸優化與次線性加速下的間歇客戶端可用性)

上海交通大學,University of Texas at Dallas,阿裏巴巴

作者:Yikai Yan, Chaoyue Niu, Yucheng Ding, Zhenzhe Zheng, Fan Wu, Guihai Chen, Shaojie Tang, Zhihua Wu

摘要:聯邦學習是一種新的分布式機器學習框架,在這個框架中,一群異構的客戶機協作地訓練一個模型,而不共享訓練數據。在這項工作中,我們考慮了聯邦學習中一個實際且普遍存在的問題:間歇性客戶端可用性,其中合格的客戶端集可能在訓練過程中發生更改。這種間歇性的客戶端可用性模型會嚴重影響經典的聯邦平均算法(簡稱FedAvg)的性能。我們提出了一個簡單的分布式非凸優化算法,稱為聯邦最新平均(簡稱FedLaAvg),它利用所有客戶端的最新梯度,即使客戶端不可用,在每次迭代中共同更新全局模型。我們的理論分析表明,FedLaAvg達到了$O(1/(N^{1/4} T^{1/2}))$的收斂速度,實現了相對於客戶總數的次線性加速。我們使用CIFAR-10數據集實現和評估FedLaAvg。評價結果表明,FedLaAvg確實達到了次線性加速,測試精度比FedAvg提高了4.23%。

地址:

//www.webtourguide.com/paper/409e21c47c63f1847126af70ad874ba8

2、自監督學習,Improving Molecular Design by Stochastic Iterative Target Augmentation(通過隨機迭代目標增強改進分子設計)

UC Berkeley ,MIT ,劍橋 University of Cambridge

作者:Kevin Yang, Wengong Jin, Kyle Swanson, Regina Barzilay, Tommi Jaakkola

摘要:在分子設計中,生成模型往往是參數豐富的、需要大量數據的神經模型,因為它們必須創建複雜的結構化對象作為輸出。由於缺乏足夠的訓練數據,從數據中估計這些模型可能具有挑戰性。在這篇論文中,我們提出了一種非常有效的自我訓練方法來迭代創造額外的分子目標。我們首先用一個簡單的屬性預測器對生成模型進行預訓練。然後使用屬性預測器作為似然模型,從生成模型中篩選候選結構。在隨機EM迭代過程中,迭代生成和使用目標,以最大限度地提高候選結構被接受的對數似然性。一個簡單的拒絕(重權)采樣器就足以獲得後驗樣本,因為生成模型在預訓練後已經是合理的。我們證明了在無條件和條件分子設計的強基線上有顯著的進展。特別是,我們的方法在條件分子設計方麵比以前的最先進技術的絕對增益高出10%以上。

地址:

https://arxiv.org/abs/2002.04720

3、圖神經網絡,Graph Prolongation Convolutional Networks: Explicitly Multiscale Machine Learning on Graphs, with Applications to Modeling of Biological Systems(圖延長卷積網絡:在圖上顯式多尺度機器學習,用於生物係統建模)

University of California Irvine, Irvine, California, USA.

作者:C.B. Scott, Eric Mjolsness

摘要:我們定義了一種新型的集成圖卷積網絡模型。該集成模型利用優化後的線性投影算子在圖的空間尺度之間進行映射,學習對各個尺度的信息進行聚合,從而進行最終的預測。我們計算這些線性投影算子作為一個目標函數的infima,該目標函數與每個GCN使用的結構矩陣相關。利用這些投影,我們的模型(圖擴展卷積網絡)在微管彎曲粗粒機械化學模擬中預測單體亞單元的勢能方麵優於其他GCN整體模型。我們通過測量訓練每個模型所花費的時間以及壁鍾時間來演示這些性能改進。因為我們的模型在多個尺度上學習,所以有可能在每個尺度上按照預定的粗細訓練時間表進行訓練。我們研究了幾個從代數多重網格(AMG)文獻改編的這樣的調度,並量化了每個調度的計算收益。最後,我們證明了在一定的假設下,我們的圖延拓層可以分解成更小的GCN操作的矩陣外積。

地址:

https://arxiv.org/abs/2002.05842

4、強化學習,Reinforcement Learning Enhanced Quantum-inspired Algorithm for Combinatorial Optimization(強化學習增強的量子啟發組合優化算法)

Russian Quantum Center, Moscow, University of Oxford

作者:Dmitrii Beloborodov A. E. Ulanov Jakob N. Foerster Shimon Whiteson A. I. Lvovsky

摘要:量子硬件和量子啟發算法在組合優化中越來越受歡迎。然而,這些算法可能需要對每個問題實例進行仔細的超參數調優。我們使用一個強化學習代理與一個量子啟發算法來解決能量最小化問題,這相當於最大割問題。代理通過調整其中一個參數來控製算法,其目標是改進最近看到的解決方案。我們提出了一個新的重新排序的獎勵(R3)方法,使穩定的單機版本的自我遊戲訓練,幫助代理人逃脫局部最優。對任意問題實例的訓練都可以通過應用對隨機生成問題訓練的agent的轉移學習來加速。我們的方法允許采樣高質量的解決方案,以高概率,並優於基線啟發和一個黑匣子超參數優化方法。

地址:

//www.webtourguide.com/paper/fb7eef4291247609ac9407e3211cbe1d

5、語言模型,Aligning the Pretraining and Finetuning Objectives of Language Models(對齊語言模型的預訓練和微調目標)

微軟

作者:Nuo Wang Pierse, Jingwen Lu

摘要:我們證明了在語言模型訓練中明確地將訓練前的目標與finetuning目標相一致可以顯著地提高finetuning任務的性能,並減少所需的finetuning示例的最少數量。從目標對齊中獲得的性能裕度允許我們為可用訓練數據較少的任務構建更小尺寸的語言模型。我們通過將目標對齊應用於興趣概念標簽和縮略詞檢測任務,為這些主張提供了經驗證據。我們發現,在目標對齊的情況下,我們的768×3和512×3 transformer語言模型在每個任務中僅使用200個finetuning示例進行概念標記和縮略詞檢測的準確率分別為83.9%/82.5%和73.8%/70.2%,比未經目標對齊預處理的768×3模型的準確率高了+4.8%/+3.4%和+9.9%/+6.3%。我們在數百個訓練示例或更少的“少量示例學習”中命名finetuning小語言模型。在實踐中,由目標對齊所支持的示例學習很少,這不僅節省了人工標記的成本,而且使在更實時的應用程序中利用語言模型成為可能。

地址:

https://arxiv.org/abs/2002.02000

6、終身學習,Lipschitz Lifelong Reinforcement Learning(Lipschitz終生強化學習)

ISAE-SUPAERO, Universite de Toulouse, France

作者:Erwan Lecarpentier, David Abel, Kavosh Asadi, Yuu Jinnai, Emmanuel Rachelson, Michael L. Littman

摘要:我們研究了agent麵臨一係列強化學習任務時的知識遷移問題。我們在馬爾可夫決策過程之間引入了一個新的度量,並證明了封閉的MDPs具有封閉的最優值函數。形式上,最優值函數是關於任務空間的Lipschitz連續函數。這些理論結果為我們提供了一種終身RL的值轉移方法,我們用它來建立一個具有改進收斂速度的PAC-MDP算法。我們在終身RL實驗中證明了該方法的優越性。

地址:

https://arxiv.org/abs/2001.05411

7、圖學習,Deep Coordination Graphs(深度協調圖)

University of Oxford

作者:Wendelin Böhmer, Vitaly Kurin, Shimon Whiteson

摘要:我們介紹了多智能體協同強化學習的深度協調圖。DCG根據協調圖將所有agent的聯合價值函數分解為agent對之間的支付,從而在表征能力和泛化之間進行靈活的權衡。通過在圖上傳遞局部消息,可以最大限度地實現該值的最大化,這使得使用Q-learning對值函數進行端到端的訓練成為可能。使用深度神經網絡對報酬函數進行近似,利用參數共享和低秩近似顯著提高樣本效率。我們證明了DCG可以解決捕食者-被捕食者的任務,這些任務突出了相對泛化的病態,同時也挑戰了星際爭霸2的微觀管理任務。

地址:

https://arxiv.org/abs/1910.00091

8、數據隱私權,Certified Data Removal from Machine Learning Models(從機器學習模型中移除經過認證的數據)

Cornell University, New York, USA Facebook AI Research

作者:Chuan Guo, Tom Goldstein, Awni Hannun, Laurens van der Maaten

摘要:良好的數據管理需要根據數據所有者的要求刪除數據。這就提出了這樣一個問題:一個隱式地存儲有關其訓練數據的信息的訓練過的機器學習模型是否應該以及如何受到這種刪除請求的影響。有可能從機器學習模型中“刪除”數據嗎?我們通過定義認證刪除來研究這個問題:一個非常有力的理論保證,從其中刪除數據的模型不能與從一開始就沒有觀察到數據的模型區分開來。建立了線性分類器的認證去除機製,並對學習環境進行了實證研究。

地址:

https://arxiv.org/abs/1911.03030

成為VIP會員查看完整內容
0
41
3

最新論文

Distributed implementations of gradient-based methods, wherein a server distributes gradient computations across worker machines, need to overcome two limitations: delays caused by slow running machines called 'stragglers', and communication overheads. Recently, Ye and Abbe [ICML 2018] proposed a coding-theoretic paradigm to characterize a fundamental trade-off between computation load per worker, communication overhead per worker, and straggler tolerance. However, their proposed coding schemes suffer from heavy decoding complexity and poor numerical stability. In this paper, we develop a communication-efficient gradient coding framework to overcome these drawbacks. Our proposed framework enables using any linear code to design the encoding and decoding functions. When a particular code is used in this framework, its block-length determines the computation load, dimension determines the communication overhead, and minimum distance determines the straggler tolerance. The flexibility of choosing a code allows us to gracefully trade-off the straggler threshold and communication overhead for smaller decoding complexity and higher numerical stability. Further, we show that using a maximum distance separable (MDS) code generated by a random Gaussian matrix in our framework yields a gradient code that is optimal with respect to the trade-off and, in addition, satisfies stronger guarantees on numerical stability as compared to the previously proposed schemes. Finally, we evaluate our proposed framework on Amazon EC2 and demonstrate that it reduces the average iteration time by 16% as compared to prior gradient coding schemes.

0
0
0
下載
預覽
Top