數據挖掘(Data mining)一般是指從大量的數據中自動搜索隱藏於其中的有著特殊關係性的信息和知識的過程。

VIP內容

元學習(Metalearning)或者叫做“學會學習”(Learning to learn),它希望模型獲取一種“學會學習”的能力,使其可以在獲取已有“知識”的基礎上快速學習新的任務,它的意圖在於通過少量的訓練實例設計能夠快速學習新技能或適應新環境的模型。

作者寄語

“本書的第一版出版於2009年,在過去的十幾年中,元學習的飛速發展,取得了巨大的進步。於是我們決定出版本書的第二版。在新的版本中,我們添加了AutoML的相關知識,並且深入探討了AutoML與Metalearning的關係;同時,由於自動化工作流程設計仍在初期發育的階段,我們也把相關研究和信息增加到了本書的第二版中。”

圖書簡介

本書的主題元學習,作為機器學習研究中增長最快的領域之一,研究了通過調整機器學習和數據挖掘過程來獲得有效模型和解決方案的方法。這種適應能力通常利用來自過去其他任務的經驗信息,並且適應過程可能涉及機器學習方法。作為與元學習相關的領域和當前的熱門話題,自動化機器學習(AutoML)關注的是機器學習過程的自動化。元學習和AutoML可以幫助AI學習控製不同學習方法的應用並更快地獲取新的解決方案,而無需用戶進行不必要的幹預。

本書全麵而透徹地介紹了元學習和 AutoML的幾乎所有方麵,涵蓋了基本概念和架構、評估、數據集、超參數優化、集成和工作流,以及如何使用這些知識來選擇、組合、調整和配置算法和模型,以更快更好地解決數據挖掘和數據科學問題。因此,它可以幫助開發人員開發可以通過經驗改進自己的係統。

本書是2009年第一版的重大更新,共18章,內容幾乎是上一版的兩倍。這使作者能夠更深入地涵蓋最相關的主題,並結合各自領域最近研究的概述。這本書適用於對機器學習、數據挖掘、數據科學和人工智能領域感興趣的研究人員和研究生。

https://link.springer.com/book/10.1007/978-3-030-67024-5

成為VIP會員查看完整內容
24
42
0

最新論文

With the growth of the academic engines, the mining and analysis acquisition of massive researcher data, such as collaborator recommendation and researcher retrieval, has become indispensable. It can improve the quality of services and intelligence of academic engines. Most of the existing studies for researcher data mining focus on a single task for a particular application scenario and learning a task-specific model, which is usually unable to transfer to out-of-scope tasks. The pre-training technology provides a generalized and sharing model to capture valuable information from enormous unlabeled data. The model can accomplish multiple downstream tasks via a few fine-tuning steps. In this paper, we propose a multi-task self-supervised learning-based researcher data pre-training model named RPT. Specifically, we divide the researchers' data into semantic document sets and community graph. We design the hierarchical Transformer and the local community encoder to capture information from the two categories of data, respectively. Then, we propose three self-supervised learning objectives to train the whole model. Finally, we also propose two transfer modes of RPT for fine-tuning in different scenarios. We conduct extensive experiments to evaluate RPT, results on three downstream tasks verify the effectiveness of pre-training for researcher data mining.

0
0
0
下載
預覽
微信掃碼谘詢專知VIP會員
Top