1.4 学习资源
首先欢迎关注微信公众号:AI之城,该公众号由清华、复旦、中科大等多名研究生联合创办,主要负责更新最新的AI顶级会议研究、AI新闻、实习机会、面试笔试总结等。
下面整理了一些免费的顶级ML和AI课程以供参考。
(1)机器学习Coursera联合创始人吴恩达的为期11周的课程
这个机器学习课程比较偏应用,它讲述了有监督和无监督学习、线性和逻辑回归、正则化和朴素贝叶斯等其他算法。该课程还有丰富的案例研究和一些实际应用。要求学生了解概率、线性代数和计算机科学的基础知识,完全可以作为入门课程。此外吴恩达还有一些新课程以供深入学习。
课程链接:https://www.coursera.org/learn/machine-learning。
(2)Udacity的机器学习课
Udacity的课程比较适合初学者,讲解了使用机器学习处理数据集所需的所有知识,例如聚类、决策树、Adaboost、SVM等机器学习算法。此外还有数据操作、数据分析、信息可视化、数据通信以及大规模数据处理等内容。
课程链接:https://www.udacity.com/course/intro-to-machine-learning--ud120。
(3)Google人工智能课
Google的课程不太适合初学者。它包括了深度学习基础、深度神经网络、卷积网络以及文本和序列的深层模型。这门课需要学习者具有Python编程经验和一些GitHub经验,了解机器学习、统计学、线性代数和微积分的基本概念。
课程链接:https://www.udacity.com/course/deep-learning--ud730。
(4)Tom Mitchell机器学习课程
这门课覆盖面比较全,难度也略大一点。主要讲解了代数和概率论、机器学习的基础工具、概率图模型、AI、神经网络、主动学习、增强学习。课程内容简洁,概念解释也比较清楚。其中Tom Mitchell的《Machine Learning》是最经典的机器学习教科书之一。这门课程与之类似,能帮助学习者理清机器学习的发展脉络。
课程链接:http://www.cs.cmu.edu/~tom/10701_sp11/。
(5)斯坦福:人工智能(原理和技术)
这个课程非常著名,网上都很多中文讲解和习题答案。主要讲述了机器学习概念、树搜索、动态规划、启发式、马尔可夫决策过程、约束满足问题、贝叶斯网络、逻辑和任务等各个方面的基础知识。
课程链接:http://web.stanford.edu/class/cs221/。
此外还有我国台湾大学林轩田老师的机器学习基石,Yann Lecun深度学习公开课,Geoffrey Hinton深度学习课程等。总之网上的公开课学习资源非常充足。
人工智能是一个日新月异的学科,现在学生所学的数据结构和十年前的变动并不大。但是人工智能每年都有非常新颖和高效的算法提出,所以如果想深入人工智能这一行业发展的话,就一定要及时阅读最新的AI顶级会议论文,下面介绍一些常见的AI顶级会议。
AAAI是人工智能领域的主要学术会议,由美国人工智能促进协会主办。AAAI成立于1979年,最初名为“美国人工智能协会”(American Association for Artificial Intelligence),2007年才正式更名为“人工智能促进协会”(Association for the Advancement of Artificial Intelligence)。近年的AAAI会议不乏中国学者的身影,南京大学计算机系主任、人工智能学院院长周志华教授,与美国密歇根大学Pascal Van Hentenryck教授一起,担任AAAI 2019大会的程序委员会主席。值得一提的是AAAI 2019的论文摘要提交达到7745篇,创下新纪录。
官网:https://aaai.org/Conferences/。
AISTATS(International Conference on Artificial Intelligence and Statistics)是始于1985年的人工智能与统计学的国际会议,主要关注人工智能、机器学习、统计学及相关领域。2018年AISTATS与ALT(算法学习理论)联合举办会议。
官网:http://www.aistats.org/。
ICLR(International Conference on Learning Representations)由Yann LeCun和Yoshua Bengio等“大牛”发起,虽然是一个很“年轻”的会议,但已经成为深度学习领域不容忽视的重要会议。ICLR 2019共接收1591篇投稿,创下历年新高。投稿论文涉及最多的关键词是强化学习、GAN、生成模型、优化、无监督学习、表示学习等。
官网:http://www.iclr.cc。
COLT全称是计算学习理论年会(Annual Conference on Computational Learning Theory),这是计算学习理论最重要的会议,由ACM每年举办。会议关注学习理论的广泛主题,包括学习算法的设计和分析、学习的统计和计算复杂性、学习的优化方法、无监督、半监督、在线和主动学习等。
官网:http://www.learningtheory.org/colt2019。
ICML(国际机器学习会议)是International Conference on Machine Learning的缩写,即国际机器学习大会,始于1980年。如今,ICML已发展为由国际机器学习学会(IMLS)主办的年度机器学习国际顶级会议。
官网:https://icml.cc/。
IJCAI(国际人工智能联合会议)是人工智能领域最主要的综合性学术会议之一,由于领域热度上涨,从2016年起,IJCAI从原来的每两年举办一次改为每年举办一次,南京大学的周志华教授将担任IJCAI-21的程序主席,成为IJCAI史上第一位华人大会程序主席。2019年IJCAI-19将在中国的澳门举行。
官网:https://www.ijcai19.org/。
NeurIPS的全称是神经信息处理系统会议(Conference and Workshop on Neural Information Processing Systems),始于1987年,是神经计算和机器学习领域的顶级会议。近年的NIPS会议一直以机器学习、人工智能和统计学的论文为主。NIPS会议固定在每年的12月举行,由NIPS基金会主办。NeurIPS 2018一共收到4856篇投稿,创下了历年来的最高记录,最终被录取的论文有1011篇。
官网:https://nips.cc/。
CVPR(IEEE Computer Vision and Pattern Recognition conference)是由IEEE主办的计算机视觉和模式识别领域的顶级会议,始于1983年,每年举办。CVPR颁布的主要奖项有最佳论文奖、最佳学生论文奖、Longuet-Higgins奖(十年时间检验奖)和PAMI青年科学家奖。CVPR2019一共有7144篇论文提交,其中5165篇有效投递论文,比去年CVPR2018增加了56%。
官网:http://cvpr2019.thecvf.com/。
ACL(The Association for Computational Linguistics)是自然语言处理领域的顶级会议,成立于1962年,最初名为机器翻译和计算语言学协会(AMTCL),在1968年更名为ACL。
官网:http://acl2019.org/。
ACM SIGKDD国际会议(简称KDD)是由ACM的知识发现及数据挖掘专委会(SIGKDD)主办的数据挖掘研究领域的顶级年会。KDD大会涉及的议题大多跨学科且应用广泛,吸引了来自统计、机器学习、数据库、互联网、生物信息学、多媒体、自然语言处理、人机交互、社会网络计算、高性能计算以及大数据挖掘等众多领域的专家和学者参会。作为数据挖掘的国际顶级会议,每年都会吸引包括谷歌、微软、阿里巴巴等世界顶级的科技公司参与。
官网:http://www.kdd.org/。