首页>课程中心>课程详情
威海人工智能科研留学?背景提升
电话:400-0156-345
关注:2740

详细介绍

      威海集思人工智能科研-威海人工智能科研留学背景提升


  项目将首先回顾包含分类与回归的传统机器学习算法及初步神经网络,而后教授将会介绍用于优化神经网络的数学原理及代码技术。在确保学生具备扎实的理论及编程基础后,项目将进入到关于卷积神经网络原理、架构、优化及应用的核心阶段,学生将根据自身兴趣选择个性化研究课题进行深入研究,在项目结束时提交项目报告,进行成果展示。In this course,you will be taken from basic topics of artificial neural networks to advanced topics such as convolutions.We will review important introductory concepts such as feedforward networks,gradient descent etc and then dive into convolutional neural networks.个性化研究课题参考Suggested Research Fields:算法优化:图卷积神经网络Graph Neural Networks计算机视觉应用:DGD卷积神经网络行人重识别Person re-identification on DGD convolutional neural networks自然语言处理应用:基于自联想记忆与卷积神经网络的跨语言情感分类Auto-associative convolutional neural network based multi-language sentiment classification推荐系统应用:基于标签卷积神经网络的推荐算法Personalised recommender system with tagged convolutional neural network

集思人工智能科研-人工智能科研背景提升

  导师介绍
  Pavlos
  科研项目主任、讲师

  哈佛大学(Harvard University)始建于1636年,是一所享誉世界的私立研究型大学,也是常春藤盟校成员。哈佛大学在学术界享有崇高的地位,并且在世界范围内具有广泛的社会影响力。哈佛大学孕育了8位美国总统,158位诺贝尔奖获得者(世界)和18位菲尔兹奖得主(世界),在2019/2020年U.S.News世界大学排名中位列,2018年QS世界大学计算机科学以及电子工程专业排名位列第六。

集思人工智能科研-人工智能科研背景提升

  项目大纲
  经典机器学习算法回顾及神经网络初步Introduction to Neural Networks,Review of Classification and Regression,and Simple Feed-Forward(FF)Network Neural,Network Architecture,Design Choices
  梯度下降算法Gradient Descent Algorithm
  基于反向传播的自动微分算法Automatic Differentiation using Backpropagation
  神经网络优化技术Neural Network Optimizers
  神经网络正则化在防过拟合中的应用Regularization for Neural Networks
  卷积神经网络基本概念和体系结构Convolutional Neural Networks:Basic Concepts,Padding,Pooling,and CNN Architecture.
  感知野与通过池化层的反向传播Receptive Fields,Backprop through max-pooling
  显著图与神经网络较新技术展望Saliency Maps State Of The Art network
  项目回顾与成果展示Program Review and Final Presentation
  论文辅导与投递Project Deliverables Tutoring
  适合人群
  大学生
  数据科学、数据处理、统计学、机器学习、深度学习等专业的学生学生需要具备线性代数及概率论与数理统计基础,修读过算法与数据结构并能熟练使用如随机森林等经典机器学习算法
上一页 下一页

推荐课程更多>

立即申请体验课

关于我们 | 联系我们 | 威海集思留学背景提升+科研+学术

版权所有:培训指南

  • 在线咨询
  • 电话咨询
  • 预约试听