首页>>人工智能->人工智能怎么学csdn(怎么学好人工智能)

人工智能怎么学csdn(怎么学好人工智能)

时间:2023-12-16 本站 点击:0

导读:本篇文章首席CTO笔记来给大家介绍有关人工智能怎么学csdn的相关内容,希望对大家有所帮助,一起来看看吧。

csdn是干什么的

CSDN 是中国专业 IT 社区,致力于为中国软件开发者提供知识传播、在线学习、职业发展等全生命周期服务。创立于 1999 年。CSDN 旗下拥有:

(1)专业的中文 IT 技术社区: CSDN.NET。

(2)移动端开发者专属 APP: CSDN APP、CSDN 学院 APP。

(3)新媒体矩阵微信公众号:CSDN 资讯、程序人生、GitChat、CSDN 学院、AI 科技大本营、区块链大本营、CSDN 云计算、GitChat 精品课、人工智能头条、CSDN 企业招聘。

(4)IT 技术培训学习平台: CSDN 学院。

(5)技术知识移动社区: GitChat。

(6)IT 人力资源服务:科锐福克斯。

(7)高校 IT 技术学习成长平台:高校俱乐部。

CSDN 矩阵尤以技术社区最为出名:

(1)CSDN APP:开发者专属移动APP,提供最新技术资讯、开发知识,助力开发者学习和成长,让技术交流更简单。

(2)CSDN Blog:致力于为开发者打造专业技术写作、分享与交流平台,为技术人提供全面的资讯与知识交流互动。

(3)CSDN 技术论坛:全力为IT开发者打造分享技术心得、讨论技术话题的信息平台。

(4)CSDN 资源下载中心:为 IT 专业人士提供丰富全面、专业的技术资料分享、交流与下载服务。

以上内容参考:百度百科-CSDN

人工智能算法简介

人工智能的三大基石—算法、数据和计算能力,算法作为其中之一,是非常重要的,那么人工智能都会涉及哪些算法呢?不同算法适用于哪些场景呢?

一、按照模型训练方式不同可以分为监督学习(Supervised Learning),无监督学习(Unsupervised Learning)、半监督学习(Semi-supervised Learning)和强化学习(Reinforcement Learning)四大类。

常见的监督学习算法包含以下几类:

(1)人工神经网络(Artificial Neural Network)类:反向传播(Backpropagation)、波尔兹曼机(Boltzmann Machine)、卷积神经网络(Convolutional Neural Network)、Hopfield网络(hopfield Network)、多层感知器(Multilyer Perceptron)、径向基函数网络(Radial Basis Function Network,RBFN)、受限波尔兹曼机(Restricted Boltzmann Machine)、回归神经网络(Recurrent Neural Network,RNN)、自组织映射(Self-organizing Map,SOM)、尖峰神经网络(Spiking Neural Network)等。

(2)贝叶斯类(Bayesin):朴素贝叶斯(Naive Bayes)、高斯贝叶斯(Gaussian Naive Bayes)、多项朴素贝叶斯(Multinomial Naive Bayes)、平均-依赖性评估(Averaged One-Dependence Estimators,AODE)

贝叶斯信念网络(Bayesian Belief Network,BBN)、贝叶斯网络(Bayesian Network,BN)等。

(3)决策树(Decision Tree)类:分类和回归树(Classification and Regression Tree,CART)、迭代Dichotomiser3(Iterative Dichotomiser 3, ID3),C4.5算法(C4.5 Algorithm)、C5.0算法(C5.0 Algorithm)、卡方自动交互检测(Chi-squared Automatic Interaction Detection,CHAID)、决策残端(Decision Stump)、ID3算法(ID3 Algorithm)、随机森林(Random Forest)、SLIQ(Supervised Learning in Quest)等。

(4)线性分类器(Linear Classifier)类:Fisher的线性判别(Fisher’s Linear Discriminant)

线性回归(Linear Regression)、逻辑回归(Logistic Regression)、多项逻辑回归(Multionmial Logistic Regression)、朴素贝叶斯分类器(Naive Bayes Classifier)、感知(Perception)、支持向量机(Support Vector Machine)等。

常见的无监督学习类算法包括:

(1) 人工神经网络(Artificial Neural Network)类:生成对抗网络(Generative Adversarial Networks,GAN),前馈神经网络(Feedforward Neural Network)、逻辑学习机(Logic Learning Machine)、自组织映射(Self-organizing Map)等。

(2) 关联规则学习(Association Rule Learning)类:先验算法(Apriori Algorithm)、Eclat算法(Eclat Algorithm)、FP-Growth算法等。

(3)分层聚类算法(Hierarchical Clustering):单连锁聚类(Single-linkage Clustering),概念聚类(Conceptual Clustering)等。

(4)聚类分析(Cluster analysis):BIRCH算法、DBSCAN算法,期望最大化(Expectation-maximization,EM)、模糊聚类(Fuzzy Clustering)、K-means算法、K均值聚类(K-means Clustering)、K-medians聚类、均值漂移算法(Mean-shift)、OPTICS算法等。

(5)异常检测(Anomaly detection)类:K最邻近(K-nearest Neighbor,KNN)算法,局部异常因子算法(Local Outlier Factor,LOF)等。

常见的半监督学习类算法包含:生成模型(Generative Models)、低密度分离(Low-density Separation)、基于图形的方法(Graph-based Methods)、联合训练(Co-training)等。

常见的强化学习类算法包含:Q学习(Q-learning)、状态-行动-奖励-状态-行动(State-Action-Reward-State-Action,SARSA)、DQN(Deep Q Network)、策略梯度算法(Policy Gradients)、基于模型强化学习(Model Based RL)、时序差分学习(Temporal Different Learning)等。

常见的深度学习类算法包含:深度信念网络(Deep Belief Machines)、深度卷积神经网络(Deep Convolutional Neural Networks)、深度递归神经网络(Deep Recurrent Neural Network)、分层时间记忆(Hierarchical Temporal Memory,HTM)、深度波尔兹曼机(Deep Boltzmann Machine,DBM)、栈式自动编码器(Stacked Autoencoder)、生成对抗网络(Generative Adversarial Networks)等。

二、按照解决任务的不同来分类,粗略可以分为二分类算法(Two-class Classification)、多分类算法(Multi-class Classification)、回归算法(Regression)、聚类算法(Clustering)和异常检测(Anomaly Detection)五种。

1.二分类(Two-class Classification)

(1)二分类支持向量机(Two-class SVM):适用于数据特征较多、线性模型的场景。

(2)二分类平均感知器(Two-class Average Perceptron):适用于训练时间短、线性模型的场景。

(3)二分类逻辑回归(Two-class Logistic Regression):适用于训练时间短、线性模型的场景。

(4)二分类贝叶斯点机(Two-class Bayes Point Machine):适用于训练时间短、线性模型的场景。(5)二分类决策森林(Two-class Decision Forest):适用于训练时间短、精准的场景。

(6)二分类提升决策树(Two-class Boosted Decision Tree):适用于训练时间短、精准度高、内存占用量大的场景

(7)二分类决策丛林(Two-class Decision Jungle):适用于训练时间短、精确度高、内存占用量小的场景。

(8)二分类局部深度支持向量机(Two-class Locally Deep SVM):适用于数据特征较多的场景。

(9)二分类神经网络(Two-class Neural Network):适用于精准度高、训练时间较长的场景。

解决多分类问题通常适用三种解决方案:第一种,从数据集和适用方法入手,利用二分类器解决多分类问题;第二种,直接使用具备多分类能力的多分类器;第三种,将二分类器改进成为多分类器今儿解决多分类问题。

常用的算法:

(1)多分类逻辑回归(Multiclass Logistic Regression):适用训练时间短、线性模型的场景。

(2)多分类神经网络(Multiclass Neural Network):适用于精准度高、训练时间较长的场景。

(3)多分类决策森林(Multiclass Decision Forest):适用于精准度高,训练时间短的场景。

(4)多分类决策丛林(Multiclass Decision Jungle):适用于精准度高,内存占用较小的场景。

(5)“一对多”多分类(One-vs-all Multiclass):取决于二分类器效果。

回归

回归问题通常被用来预测具体的数值而非分类。除了返回的结果不同,其他方法与分类问题类似。我们将定量输出,或者连续变量预测称为回归;将定性输出,或者离散变量预测称为分类。长巾的算法有:

(1)排序回归(Ordinal Regression):适用于对数据进行分类排序的场景。

(2)泊松回归(Poission Regression):适用于预测事件次数的场景。

(3)快速森林分位数回归(Fast Forest Quantile Regression):适用于预测分布的场景。

(4)线性回归(Linear Regression):适用于训练时间短、线性模型的场景。

(5)贝叶斯线性回归(Bayesian Linear Regression):适用于线性模型,训练数据量较少的场景。

(6)神经网络回归(Neural Network Regression):适用于精准度高、训练时间较长的场景。

(7)决策森林回归(Decision Forest Regression):适用于精准度高、训练时间短的场景。

(8)提升决策树回归(Boosted Decision Tree Regression):适用于精确度高、训练时间短、内存占用较大的场景。

聚类

聚类的目标是发现数据的潜在规律和结构。聚类通常被用做描述和衡量不同数据源间的相似性,并把数据源分类到不同的簇中。

(1)层次聚类(Hierarchical Clustering):适用于训练时间短、大数据量的场景。

(2)K-means算法:适用于精准度高、训练时间短的场景。

(3)模糊聚类FCM算法(Fuzzy C-means,FCM):适用于精确度高、训练时间短的场景。

(4)SOM神经网络(Self-organizing Feature Map,SOM):适用于运行时间较长的场景。

异常检测

异常检测是指对数据中存在的不正常或非典型的分体进行检测和标志,有时也称为偏差检测。

异常检测看起来和监督学习问题非常相似,都是分类问题。都是对样本的标签进行预测和判断,但是实际上两者的区别非常大,因为异常检测中的正样本(异常点)非常小。常用的算法有:

(1)一分类支持向量机(One-class SVM):适用于数据特征较多的场景。

(2)基于PCA的异常检测(PCA-based Anomaly Detection):适用于训练时间短的场景。

常见的迁移学习类算法包含:归纳式迁移学习(Inductive Transfer Learning) 、直推式迁移学习(Transductive Transfer Learning)、无监督式迁移学习(Unsupervised Transfer Learning)、传递式迁移学习(Transitive Transfer Learning)等。

算法的适用场景:

需要考虑的因素有:

(1)数据量的大小、数据质量和数据本身的特点

(2)机器学习要解决的具体业务场景中问题的本质是什么?

(3)可以接受的计算时间是什么?

(4)算法精度要求有多高?

————————————————

原文链接:

生活中的人工智能之搜索和推荐算法

姓名:陈心语  学号:21009102266 书院:海棠1号书院

转自: 人工智能在搜索中的应用_u014033218的专栏-CSDN博客

人工智能在搜索的应用和实践_qq_40954115的博客-CSDN博客

【嵌牛导读】日常生活中的搜索和推荐算法也与人工智能有所关联,让我们一起来看看吧!

【嵌牛鼻子】人工智能运用于搜索和推荐算法。

【嵌牛提问】人工智能在搜索和推荐算法中有什么运用呢?

【嵌牛正文】

智能交互

智能交互有三个方面的这部分组成,第一个就是Query推荐,这是比较古老的课题;第二个做智能导购,这是现在正在做的一个原形,后面我会讲为什么做智能导购;第三个内容的展示和个性化的创意。就是说你把商品怎么展示给用户,也是我们认为是交互的一部分。

第一个是Query推荐,这个问题怎么来抽象呢?Query推荐是一个用户当前Query下面我们怎么推荐其它Query,这是我们相关搜索一样的。我们推荐这样的一个Query以后,如果用户一旦点了其中的一个Query,用户的状态就会发生变化,从当前的Query跳到另外一个Query,这是用户状态的变化。第二个就是说我们怎么评价我们推荐的Query的好坏,它由几部分组成,一个Query有没有被点,第二个就是说推荐Query里面,它的SRP页会不会点,因为Query推荐本质上不是Query推荐做的最好就是最好的,它是说最终要在搜索SRP用户有没有买,有没有点击,这才是做的好的,这是第二个收益。还有一个更加间接的,通过Query推,这个状态转到下一个状态以后,这个里面还会推其它Query,还会有其它点击,这个时候也是个间接推荐。如果我不推Query就不能到这个状态,不到状态不会有这个Query,不会有这个收益。我们了解,这就是典型的一个马尔科夫决策过程,我们是用强化学习来做的,Actions就是我们的Query list,根据用户和当前Query推荐其他Query,状态就是User + Query,收益就是包括推荐Query击,还有一个间接收益,间接收益通过bellman 公式可以算出来,这就是一个DQN的强化学习项目。

智能导购

现在的搜索呈现的问题就是说,如果去看搜索的Query都是一些品类词、品牌词、型号词或者属性词。假定用户他知道买什么再来搜索搜,但是有各很大的东西用户不知道买什么吗?智能导购就是做做一个类似智能导购机器人的产品,引导用户怎么搜,用户也可以主动问,获取知识或购物经验。这是后台的算法的一个原形,不久后会上线。

智能内容

因为淘宝的商品,卖家为了适应我们的引擎,做了大量的SEO,里面都是罗列热门的关健词,导致问题淘宝的标题没什么差异,都写的差不多,看标题也不知道什么东西,或者知道但里面没有很多特色的内容。我们做智能内容很重要的出发点是怎么从商品的评价、详情页、属性里面挖出一些比较有卖点,或者商品比较有特色的东西展示给用户,让用户更好的了解商品,这是第一个。第二个淘宝上面还有类似商品聚合的,比如清单,生成一个清单,怎么给清单生成一个比较好的导入的描述,让用户描述这个清单干什么。这里面主要做了这两个事情。具体怎么做的?一个会生成一些Topic,比如行业运营加上我们挖的一些点,比如像手机一般大家关注点会是手机的性价比,拍照是不是清晰,还有速度是不是快,是不是发热什么的,这是用户关注的兴趣点。然后它会根据这个商品会选择一个兴趣点,通过Seq2seq生成短文本。

语义搜索

我们的商品属性基本上是比较标准化的,因为这里淘宝有一个这样的商品库,非标准化的内容是没法上传的。导致的问题是我们的商品内容相对来说是比较规范化的,但是用户的输入的Query不是这样的,比如我这里举一些例子,比如一个新品有各种表达,2017新品,2017冬季新品,是吧?新品,有很多的表达。所以就是从从用户的需求跟商品的内容,就存在了一个语义的Gap。还有我们经常举例,比如三口之家用的电饭锅,很多这种语义的问题,这个语义从语义角度解决语义Match的事情。

大概会有这么几个方面。比如一个就是意图的理解,还有意图的Mapping,比如大容量冰箱,首先知道大的是跟冰箱的容量相关的,冰箱是个类目,最后要Mapping到人的冰箱,把‘大’改写成一个容量大于多少升,类目是冰箱这样才能够比较好的解决我们这个搜索的这个召回的问题。 第二个语义理解,这里面包括Query和商品都要做语义理解,比如通过image tagging计算从图片里面抽取很多文本的语义标签补充到商品文本索引中。 第三个就是现在有这个端到端的深度学习技术来直接学Query和商品的Similarity,通过端到端的深度学习技术来做语义的召回和语义的相关性。

智能匹配

主要就是讲个性化,做个性化的首要就是个性化数据。个性化本质上就是说以用户为中心构建用户的标签,用户的行为,还有用户的偏好,再通过这些数据找到,去Match到商品,比如说你看过相似商品,典型的协同过滤,还有你偏好的品牌的其它商品。那就是基于这些经历了一个以用户为中心的电商图谱,这里面还加了一些辅助的数据,比如商品的相似度,店铺之间的相似度,这样构建了我们这样的叫电商图谱。

个性化召回与向量化召回

召回是这样的,首先从咱们的电商图谱里取出用户的信息,包括比如说年龄性别,还有当地温度是多少,还有行为足迹等等之类的,社交现在没用了,因为这是几年前社交特别火,什么都要掺和一下,其实社交,信息的社交到电商其实风马牛不相及的领域,没有任何价值。所以现在好友这东西几乎没有用。因为不同Query中,用户信息重要性是不一样的,我们根据上下文会做用户信息的筛选或者排序,会找出比较重要的信息做个性化召回。以上是淘宝商品索引结构,传统的搜索关键字是通过搜索关键字召回,而个性化商品索引,除了Query还会有商品簇,簇与簇之间的关系,品牌店铺等等之类的,会加很多个性化的特征做召回,通过这种带的好处是召回的结果跟用户是直接相关的,就召回这一步带来个性化。

但是这种基于行为召回还是存在一个问题的。最重要的问题它的泛化能力会比较差。最典型的比如说你通过协同过滤来做,如果两个商品,没有用户同时看过的话,这两个商品你认为他们相似度是零,这个结论是错的,但是如果通过协同过滤就有这个问题。我们今年实现了向量化召回,包括两步:一个是Similarity learning,通过这个深度学习做端到端的Similarity learning,就会把这个我们的User 和Item会变成一个向量;第二步就是做向量化召回,比如层次聚类,随机游走,learning to hash等,这样的话就是说会极大的提升召回的深度。

个性化工作

在个性化领域其实最重要的一个核心的问题就是怎么去理解用户,怎么感知用户和预测用户行为及偏好。

首先是数据,用户在淘宝有两个中类型重要的基本信息:一个是用户标签,比如年龄、性别、职业等;第二是用户足迹,比如 点过,买过的商品,店铺等;

其次是用户感知要和搜索上下文相关,即这个用户的表征和要用户搜索意图相关;

第三是搜索有很多差异化的任务,比如用户消费能力的预估, User到Item的CTR预估和用户购物状态预估等,是为每个任务做个端到端的深度学习模型还是用统一的用户表征来完成不同的Task?如果每一个任务都做端到端深度学习会有很多问题,比如离线和在线的性能开销会大很多,或部分任务样本太少。

如图是用户感知深度模型,输入X是用户的点击行为序列,下一步是embedding,embedding完以后,通过LSTM把用户行为序列做embedding,因为在搜索用户感知和Query相关,所以加入query 的 attention层,选择和当前query有关系的行为,表征完是Multi-task learning 网络。整个这个网络的参数大概有一百亿个参数,我在双11我们还实现了在线学习。

算法包括智能交互、语义搜索、智能匹配和搜索策略四个方向。

智能交互

商品搜索就是带交互的商品推荐,用户通过关键字输入搜索意图,引擎返回和搜索意图匹配的个性化推荐结果,好的交互技术能够帮助到用户更好的使用搜索引擎,目前搜索的交互主要是主动关键字输入和关键字推荐,比如搜索框中的默认查询词和搜索结果中的文字链等,推荐引擎根据用户搜索历史、上下文、行为和状态推荐关键字。和商品推荐的区别是,关键字推荐是搜索链路的中间环节,关键字推荐的收益除了关键字的点击行为外,还需要考虑对整个购物链路的影响,包括在推荐关键字的后续行为中是否有商品点击、加购和成交或跳转到另外一个关键字的后继行为,这是一个典型的强化学习问题,action 是推荐的关键字候选集合,状态是用户当前搜索关键词、上下文等,收益是搜索引导的成交。除了被动的关键字推荐,我们也在思考搜索中更加主动的交互方式,能够做到像导购员一样的双向互动,主动询问用户需求,挑选个性化的商品和给出个性化的推荐理由,目前我们已经在做智能导购和智能内容方向的技术原型及论证,智能导购在技术上主要是借鉴对话系统,通过引导用户和引擎对话与关键字推荐方式互为补充,包括自然语言理解,对话策略,对话生成,知识推理、知识问答和商品搜索等模块,功能主要包括:a. 根据用户搜索上下文生成引导用户主动交互的文本,比如搜索“奶粉”时,会生成“您宝宝多大?0~6个月,6个月到1岁….”引导文案,提示用户细化搜索意图,如果用户输入“3个月”后,会召回相应段位的奶粉,并在后续的搜索中会记住对话状态“3个月”宝宝和提示用户“以下是适合3个月宝宝的奶粉”,b. 知识导购,包含提高售前知识问答或知识提示,比如“3个月宝宝吃什么奶粉” 回答“1段”,目前对话技术还不太成熟,尤其是在多轮对话状态跟踪、知识问答和自动评价几个方面,但随着深度学习、强化学习和生成对抗学习等技术在NLP、对话策略、阅读理解等领域的应用,越来越多的训练数据和应用场景,domain specific 的对话技术未来几年应该会突飞猛进;智能内容生成,包括生成或辅助人工生成商品和清单的“卖点”,短标题和文本摘要等,让淘宝商品表达更加个性化和多元化。

语义搜索

语义搜索主要是解决关键字和商品内容之间的语义鸿沟,比如搜索“2~3周岁宝宝外套”,如果按照关键字匹配召回结果会远小于实际语义匹配的商品。语义搜索的范围主要包括:a. query tagging和改写,比如新品,年龄,尺码,店铺名,属性,类目等搜索意图识别和归一化,query tagging模型是用的经典的序列标注模型 bi-lstm + CRF,而标签分类(归一化) 作为模型另外一个任务,将序列标注和分类融合在一起学习;b. query 改写,主要是计算query之间相似度,把一个query改写成多个语义相似的query,通常做法是先用不同改写策略生成改写候选query集合,比如词替换、向量化后top k、点击商品相似度等,然后在用ltr对后续集合排序找出合适的改写集合,模型设计和训练相对简单,比较难的是如何构建高质量的训练样本集合,线上我们用bandit 的方法探测部分query 改写结果的优劣,离线则用规则和生成对抗网络生成一批质量较高的样本; c. 商品内容理解和语义标签,通过商品图片,详情页,评价和同义词,上下位词等给商品打标签或扩充商品索引内容,比如用 image tagging技术生成图片的文本标签丰富商品内容,或者更进一步用直接用图片向量和文本向量融合,实现富媒体的检索和查询;d. 语义匹配,经典的DSSM 模型技术把query 和商品变成向量,用向量内积表达语义相似度,在问答或阅读理解中大量用到多层LSTM + attention 做语义匹配,同样高质量样本,特别是高质量负样本很大程度上决定了模型的质量,我们没有采样效率很低的随机负采样,而是基于电商知识图谱,通过生成字面相似但不相关的query及相关文档的方法生成负样本。从上面可以看到query tagging、query相似度、语义匹配和语义相关性是多个目标不同但关联程度非常高的任务,下一步我们计划用统一的语义计算框架支持不同的语义计算任务,具体包括1. 开发基于商品内容的商品表征学习框架,为商品内容理解,内容生成,商品召回和相关性提供统一的商品表征学习框架,重点包括商品标题,属性,详情页和评价等文本信息抽取,图像特征抽取和多模信号融合;2. query 表征学习框架,为query 类目预测,query改写,query 推荐等提供统一的表征学习框架,重点通过多个query 相似任务训练统一的query表征学习模型;3. 语义召回,语义相关性等业务应用模型框架。语义搜索除了增加搜索结果相关性,提升用户体验外,也可以一定程度上遏制淘宝商品标题堆砌热门关键词的问题。

智能匹配

这里主要是指个性化和排序。内容包括:a. ibrain (深度用户感知网络),搜索或推荐中个性化的重点是用户的理解与表达,基于淘宝的用户画像静态特征和用户行为动态特征,我们基于multi-modals learning、multi-task representation learning以及LSTM的相关技术,从海量用户行为日志中直接学习用户的通用表达,该学习方法善于“总结经验”、“触类旁通”,使得到的用户表达更基础且更全面,能够直接用于用户行为识别、偏好预估、个性化召回、个性化排序等任务,在搜索、推荐和广告等个性化业务中有广泛的应用场景,感知网络超过10B个参数,已经学习了几千亿次的用户行为,并且会保持不间断的增量学习越来越聪明; b. 多模学习,淘宝商品有文本、图像、标签、id 、品牌、类目、店铺及统计特征,这些特征彼此有一定程度的冗余和互补,我们利用多模学习通过多模联合学习方法把多维度特征融合在一起形成统一的商品标准,并多模联合学习中引入self-attention实现特征维度在不同场景下的差异,比如女装下图片特征比较重要,3C下文本比较重要等;c. deepfm,相对wide deep 模型,deepfm 增加了特征组合能力,基于先验知识的组合特征能够应用到深度学习模型中,提升模型预测精度;d. 在线深度排序模型,由于行为类型和商品重要性差异,每个样本学习权重不同,通过样本池对大权重样本重复copy分批学习,有效的提升了模型学习稳定性,同时通过融合用户状态深度ltr模型实现了千人千面的排序模型学习;e. 全局排序,ltr 只对单个文档打分然后按照ltr分数和打散规则排序,容易导致搜索结果同质化,影响总页效率,全局排序通过已知排序结果做为上下文预测下一个位置的商品点击概率,有效提升了总页排序效率;f. 另外工程还实现了基于用户和商品向量的向量召回引擎,相对倒排索引,向量化召回泛化能力更强,对语义搜索和提高个性化匹配深度是非常有价值的。以上实现了搜索从召回、排序特征、排序模型、个性化和重排的深度学习升级,在双11无线商品搜索中带来超过10% (AB-Test)的搜索指标提升。

智能决策

搜索中个性化产品都是成交最大化,导致的问题是搜索结果趋同,浪费曝光,今年做的一个重要工作是利用多智能体协同学习技术,实现了搜索多个异构场景间的环境感知、场景通信、单独决策和联合学习,实现联合收益最大化,而不是此消彼长,在今年双11中联合优化版本带来的店铺内和无线搜索综合指标提升12% (AB-Test),比非联合优化版本高3% (AB-Test)。

性能优化

在深度学习刚起步的时候,我们意识到深度模型inference 性能会是一个瓶颈,所以在这方面做了大量的调研和实验,包括模型压缩(剪枝),低秩分解,量化和二值网络,由于缺少相应的指令集和硬件支持,最终只在个别场景下上线,期待支持低精度矩阵计算和稀疏矩阵计算的硬件早日出现。

未来计划

通用用户表征学习。前面介绍的DUPN 是一个非常不错的用户表征学习模型,但基于query 的attention 只适合搜索,同时缺少基于日志来源的attention,难以推广到其他业务,在思考做一个能够适合多个业务场景的用户表征模型,非搜索业务做些简单fine tuning 就能取得比较好的效果;同时用户购物偏好受季节和周期等影响,时间跨度非常大,最近K个行为序列假设太简单,我们在思考能够做life-long learning 的模型,能够学习用户过去几年的行为序列;搜索链路联合优化。从用户进入搜索到离开搜索链路中的整体优化,比如 搜索前的query 引导(底纹),搜索中的商品和内容排序,搜索后的 query推荐(锦囊)等场景;跨场景联合优化。今年搜索内部主搜索和店铺内搜索联合优化取得了很好的结果,未来希望能够拓展在更多大流量场景,提高手淘的整体购物体验;多目标联合优化。搜索除了成交外,还需要承担卖家多样性,流量公平性,流量商业化等居多平台和卖家的诉求,搜索产品中除了商品搜索外还有“穹顶”,“主题搜索”,“锦囊”,“内容搜索”等非商品搜索内容,不同搜索目标和不同内容(物种)之间的联合优化未来很值得深挖。

csdn 人工智能课程靠谱吗

以我的亲身经历为例

首先说一下答案:千万别去

为什么会有上边的结论,首先报名之前无限憧憬,报名之后无限失望

其次,价格太贵,课程讲比较理论化(但是遇到关键的公式推导基本不给你讲),实战,没有实战,老师上课全是录制的课程,基本上都是1年或者2年前的课程,完全是出来圈钱的。而且你会发现csdn是一个废物程序员聚集地,APP体验极差,可能你买的课程,这周有,下周就看不到了,每次更新移动端对app都会出现各种各样的小bug,本来想ipad看课程,结果经常课程都看不到,体验极差,我选的是视觉方向,老实讲,这是我见过的最差的方向和导师,自己讲着讲着把自己绕进去了,课程超级简短,理论不但没讲清楚,一点没有实战,好像是另一个方向的导师卿老师讲的还比较细(机器学习动手实操还阔以),后边选了视觉方向,首选老师给你讲设置环境,讲的花里胡哨,就是问题问题没解决,他给你讲的都是他自己环境搭建好了之后再给你讲,讲的超级不细致,每周的直播课,就是按照录制课程再讲一遍,我以为是老师会手撸代码带大家实现过程呢,结果就呵呵一笑就行了,讲你mlgb。后边的网络训练更拉闸,助教都解决不了问题。你说谁会报名这样的班级,自己给自己添堵吧

什么是深度学习 csdn

深度学习是用于建立、模拟人脑进行分析学习的神经网络,并模仿人脑的机制来解释数据的一种机器学习技术。它的基本特点是试图模仿大脑的神经元之间传递,处理信息的模式。最显著的应用是计算机视觉和自然语言处理(NLP)领域。显然,“深度学习”是与机器学习中的“神经网络”是强相关,“神经网络”也是其主要的算法和手段;或者我们可以将“深度学习”称之为“改良版的神经网络”算法。

以优就业深度学习课程为例,课程中还要学习循环神经网络原理,人工神经网专络及卷积神经网络原理,生成式对抗网络等,还包含了项目实战,如果有兴趣可以去了解了解。

结语:以上就是首席CTO笔记为大家整理的关于人工智能怎么学csdn的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/36966.html