img12www.pngimg.com","img10www.pngimg.com","img2www.pngimg.com","img1www.pngimg.com 为什么img2在最后

你家的&清风&是不是&三青风&?这波山寨真是厉害了
(原标题:快看看你家的“清风”是不是“三青风” !这波山寨真厉害了)
亲们,购物时一定记得看清楚了!你买的是康师傅还是康帅傅?你买的是雪碧还是雷碧?你买的是王老吉还是王老菊?以及,你买的是清风纸巾,还是三青风纸巾......9月15日,一则“买的清风可能是三青风”的微博爬上了热搜,在视频中,真假清风相似度99%,只是“三青风”的价格比较低仅售8元。该卫生纸生产现场没有任何卫生消毒措施,生产出的卫生纸就散落在桌子上,工人们不戴手套直接包装,套上“三青风”的标志。随后,该卫生纸厂被有关部门处理。俗话说,不做雷人的产品不是好山寨,但是“三青风”山寨实在是太巧妙了!在生活中,下面这些产品你肯定遇到过!!1.雲碧VS雪碧2.澳丽澳饼干VS奥利奥3.冰动VS激动VS咏动VS脉动4.这个叫“阿迪狗”吗?5.六个核桃VS六大核桃6.康帅傅方便面和矿泉水7.治治瓜子和洽洽瓜子,几乎难以分辨8.看清楚,是周住牌,不是雕牌洗衣粉9.山寨的彪马看着像一只小猫在抓毛线......10.营养快线变成营养快乐
客服QQ(工作时间:9:00-21:00)
192--115--360
All Rights Reserved摘要:雷锋网按:本文作者FloodSung,本文原载于其知乎专栏——智能单元。雷锋网已获得原作者授权。1前言MetaLearning(元学习)或者叫做LearningtoLearn(学会学习)已经成为继Re
雷锋网按 :本文作者Flood Sung,本文原载于其知乎专栏——智能单元。雷锋网已获得原作者授权。1 前言Meta Learning(元学习)或者叫做 Learning to Learn(学会学习)已经成为继Reinforcement Learning(增强学习)之后又一个重要的研究分支(以后仅称为Meta Learning)。对于人工智能的理论研究,呈现出了Artificial Intelligence --& Machine Learning --& Deep Learning --& Deep Reinforcement Learning --& Deep Meta Learning这样的趋势。之所以会这样发展完全取决于当前人工智能的发展。在Machine Learning时代,复杂一点的分类问题效果就不好了,Deep Learning深度学习的出现基本上解决了一对一映射的问题,比如说图像分类,一个输入对一个输出,因此出现了AlexNet这样的里程碑式的成果。但如果输出对下一个输入还有影响呢?也就是sequential decision making的问题,单一的深度学习就解决不了了,这个时候Reinforcement Learning增强学习就出来了,Deep Learning + Reinforcement Learning = Deep Reinforcement Learning深度增强学习。有了深度增强学习,序列决策初步取得成效,因此,出现了AlphaGo这样的里程碑式的成果。但是,新的问题又出来了,深度增强学习太依赖于巨量的训练,并且需要精确的Reward,对于现实世界的很多问题,比如机器人学习,没有好的reward,也没办法无限量训练,怎么办?这就需要能够快速学习。而人类之所以能够快速学习的关键是人类具备学会学习的能力,能够充分的利用以往的知识经验来指导新任务的学习,因此Meta Learning成为新的攻克的方向。与此同时,星际2 DeepMind使用现有深度增强学习算法失效说明了目前的深度增强学习算法很难应对过于复杂的动作空间的情况,特别是需要真正意义的战略战术思考的问题。这引到了通用人工智能中极其核心的一个问题,就是要让人工智能自己学会思考,学会推理。AlphaGo在我看来在棋盘特征输入到神经网络的过程中完成了思考,但是围棋的动作空间毕竟非常有限,也就是几百个选择,这和星际2几乎无穷的选择对比就差太多了(按屏幕分辨率*鼠标加键盘的按键 =
约等于20,000,000种选择)。然而在如此巨量选择的情况下,人类依然没问题,关键是人类通过确定的战略战术大幅度降低了选择范围(比如当前目标就是造人,挖矿)因此如何使人工智能能够学会思考,构造战术非常关键。这个问题甚至比快速学习还要困难,但是Meta Learning因为具备学会学习的能力,或许也可以学会思考。因此,Meta Learning依然是学会思考这种高难度问题的潜在解决方法之一。经过以上的分析,不过是为了得出下面的结论:Meta Learning是实现通用人工智能的关键!在本文之前,专栏已经发布了两篇和Meta Learning相关的文章:之前采用Learning to Learn这个名称是希望让更多的知友明白这个概念,从本篇开始,我们会直接使用Meta Learning这个名称(其实只是因为这个名称看起来更专业更酷)关于Meta Learning的概念本文就不介绍了,在上面列出的两篇Blog已有讲解。本文将和大家分享一下Meta Learning的一些最前沿的研究进展,可以说是百家争鸣的阶段。2 Meta Learning百花齐放的研究思路为什么说Meta Learning的研究是百家争鸣呢?因为每一家的研究思路都完全不同,真的是各种方法各种试,呈现出一种智慧大爆发的阶段。关于Meta Learning的papers,我收集了一下:songrotek/Meta-Learning-Papers这里主要分析一下最近一两年来的发展情况,先作个分类,然后做一下简要的分析。2.1 基于记忆Memory的方法基本思路:既然要通过以往的经验来学习,那么是不是可以通过在神经网络上添加Memory来实现呢?代表文章:[1] Santoro, Adam, Bartunov, Sergey, Botvinick, Matthew, Wierstra, Daan, and Lillicrap, Timothy. Meta-learning with memory-augmented neural networks. In Proceedings of The 33rd International Conference on Machine Learning, pp. , 2016.[2] Munkhdalai T, Yu H. Meta Networks. arXiv preprint arXiv:, 2017.以Meta-Learning with memory-augmented neural networks这篇文章为例,我们看一下他的网络结构:&img data-rawheight=&558& src=&/uploads/new/article/pic/ced0daa3c3d7f9e536ff5.png& data-rawwidth=&2024& class=&origin_image zh-lightbox-thumb& width=&2024& data-original=&/v2-e4cd5286ace041a0dcfa5ee7_r.png& _src=&/uploads/new/article/pic/ced0daa3c3d7f9e536ff5.png&/&我们可以看到,网络的输入把上一次的y label也作为输入,并且添加了external memory存储上一次的x输入,这使得下一次输入后进行反向传播时,可以让y label和x建立联系,使得之后的x能够通过外部记忆获取相关图像进行比对来实现更好的预测。2.2 基于预测梯度的方法基本思路:既然Meta Learning的目的是实现快速学习,而快速学习的关键一点是神经网络的梯度下降要准,要快,那么是不是可以让神经网络利用以往的任务学习如何预测梯度,这样面对新的任务,只要梯度预测得准,那么学习得就会更快了?[1] Andrychowicz, Marcin, Denil, Misha, Gomez, Sergio, Hoffman, Matthew W, Pfau, David, Schaul, Tom, and de Freitas, Nando. Learning to learn by gradient descent by gradient descent. In Advances in Neural Information Processing Systems, pp. , 2016&img data-rawheight=&688& src=&/uploads/new/article/pic/c02b5c24b94f5bcfe4eca28d718148f.png& data-rawwidth=&1628& class=&origin_image zh-lightbox-thumb& width=&1628& data-original=&/v2-40fcac4bfee_r.png& _src=&/uploads/new/article/pic/c02b5c24b94f5bcfe4eca28d718148f.png&/&这篇文章的思路很清奇,训练一个通用的神经网络来预测梯度,用一次二次方程的回归问题来训练,然后这种方法得到的神经网络优化器比Adam,RMSProp还要好,这样显然就加快了训练。2.3 利用Attention注意力机制的方法基本思路:人的注意力是可以利用以往的经验来实现提升的,比如我们看一个性感图片,我们会很自然的把注意力集中在关键位置。那么,能不能利用以往的任务来训练一个Attention模型,从而面对新的任务,能够直接关注最重要的部分。[1] Vinyals, Oriol, Blundell, Charles, Lillicrap, Tim, Wierstra, Daan, et al. Matching networks for one shot learning. In Advances in Neural Information Processing Systems, pp. , 2016.&img data-rawheight=&926& src=&/uploads/new/article/pic/201708/cc7a5a03c9aa3ae0ef9d9234.png& data-rawwidth=&1482& class=&origin_image zh-lightbox-thumb& width=&1482& data-original=&/v2-1fb6d7116e07bfba289ffd_r.png& _src=&/uploads/new/article/pic/201708/cc7a5a03c9aa3ae0ef9d9234.png&/&这篇文章构造一个attention机制,也就是最后的label判断是通过attention的叠加得到的:attention a则通过g和f得到。基本目的就是利用已有任务训练出一个好的attention model。2.4 借鉴LSTM的方法基本思路:LSTM内部的更新非常类似于梯度下降的更新,那么,能否利用LSTM的结构训练出一个神经网络的更新机制,输入当前网络参数,直接输出新的更新参数?这个想法非常巧妙。[1] Ravi, Sachin and Larochelle, Hugo. Optimization as a model for few-shot learning. In International Conference on Learning Representations (ICLR), 2017.&img data-rawheight=&574& src=&/uploads/new/article/pic/147db54c44d8de09b3081bfbeb9c8.png& data-rawwidth=&1608& class=&origin_image zh-lightbox-thumb& width=&1608& data-original=&/v2-bed4bb3342dee1af5c0e_r.png& _src=&/uploads/new/article/pic/147db54c44d8de09b3081bfbeb9c8.png&/&这篇文章的核心思想是下面这一段:&img data-rawheight=&504& src=&/uploads/new/article/pic/ad39fceeb035c963c833.png& data-rawwidth=&1680& class=&origin_image zh-lightbox-thumb& width=&1680& data-original=&/v2-1bb24f764fd47ada170243_r.png& _src=&/uploads/new/article/pic/ad39fceeb035c963c833.png&/&怎么把LSTM的更新和梯度下降联系起来才是更值得思考的问题吧。2.5 面向RL的Meta Learning方法基本思路:既然Meta Learning可以用在监督学习,那么增强学习上又可以怎么做呢?能否通过增加一些外部信息的输入比如reward,之前的action来实现?[1] Wang J X, Kurth-Nelson Z, Tirumala D, et al. Learning to reinforcement learn. arXiv preprint arXiv:, 2016.[2] Y. Duan, J. Schulman, X. Chen, P. Bartlett, I. Sutskever, and P. Abbeel. Rl2: Fast reinforcement learning via slow reinforcement learning. Technical report, UC Berkeley and OpenAI, 2016.两篇文章思路一致,就是额外增加reward和之前action的输入,从而强制让神经网络学习一些任务级别的信息:2.6 通过训练一个好的base model的方法,并且同时应用到监督学习和增强学习基本思路:之前的方法都只能局限在或者监督学习或者增强学习上,能不能搞个更通用的呢?是不是相比finetune学习一个更好的base model就能work?[1] Finn, C., Abbeel, P., & Levine, S. (2017). Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks. arXiv preprint arXiv:.&img data-rawheight=&478& src=&/uploads/new/article/pic/79fa29c4961f86ebe12f3d86821e8.png& data-rawwidth=&1070& class=&origin_image zh-lightbox-thumb& width=&1070& data-original=&/v2-c190d5bcaff_r.png& _src=&/uploads/new/article/pic/79fa29c4961f86ebe12f3d86821e8.png&/&这篇文章的基本思路是同时启动多个任务,然后获取不同任务学习的合成梯度方向来更新,从而学习一个共同的最佳base。2.7 利用WaveNet的方法基本思路:WaveNet的网络每次都利用了之前的数据,那么是否可以照搬WaveNet的方式来实现Meta Learning呢?就是充分利用以往的数据呀?[1] Mishra N, Rohaninejad M, Chen X, et al. Meta-Learning with Temporal Convolutions. arXiv preprint arXiv:, 2017.&img data-rawheight=&536& src=&/uploads/new/article/pic/201708/beadea472f4affd1fe928.png& data-rawwidth=&1256& class=&origin_image zh-lightbox-thumb& width=&1256& data-original=&/v2-79a1bc32dacf6_r.png& _src=&/uploads/new/article/pic/201708/beadea472f4affd1fe928.png&/&直接利用之前的历史数据,思路极其简单,效果极其之好,是目前omniglot,mini imagenet图像识别的state-of-the-art。2.8 预测Loss的方法基本思路:要让学习的速度更快,除了更好的梯度,如果有更好的loss,那么学习的速度也会更快,因此,是不是可以构造一个模型利用以往的任务来学习如何预测Loss呢?[1] Flood Sung, Zhang L, Xiang T, Hospedales T, et al. Learning to Learn: Meta-Critic Networks for Sample Efficient Learning. arXiv preprint arXiv:, 2017.&img data-rawheight=&498& src=&/uploads/new/article/pic/971abad87e.png& data-rawwidth=&1262& class=&origin_image zh-lightbox-thumb& width=&1262& data-original=&/v2-0ccac1a10a06f57b4ac1c33a16e9d616_r.png& _src=&/uploads/new/article/pic/971abad87e.png&/&本文构造了一个Meta-Critic Network(包含Meta Value Network和Task-Actor Encoder)来学习预测Actor Network的Loss。对于Reinforcement Learning而言,这个Loss就是Q Value。本文详细分析详见:学会学习Learning to Learn:让AI拥有核心价值观从而实现快速学习本文 纽约大学的Kyunghyun Cho 做了评价:&img data-rawheight=&322& src=&/uploads/new/article/pic/201708/fe102ee6a5dcc58ba650d429f74529ac.png& data-rawwidth=&1298& class=&origin_image zh-lightbox-thumb& width=&1298& data-original=&/v2-1dfc2d63f819d23b383c_r.png& _src=&/uploads/new/article/pic/201708/fe102ee6a5dcc58ba650d429f74529ac.png&/&也算是一种全新的思路。3 小结从上面的分析可以看出,Meta Learning方兴未艾,各种神奇的idea层出不穷,但是真正的杀手级算法还未出现,非常期待未来的发展!也希望更多的朋友们可以投入到Meta Learning这个研究方向上来。
本文仅代表作者观点,不代表百度立场。本文系作者授权百度百家发表,未经许可,不得转载。
分享到微信朋友圈
打开微信,点击 “ 发现 ”
使用 “ 扫一扫 ” 即可将网页分享至朋友圈。
扫一扫在手机阅读、分享本文
百家号作者平台APP
扫码下载安卓客户端
便捷管理文章信息
随时查看文章收益分娩期的&五防&&一加强&是什么?_百度宝宝知道如何利用机器学习预测房价?-ZAKER新闻
雷锋网按:文章原标题《Predicting Portland Home Prices》,作者:Lauren Shareshian,译者:夏天,审校:主题曲。本文原载于知乎专栏。对于我在梅蒂斯的最后一个项目,我希望能包含过去三个月里所学到的东西,而预测波特兰房价这个题目正符合我的要求,因为我能够将网络爬取技术、文本自然语言处理,图像上的深度学习模型以及梯度增强技术进行整合来实现这个项目。下面你可以看到我抓取到的 2016 年 7 月至 2017 年 7 月这段时间内波特兰市 8300 个独户住宅的销售数据。&img src=&/uploads/new/article/pic/dbdf1540febe5aabd5f.png& data-rawwidth=&1061& data-rawheight=&818& class=&origin_image zh-lightbox-thumb& width=&1061& data-original=&/v2-719f60a2bd3b436aa23b649_r.png& _src=&/uploads/new/article/pic/dbdf1540febe5aabd5f.png&/&显然,街区在这其中起了非常重要的作用。西山(红色)是镇上最昂贵的地区之一,而东波特兰则便宜很多。平均售价为 44.2 万美元。我希望能够在比街区更细粒度的水平上预测价格。例如,假设以下房子是彼此毗邻的。&img src=&/uploads/new/article/pic/7f4bd94ba244746fe.png& data-rawwidth=&610& data-rawheight=&440& class=&origin_image zh-lightbox-thumb& width=&610& data-original=&/v2-58c62c51e2e806f783104_r.png& _src=&/uploads/new/article/pic/7f4bd94ba244746fe.png&/&&img src=&/uploads/new/article/pic/3e3fd23c92b75409abce5c753ba44.png& data-rawwidth=&610& data-rawheight=&403& class=&origin_image zh-lightbox-thumb& width=&610& data-original=&/v2-f0ba7beccfec7d52bc828_r.png& _src=&/uploads/new/article/pic/3e3fd23c92b75409abce5c753ba44.png&/&这些房子面积相同,在同一年份建成,并位于同一条街上。但是,一个明显能让人产生购买的欲望,而另一个则没有。那么 Zillow 或 Redfin(美国的两家大型房地产网站)或其他公司能够仅仅依靠一些房屋的文字数据来预测它们的价格呢?他们不能。这就是为什么我要把对房屋门口照片的分析作为其中一个特征纳入预测模型的原因。当务之急就是要获取到所有的数据。这比原本预想的要困难的多。首先,我使用的官方 API 来爬取波特兰独户住宅的销售数据。不幸的是,API 存在调用限制(每 10 分钟约 150 次调用),所以我不得不在 AWS 服务器上长时间地运行程序来抓取所有的详细数据。我使用 Zillow API 抓取了每个家庭的元数据和房地产商对房屋的描述。但是,抓取的速度也很慢,因为 Zillow 只允许你每天调用 API 1000 次。(我让丈夫、母亲和几个朋友来帮我获取更多的 API 密钥)最后,数据收集过程中最困难的部分是获取图像。这是因为 Zillow 有获取图片的 API,但 Redfin 没有,但 Redfin 会在房子出售后仍把图片留那,而 Zillow 不会。为了获取到 Redfin 网站上的图片,我编写了一个 Selenium 脚本,在 Google Images 上通过在搜索条目后增加 "Redfin" 一词来搜索房屋地址,然后抓取 Google 列出的第一张图片的 URL。不幸的是,虽然我有了图像的 URL,实际要直接将它们下载下来并不简单。这是因为 Redfin 不允许你使用标准的 Python 包,例如发送请求获取数据,也不允许你使用简单的 curl 命令。幸运的是,在与别人讨论后,我们提出了这样一个想法:在 curl 命令的末尾加上 "User-Agent: Mozilla/5.0 ( M Intel Mac OS X 10_12_6 ) …… ",以此来将你的终端请求伪装成浏览器请求。这终于成功了,最终我抓取到了 8300 个房屋的数据和图片!现在数据有了,我准备要开始实现模型了。如下图所示:&img src=&/uploads/new/article/pic/ebd852c2f4f78138e4e.png& data-rawwidth=&718& data-rawheight=&325& class=&origin_image zh-lightbox-thumb& width=&718& data-original=&/v2-aba8f5e4ff82_r.png& _src=&/uploads/new/article/pic/ebd852c2f4f78138e4e.png&/&让我们来详细介绍一下这三种输入数据类型。 Zillow 元数据包含你原本预期的描述性文字:平方英尺、街区、建造年份等等。当我按 p 值对每个特征进行排序时,出现了一些惊喜的发现。我一直不知道格鲁吉亚建筑是什么样子的,直到我查了一下之后。&img src=&/uploads/new/article/pic/201709/db72f462fab86d9aa92a2cb75b091970.png& data-rawwidth=&1240& data-rawheight=&676& class=&origin_image zh-lightbox-thumb& width=&1240& data-original=&/v2-92dbb528e5cd63b6e1914_r.png& _src=&/uploads/new/article/pic/201709/db72f462fab86d9aa92a2cb75b091970.png&/&我准备采用自然语言处理技术来分析地产商的描述性文字。我对地产商的描述性文字做了两件事情:为每一个描述创建一个字矢量矩阵,这样就可以将其与 Zillow 元数据合并到一个特征矩阵中,还有,用 NLTK 情绪包来计算情绪评分:&img src=&/uploads/new/article/pic/f25d3b96ce61c9ee46d0.png& data-rawwidth=&830& data-rawheight=&429& class=&origin_image zh-lightbox-thumb& width=&830& data-original=&/v2-f5a4bd5de69b9b1ed21d_r.png& _src=&/uploads/new/article/pic/f25d3b96ce61c9ee46d0.png&/&我想,房地产经纪商的平均积极分数很高(平均分数为 0.6,范围在 - 1 到 + 1 之间)并不让人觉得奇怪。因此,把情绪评分作为特征并没有改善模型。但是,在数据集中挖取最积极和最负面的分数非常有趣:&img src=&/uploads/new/article/pic/e1ccfac45cceac956e28d5dd94990.png& data-rawwidth=&766& data-rawheight=&401& class=&origin_image zh-lightbox-thumb& width=&766& data-original=&/v2-e197e9aa7392f1_r.png& _src=&/uploads/new/article/pic/e1ccfac45cceac956e28d5dd94990.png&/&最后,为了将图片合并到模型中,我采用了 VGG16 深度神经网络对图像进行处理,以便提取出它们的特征(8300 x 25000 的图像特征矩阵)。运行该模型的计算量相当得大,所以我需要在 AWS 上安装一个 g2.8xlarge 的 GPU ubuntu 实例。&img src=&/uploads/new/article/pic/b4c8e4a1.png& data-rawwidth=&797& data-rawheight=&444& class=&origin_image zh-lightbox-thumb& width=&797& data-original=&/v2-5d7aa32a58a2fd6f1bc3ac531e101a77_r.png& _src=&/uploads/new/article/pic/b4c8e4a1.png&/&图片模型在预测房价方面的效果如何呢?不错!这些是测试集中预测价格最高的三间屋子,显然,它们真的不错:&img src=&/uploads/new/article/pic/f093d8f4ce1f013a3b3c.png& data-rawwidth=&815& data-rawheight=&369& class=&origin_image zh-lightbox-thumb& width=&815& data-original=&/v2-fd48a69b77d2ad2dcb7d66_r.png& _src=&/uploads/new/article/pic/f093d8f4ce1f013a3b3c.png&/&同样的,图片模型在预测廉价房屋方面也表现得很好:&img src=&/uploads/new/article/pic/201709/baea0dc1e48ce692a6d3d4cee6274ef5.png& data-rawwidth=&807& data-rawheight=&366& class=&origin_image zh-lightbox-thumb& width=&807& data-original=&/v2-30c0ca6eca35ddeea0c5c_r.png& _src=&/uploads/new/article/pic/201709/baea0dc1e48ce692a6d3d4cee6274ef5.png&/&我的模型在处理什么类型的图片时会存在问题呢?包含绿化的房屋!我的模型预测下面这个房屋价值 250 万,但实际上,图中的很多绿化都是免费赠送的!&img src=&/uploads/new/article/pic/bcea91c6b.png& data-rawwidth=&280& data-rawheight=&270& class=&content_image& width=&280& _src=&/uploads/new/article/pic/bcea91c6b.png&/&好的,现在我确信我的图像模型已经挺不错了。我准备将 Zillow 元数据、地产商描述字矩阵和图像特征矩阵组合并到一个矩阵中,然后通过使用梯度提升算法来预测房价。作为一个基准预测,回想一下,数据集的平均房价是 44.2 万元。如果我预测每个家庭都值得这么多,那么平均而言,每个房子的价格就会下降 16.1 万元。而将图像合并到模型中能够立即将该错误降低 2 万元。把地产商描述添加到模型中则会将错误再降低 1 万元。最后,将 Zillow 元数据添加进来,则将平均绝对误差降低到大约 7.1 万元。&img src=&/uploads/new/article/pic/2d61b0aaea3.png& data-rawwidth=&599& data-rawheight=&448& class=&origin_image zh-lightbox-thumb& width=&599& data-original=&/v2-7a472f4f24ecd9f3b84c_r.png& _src=&/uploads/new/article/pic/2d61b0aaea3.png&/&也许你想知道如果在预测房价上只使用 Zillow 元数据的话效果会怎么样?平均来说,它给出了一个 7.0 万元的误差。在添加了房地产商的描述后略微下降到 6.9 万元,但后来添加了图片后却增加到 7.1 万元。换句话说,现在的图片会轻微地降低模型的质量,而不是提升质量。&img src=&/uploads/new/article/pic/f7aeb0d5a521fced8b4.png& data-rawwidth=&518& data-rawheight=&440& class=&origin_image zh-lightbox-thumb& width=&518& data-original=&/v2-7b938ddeab536b_r.png& _src=&/uploads/new/article/pic/f7aeb0d5a521fced8b4.png&/&但是,请注意,图像特征矩阵具有 25000 列,而我只使用了 8300 张照片。我根本没有足够的数据来支撑这种模型。如果我在网上爬一个月并能获得更多的图片的话,我相信将图片整合到模型中将有助于提升预测的准确率。总而言之,在完成这个项目的过程中,我学到了很多东西,也克服了几个重要的困难。我遇到的最大的困难是如何抓取 Redfin 图像以及如何使用 VGG16 模型。我发现 Keras 的文档仍然很少,所以在使用它的时候需要试错很多次。我为自己能完成这个项目而感到自豪,现在我需要做的只是获取更多的数据!你可以在找到 GitHub 项目。文章为简译,更为详细的内容,请查看。
相关标签:
原网页已经由 ZAKER 转码排版
科技频道6小时前
科技频道3小时前
科技频道4小时前
腾讯科技6小时前
科技频道8小时前
科技频道1小时前
威锋网3小时前
cnBeta3小时前
爱范儿1小时前
中关村在线1小时前
Yivian53分钟前
87870虚拟现实网17分钟前
5Giii1小时前
钛媒体4小时前
天极网2小时前

我要回帖

更多关于 png img 的文章

 

随机推荐