分类
评论型文章

转载:中文互联网的凋零,正在杀死中国人工智能的未来【为什么我们搞不出ChatGPT】

本文转载自B站UP主“图灵的猫”。本视频主要分析了中国当前为什么在人工智能尤其是中文语言大模型方面迟迟难以超远OpenAI的ChatGPT水平的原因,并提出了自己的建议措施和呼吁。AI柠檬博主基于自己从业几年来的自身经历,对该UP主的这一观点表示认同,也真心希望渐渐凋零的中文互联网能够在人工智能时代通过引导,在有志之士的努力下,再次走向有序开放和繁荣缤纷,让中文互联网内容的丰富性能够在全世界名列前茅。

大家如果喜欢请支持一下B站原UP主视频:
https://www.bilibili.com/video/BV1Nm4y1z7AT

分类
Python学习 程序设计

转载:如何让 python 处理速度翻倍?内含代码

本文转载自:机器之心 · 阿里技术

https://www.jiqizhixin.com/articles/2019-12-25-2

阿里妹导读:作为在日常开发生产中非常实用的语言,有必要掌握一些python用法,比如爬虫、网络请求等场景,很是实用。但python是单线程的,如何提高python的处理速度,是一个很重要的问题,这个问题的一个关键技术,叫协程。本篇文章,讲讲python协程的理解与使用,主要是针对网络请求这个模块做一个梳理,希望能帮到有需要的同学。

分类
学界业界动态 智能语音技术

10分钟标注数据胜过一年前的960h数据,FAIR新研究取得语音识别大进展(模型已开源)

近日,来自 FAIR 的研究者提出结合自训练和无监督预训练执行语音识别任务,证明这两种方法存在互补性,并取得了不错的结果。

来自机器之心翻译,有修改 https://www.jiqizhixin.com/articles/2020-11-05-10

自训练和无监督预训练已经成为使用无标注数据改进语音识别系统的有效方法。但是,我们尚不清楚它们能否学习类似的模式,或者它们能够实现有效结合。

最近,Facebook 人工智能研究院(FAIR)一项研究显示,伪标注和使用 wav2vec 2.0 进行预训练在多种标注数据设置中具备互补性。

只需来自 Libri-light 数据集的 10 分钟标注数据和来自 LibriVox 数据集的 5.3 万小时无标注数据,该方法就能在 Librispeech clean 和 other 测试集上取得 3.0%/5.2% 的 WER(词错率),甚至打败了仅仅一年前的基于 960 个小时标注数据训练的最优系统。在 Librispeech 所有标注数据上训练后,该方法可以达到 1.5%/3.1% 的词错率。

分类
云计算 后端开发

转载:服务端高并发分布式架构演进之路

本文转载自segmentfault.com

https://segmentfault.com/a/1190000018626163

1. 概述

本文以淘宝作为例子,介绍从一百个到千万级并发情况下服务端的架构的演进过程,同时列举出每个演进阶段会遇到的相关技术,让大家对架构的演进有一个整体的认知,文章最后汇总了一些架构设计的原则。

特别说明:本文以淘宝为例仅仅是为了便于说明演进过程可能遇到的问题,并非是淘宝真正的技术演进路径

分类
后端开发

转载:架构整洁之道, 看这一篇就够了!

本文转载自微信公众号:阿里技术,作者:韩帅

https://mp.weixin.qq.com/s?__biz=MzIzOTU0NTQ0MA==&mid=2247490231&idx=1&sn=b12ac5475855701c7d5ab73bb4d2b8c0

程序的世界飞速发展,今天所掌握的技能可能明年就过时了,但有些知识历久弥新,掌握了它们,你在程序的海洋中就不会迷路,架构思想就是这样的知识。
本文是《架构整洁之道》的读书心得,作者将书中内容拆解后再组织,不仅加入了个人的独到见解,而且用一张详细的知识脉络图帮助大家了解整本书的精华。如果你读过这本书,可以将本文当做一次思想交流,如果你还没看过这本书,更要阅读这篇文章,相信你会得到不同于以往的启发。

分类
学界业界动态 评论型文章

转载:西电校长杨宗凯走进《中国经济大讲堂》解读信息技术如何翻转课堂

本文转载自微信公众号:西安电子科技大学

11月30日晚22时,西安电子科技大学校长杨宗凯受邀走进CCTV2央视财经频道《中国经济大讲堂》“奋斗在科技前沿”栏目,以“信息技术如何‘翻转’课堂”为题,为观众深度解读如何利用信息技术,促进教育融合创新发展。

央视视频回放地址:
http://tv.cctv.com/2019/12/02/VIDExp5vgY9AhtdtrK75cSln191202.shtml

分类
学界业界动态 综合技术 评论型文章

转载:为什么大部分人做不了架构师?这2点是关键

本文转载自“机器之心·阿里技术”

原文: https://www.jiqizhixin.com/articles/2019-11-21-9

阿里妹导读:选择有时候比努力重要,真正厉害的人不仅仅是埋头苦干,而是会利用好的思维方式、好的方法,看穿事物的本质,顺势而为,找到事情的最优解,并懂得举一反三。架构师是程序员的目标之一,但大多数程序员无法成为架构师。真正厉害的架构师具备什么样的思维方式,到底强在哪?今天,韩帅为你揭秘。

分类
学界业界动态 评论型文章

西安电子科技大学焦李成:AI发展,人才培养首当其冲

本文转载自 机器之心 · 大数据文摘

9月8日,以“人工智能:技术创新与社会影响”为主题的百千万人才工程创新大讲堂在京开幕。中国科学院副院长相里斌、人力资源社会保障部副部长汤涛出席活动。中国科学院院士、中科院自动化所智能感知与计算中心主任谭铁牛、中国科学院院士陈霖分别发表主旨报告。

其中,就人工智能人才培养的探索,来自西安电子科技大学的焦李成教授发表看法。

分类
机器学习及应用

浅谈深度学习:如何计算模型以及中间变量的显存占用大小

前言

亲,显存炸了,你的显卡快冒烟了!

torch.FatalError: cuda runtime error (2) : out of memory at /opt/conda/conda-bld/pytorch_1524590031827/work/aten/src/THC/generic/THCStorage.cu:58

想必这是所有炼丹师们最不想看到的错误,没有之一。

OUT OF MEMORY,显然是显存装不下你那么多的模型权重还有中间变量,然后程序奔溃了。怎么办,其实办法有很多,及时清空中间变量,优化代码,减少batch,等等等等,都能够减少显存溢出的风险。

但是这篇要说的是上面这一切优化操作的基础,如何去计算我们所使用的显存。学会如何计算出来我们设计的模型以及中间变量所占显存的大小,想必知道了这一点,我们对自己显存也就会得心应手了。

本文转载自:Oldpan的个人博客
浅谈深度学习:如何计算模型以及中间变量的显存占用大小(https://oldpan.me/archives/how-to-calculate-gpu-memory)

分类
学界业界动态

文因互联 CEO 鲍捷:确保搞砸人工智能项目的十种方法

本文转载自机器之心

做成一件事儿不容易,而坑恒在。

鲍捷博士于5月10日在将门创投的线上 talk 中盘点了人工智能项目的大坑小坑,选出了看上去非常反常识的十个经典坑

这是一篇大实话合集,但别绝望,最后将会放出从二十年踩坑经验中总结出的彩蛋,共勉。