分类
ASRT 智能语音技术 长期更新的内容

AI柠檬语音识别学习路径和入门资料推荐

对于刚开始接触语音领域的新人来说,如何学习入门是一个棘手的问题。AI柠檬博主经常在群里遇到询问如何入门语音识别或者有什么语音识别学习资料推荐的问题,那么今天博主就在这里做一些如何入门的介绍和相关资料的推荐吧。(纯干货)

分类
NAS专区 综合技术

我是如何搭建NAS私有云服务器的

       熟悉AI柠檬博主的可能会知道,博主除了有搭建在公有云(阿里云和腾讯云等)上的博客和ASRT语音识别项目相关的网站等服务外,还在自己的局域网里搭建了一个物理的私有云服务器,用于个人数据文件的存储,以及一些计算的需求。并且,私有云上的部分服务也是可以通过公网访问的,而且部分公网上的服务也依赖于我的私有云,这样解决了数据存储安全性、数据访问便捷性和综合成本的节约的问题。或许你也需要一套这样的混合云解决方案!

分类
ASRT 智能语音技术 长期更新的内容

教你如何使用ASRT部署中文语音识别API服务器

ASRT是一个中文语音识别系统,由AI柠檬博主开源在GitHub( https://github.com/nl8590687/ASRT_SpeechRecognition )上,为了便于大家使用,本文将手把手按顺序教你如何使用ASRT语音识别系统在测试和生产环境中部署中文语音识别API服务器。文本以CPU (Intel x86_64) + Linux + Python 3 + Nginx 为示例运行环境。

分类
综合技术

Windows安装CUDA和CUDNN运行环境

由于很多同学需要使用Windows系统进行GPU上的计算,比如运行TensorFlow或者Pytorch等,在Windows上正确安装CUDA和CUDNN则成了一个关键的问题。与在Linux上安装的整体流程类似,但是还有一些细节要注意,本文以Windows 10系统为例,进行CUDA环境的安装,并以TensorFlow验证安装的成功。

注:Windows下 TensorFlow的GPU版本最多支持到2.10版本,2.11及以后版本仅支持CPU,如果运行 tf.test.is_gpu_available() 是 False的话,需要注意是否是这种情况。

分类
综合技术

手把手教你从零开始搭建个人博客

曾有不少人问过我怎么搭建自己的博客。其实搭建一个个人的博客有很多种方式,有使用Git Page的,有使用一些博客平台的,也有自己购买网站空间或服务器搭建的,更有大神索性自己开发一套博客程序来用的。本文所介绍的方法全部基于Linux系统服务器和LEMP(即Linux、Nginx、Mysql和PHP),使用著名的WordPress程序进行安装搭建。

分类
后端开发

转载:架构整洁之道, 看这一篇就够了!

本文转载自微信公众号:阿里技术,作者:韩帅

https://mp.weixin.qq.com/s?__biz=MzIzOTU0NTQ0MA==&mid=2247490231&idx=1&sn=b12ac5475855701c7d5ab73bb4d2b8c0

程序的世界飞速发展,今天所掌握的技能可能明年就过时了,但有些知识历久弥新,掌握了它们,你在程序的海洋中就不会迷路,架构思想就是这样的知识。
本文是《架构整洁之道》的读书心得,作者将书中内容拆解后再组织,不仅加入了个人的独到见解,而且用一张详细的知识脉络图帮助大家了解整本书的精华。如果你读过这本书,可以将本文当做一次思想交流,如果你还没看过这本书,更要阅读这篇文章,相信你会得到不同于以往的启发。

分类
NAS专区 综合技术

教你使用Nextcloud搭建自己的私有云盘

你是否在使用百度云时觉得无法忍受龟速般的下载速度呢?你是否觉得在使用OneDrive时觉得网络时常不稳定呢?你是否觉得自己的数据放在别人那里不放心呢?私有云盘你值得拥有!你只要买得起一个树莓派,或者一个VPS (云服务器)实例,就可以搭建一个属于自己的高速云盘,让自己的数据不再流浪~~~Nextcloud是一个基于PHP的开源私有云存储服务程序,本文将教你使用Docker一步步地搭建Nextcloud服务,给自己的数据安个家。

分类
云计算 综合技术

在Linux系统上安装Docker

Docker是一个虚拟化的容器,可以将各种应用服务通过镜像快速安装运行,因此我们有必要学会如何在linux系统上安装docker。

分类
综合技术 长期更新的内容

linux卸载旧版CUDA并安装新版CUDA

使用GPU和CUDA、cuDNN进行深度学习计算的浪潮已经持续了很多年,在此期间,显卡驱动和CUDA版本,以及cudnn深度学习工具包的版本已经更新了很多次。随着新的TensorFlow 2.0版和Pytorch1.3版的发布,我们用于深度学习的机器也需要将运行环境更新到最新版本了,尤其是还在使用CUDA 8.0的话。本文将介绍如何卸载旧版CUDA(如8.0版)并安装新版CUDA(10.0版)。

分类
机器学习及应用

为keras基于TensorFlow后端实现多GPU并行计算

在训练深度学习模型的时候,尤其是大规模深度学习模型的训练,我们可能会遇到一些问题,比如觉得计算速度不够快,或者显存不够用,然而,我们却无法为了提升速度或者降低存储空间占用,从而缩小模型的规模或者数据输入输出的尺寸等。这时,我们可以通过多GPU并行计算来解决这一问题。在Keras框架中,虽然本身内置了一些可以多GPU并行计算的API,但是似乎不起作用而且还常常报错。这里有一份基于TensorFlow后端实现的多GPU并行计算的模块,在Keras上亲自测试通过,可以起到通过多卡扩展显存空间和取得加速比的作用。