author: abinng date: 2026-01-31 10:59
createDate:2026-01-31 10:59
前言
本文将手把手带着安装WSL2环境并运行Ubuntu
22.04,安心食用即可,跟完教程即可优雅地使用WSL2进行一些实操,如操作系统实验、简单的基于linux的开发。
本文详细配图,包你成功安装
为什么选择WSL2
二字一词:方便
为什么方便?接下来引用掘金中一文(作者:coderlee)的介绍:
点击展开
在选择运行 Linux 环境时,WSL2(Windows Subsystem for Linux 2)与
VirtualBox、VMware 等传统虚拟机相比具有显著优势。以下是选择 WSL2
的主要理由:
1.
更高的性能和资源效率
轻量级虚拟化:WSL2 使用 Hyper-V
架构的轻量级虚拟机,相比 VirtualBox 的完整虚拟化,占用更少的 CPU
和内存资源。
动态内存管理:WSL2 支持动态分配内存,并在空闲时通过
autoMemoryReclaim ...
auther: abinng date: 2026-01-31 17:52
createDate:2026-01-31 15:05
前言
我在WSL2
安装与配置中配置wsl代理时,提前试了一下windows的终端代理,发现不行,本文诞生
正文
使用curl尝试连接谷歌
1curl.exe -I -v https://www.google.com
发现显示的是超时、连接失败等关键词
那么接下来来配置一下代理(PowerShell)
提一嘴,我的是Clash Verge,其他代理软件的端口号可能不同
12$Env:http_proxy="http://127.0.0.1:7897"$Env:https_proxy="http://127.0.0.1:7897"
再次尝试:
1curl.exe -I -v https://www.google.com
会返回一长串,看第一句就好:
成功了
快捷命令
不能每次需要代理的时候都输入一长串环境变量吧,太麻烦了
PowerShell有一个类似于Linux的.bashrc的配置文件,$PROFILE ...
前言
在学习YOLO之前,请务必要有一定图像分类的深度学习基础,从LeNet到ResNet,基本就可以了,如果你还没学可以去学一下哦(本博客中也有滴)
背景
论文:[1506.02640] You
Only Look Once: Unified, Real-Time Object Detection
YOLO全称 You Only Look Once(你只看一眼),是Joseph
Redmon大神在2016年提出的目标检测方法,开创了“一眼看全图”的新时代。
主要在于,快且准,他是单阶段,检测到目标位置的同时分类。区分于先检测出物体,再进行分类的R-CNN,Fast-RCNN。
网络结构
大致看看
先大致看看结构图
….好像和前面学的LeNet, AlexNet没啥区别呢,都是(卷积, 池化, … ,
全连接层),就是最后有一块不认识的东西,似乎换成Softmax就可以用来图像分类了??
没错,前面的本质上就和之前学习的图像分类的处理差不多,最后的结果就可以用来做检测,所以本文最重要的就是来拆解这个块块。
另外,yolo的输出是前面四个确定框框在哪、多大 ...
author: abinng date: 2025-12-24 15:57
createDate:2025-12-24 15:57
本篇推荐几个知乎链接: Resnet到底在解决一个什么问题呢?
- 知乎 Resnet中残差块的作用是完成恒等变换,那这样的恒等变换的意义是什么,在网络中能起到怎样的作用呢?
- 知乎
背景
残差神经网络(ResNet)是由微软研究院的何恺明、张祥雨、任少卿、孙剑等人提出的。ResNet
在2015 年的ILSVRC(ImageNet Large Scale Visual Recognition
Challenge)中取得了冠军。
残差神经网络的主要贡献是发现了网络加深会出现的“退化现象(Degradation)”,并针对退化现象发明了
“快捷连接(Shortcut
connection)”,极大的消除了深度过大的神经网络训练困难问题。神经网络的“深度”首次突破了100层、最大的神经网络甚至超过了1000层。
引入
在2012年的ILSVRC挑战赛中,取得了冠军,并且大幅度领先于第二名。由此引发了对广泛研究,并让大家树立了 ...
author: abinng date: 2025-12-19 16:19
createDate:2025-12-19 15:26
背景
在2014年的ImageNet图像识别挑战赛中,一个名叫_GoogLeNet_ (Szegedy
et al., 2015)的网络架构大放异彩。
GoogLeNet吸收了NiN中串联网络的思想,并在此基础上做了改进。
这篇论文的一个重点是解决了什么样大小的卷积核最合适的问题。
毕竟,以前流行的网络使用小到,大到的卷积核。
本文的一个观点是,有时使用不同大小的卷积核组合是有利的。本节将介绍一个稍微简化的GoogLeNet版本:我们省略了一些为稳定训练而添加的特殊特性,现在有了更好的训练方法,这些特性不是必要的。
结构
上图是略微简化的GoogLeNet模型,省略了一些为稳定训练而添加的特殊特性
Inception块
上图结构中有一个很明显的、没见过的块,叫Inception块,也就是这个(看起来好恐怖?):
==| 注意:输入在该图下方 |==
这很可能得名于电影《盗梦空间》(Inception),因为电影中的一句话“ ...
前言
为什么要折腾这个?
作为一个博客作者,图床的选择一直是问题:
GitHub +
jsDelivr:曾经的神,现在国内访问经常挂掉,且污染 Commit
记录。
公共免费图床(如
SM.MS、路过图床等):随时可能跑路,数据无价,不敢赌。
国内云厂商
(OSS/COS):速度快但必须备案,且流量费是个无底洞,被人刷一下一夜回到解放前。对个人博客来说,备案流程繁琐。
Cloudflare R2 是目前的终极答案:
真是赛博活佛。。。
免费额度大:10GB 存储 + 1000
万次/月读取,个人博客用一辈子都够了。
免备案:国际大厂,无需 ICP
备案,至少不用担心突然跑路或删图。
零流量费:这是最骚的,R2 的出口流量完全免费(对比
AWS S3 的高昂流量费)。
兼容 S3 API:配合 PicGo/PicList 毫无压力。
本文将带你搭建一套 “防盗链 + 全球 CDN 加速 + 自动压缩 +
零成本” 的图床。
第一步:创建 R2 存储桶
注册/登录:进入 Cloudflare Dashboard。
进入 R2 ...
author: abinng date: 2026-01-21 22:28
createDate:2025-12-17 15:53
背景
与芯片设计中工程师从放置晶体管到逻辑元件再到逻辑块的过程类似,神经网络架构的设计也逐渐变得更加抽象。研究人员开始从单个神经元的角度思考问题,发展到整个层,现在又转向块,重复层的模式。
使用块的想法首先出现在牛津大学的视觉几何组(visual geometry
group)的_VGG网络_中。通过使用循环和子程序,可以很容易地在任何现代深度学习框架的代码中实现这些重复的架构。
VGG在2014年的ImageNet大规模视觉识别挑战(ILSVRC
-2014)中获得了亚军,并不是VGG不够强,当年获得冠军的是GoogLeNet,虽然其屈居亚军,但是由于其规律的设计、简洁可堆叠的卷积块,且在其他数据集上都有着很好的表现,从而被人们广泛使用,从这点来说还是超过了GoogLeNet
人们通常说的VGG是指VGG-16(13层卷积层+3层全连接层),与AlexNet相比,深度更深,参数更多(1.38亿),效果和可移植性更好
结构
与AlexN ...
author: abinng date: 2025-12-17 13:17
createDate:2025-11-27 20:56
背景
在LeNet提出后,卷积神经网络在计算机视觉和机器学习领域中很有名气。但卷积神经网络并没有主导这些领域。这是因为虽然LeNet在小数据集上取得了很好的效果,但是在更大、更真实的数据集上训练卷积神经网络的性能和可行性还有待研究。事实上,在上世纪90年代初到2012年之间的大部分时间里,神经网络往往被其他机器学习方法超越,如支持向量机(support
vector machines)。
而在2012年,ILSVRC大规模视觉识别挑战赛(Imagenet Large Scale Visual
Recognition Challenge),
AlexNet首次引入了深度卷积神经网络,并获得2012的大规模视觉识别挑战赛的冠军,这标志着深度学习在计算机视觉领域的崭露头角。
结构
AlexNet使用了8层卷积神经网络,与LeNet的架构非常相似
每个卷积块中的基本单元:一个卷积层,一个ReLU激活函数,一个最大池化层
AlexNet和L ...
author: abinng date: 2025-12-15 15:41
背景
本篇将介绍LeNet,它是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。这个模型是由AT&T贝尔实验室的研究员Yann
LeCun在1989年提出的(并以其命名),目的是识别图像中的手写数字。
当时,Yann
LeCun发表了第一篇通过反向传播成功训练卷积神经网络的研究,这项工作代表了十多年来神经网络研究开发的成果。
结构
LeNet-5有5层,分为两部分:
特征提取部分:两个卷积层,两个平均池化层
为什么池化层(汇聚层)不算呢,因为这里说的5层,是带参数的层,池化/汇聚操作仅仅是一个运算,不带参数
全连接层:三个全连接层,其中120、84、10代表该层的神经元个数
每个卷积块中的基本单元:一个卷积层,一个sigmoid激活函数,一个平均池化层
数据的传输:
卷积层输入为四维数据 (Batch, Channel, High, Width)
卷积层输出为四维数据 (Batch, FN, OH, OW)
全连接层输入为 ...










