YOLOv1笔记 背景介绍 YOLOv1是Joseph Redmon于2015年提出的目标检测检测算法,YOLO系列(2023/09/20已经出到第8个版本)的特点在于其极高的识别速度,经典目标识别网络还有R-CNN和SSD,这些算法具有较高的准确率但是速度比YOLO慢至少一倍。 值得注意的是,作者Joseph Redmon在发布YOLOv3之后就退出CV界了,原因在于YOLO算法被用于商业中隐私窃取和军事武器当 2023-09-19 CVPR #YOLO
YOLOv2,YOLOv3笔记 YOLO9000: Better, Faster, Stronger(YOLOv2), YOLOv3: An Incremental Improvement 非常好的视频讲解:YouTube - ML For Neerds - YOLO OBJECT DETECTION SERIES 全部代码,自己用JAX+Flax+Optax实现,仅在数据读入处使用TensorFlow,从零开始实现YOLOv 2023-10-04 CVPR #YOLO
ML算法探索 G-VAE 2023学年的研究生机器学习课程的结课展示报告。 详细算法解释请见PDF,在 GitHub - KataCV/G-VAE 上可以找到全部的图片生成结果和代码文件。 2023-10-28 CVPR
使用tinyrenderer入门OpenGL 我的github项目链接, 包含全部完整代码和三维图像数据. 介绍 我们使用的是来自 tinyrenderer 的github项目: 使用C++从零开始建立一个光栅化渲染器, 能够帮助我们入门OpenGL并理解其原理. 它所依赖库非常少, 包含他写的两个库文件, tgaimage.cpp, tgaimage.h 和 .obj 3D模型文件读取库 model.cpp, model.h 和 几 2022-06-05 CVPR
CTC Loss及OCR经典算法CRNN实现 这里我们将基于深度神经网络CNN+CTC loss进行OCR(图像文本识别),可以使用经典CRNN网络,但是我这里使用的是全卷积网络,因为文本长度并不长,所以并不想考虑文本的序列信息,没有使用LSTM部分。 参考文献: (CTC loss)Connectionist Temporal Classification: Labelling Unsegmented Sequence Data wi 2023-10-13 CVPR
计算机视觉与模式识别(CVPR) 期末复习 2022年CVPR期末考试题 计算机视觉为1-11题,模式识别为12-17题 卷积的性质及证明,卷积的计算 双线性插值,计算例子 双边滤波,原理,效果 六种二维几何变换矩阵具体是什么,及对应的性质 Canny边缘检测,具体步骤,什么是好的边缘(这里我没写,ppt里有不难) Harris角点检测检测,具体步骤,不变性与等变性 相机坐标 2023-02-16 CVPR
Jax+Flax+Optax 常用API Jax, Flax, Optax 中的常用API 下述代码测试环境CPU: R7-4800U,无GPU Jax jax.jit jax.jit(func, static_argnums=None, static_argnames=None) -> jit_func 用于对入参数类型为矩阵的纯函数 func 进行编译返回包装后的函数 jit_func,其中 static_argnum 2023-09-03 神经网络框架 > Jax #Jax
Jax+Flax+Optax 学习笔记 As accelerated Numpy 首先Jax有类似 numpy 的函数库,API使用基本一致: import jax.numpy as jnp x = jnp.aranga(int(1e8)) %timeit jnp.dot(x, x) # 比 np.dot() 要快, gpu上更快 First Transformation grad 和数学中求导一致,Jax可以自动对Python中 2023-08-21 神经网络框架 > Jax #Jax
Inside TensorFlow - tf.keras 笔记 学习视频:YouTube - Inside TensorFlow: tf.Keras (Part 1),YouTube - Inside TensorFlow: tf.Keras (Part 1),这两个视频中介绍了Keras的基本实现原理和每个类的自定义方法。 头文件: import tensorflow as tf import tensorflow.experimental.numpy as 2023-07-23 神经网络框架 > TensorFlow2 #TensorFlow
TensorFlow - 使用GradientTape和重写fit训练结果不同的原因 该问题是在使用GradientTape训练MNIST数据集时发现的,尝试使用了三种方式进行训练:直接GradientTape训练,调用fit函数训练,重写fit函数后训练. 发现重写GradientTape训练的正确率尽然有96%,而后两者的正确率90%都不到,这引起了我很大的好奇心,于是通过查阅大量文档和阅读TF源代码一步一步排除问题,最终找到问题原因. 训练集使用最简单的MNIST,重写f 2022-11-23 神经网络框架 > TensorFlow2 #MNIST