PyTorch入门学习:3-Gradient Descent Gradient Descent 1 Introduction 穷举法局限性 分治法:区间内均分点,找到最优后,再在最优点的邻域内继续搜索。 易陷入局部最优解 2 Gradient Descent 在点的梯度方向上取反,即可得到损失下降的方向。 同样难以解决非凸函数局部最优的问题 同时还存在鞍点的问题 3 Application 如图,损失函数的值随着迭代次数的增加而减小,并最终收敛到 2026-02-24 学习笔记 > 人工智能 > PyTorch #Pytorch #AI #Deep learning
PyTorch入门学习:2-Linear Model 1 示例 1.1 Training Set & Test Set(泛化能力) 数据集划分为训练集和测试集,而为了测试集的表现较好,又将训练集划分为训练集和验证集。 1.2 Model design 示例中的数据明显适用线性模型,即 。 Training Loss 定义为模型在训练集上的损失函数值,即 随着训练轮数的增加,Training Loss 会逐渐减小,但 Validatio 2026-02-23 学习笔记 > 人工智能 > PyTorch #Pytorch #AI #Deep learning
PyTorch入门学习:1-Overview 这是PyTorch入门学习系列文章的第一篇,主要介绍PyTorch的基本概念。 本系列文章属于个人笔记,参考课程为PyTorch入门学习。 0. 一些闲话 0.1 版本问题:技术教学滞后性 1. 学习目标 使用PyTorch实现学习系统 理解神经网络/深度学习的基础 要求: Python 基本的数学知识(线性代数、微积分) 2. 什么是智能? 2.1 Human Intelligenc 2026-02-23 学习笔记 > 人工智能 > PyTorch #Pytorch #AI
计算机组成2下-运算方法与运算器 2.2 运算方法与运算器 2.2.1 移位运算 1. 逻辑移位 移除相应位并补0。 应用举例 2.算数移位 算术移位规则 算术移位的对象:有符号数(==针对定点数==,包括定点整数和定点小数) 2025-05-05 学习笔记 > 计算机基础 > 计算机组成 #CS基础 #计算机组成
记博客网站的搭建过程 从零到一:Hexo博客网站的搭建过程和一些坑 1. 简单设计与准备 鉴于本人对网站建设几乎没有经验,我预想的博客网站设计就是一个简单的静态网站,有基本的展示文章和便捷优雅的更新功能即可。博客还是要看重内容,不能太在乎形式,舍本逐末。 基于上面的需求,本网站采用云服务器+hexo静态网站生成器制作。 购买云服务器并配置好安全组,允许 SSH 连接(注意自己服务器的ssh端口是不是默认的22号端口)。 2025-05-01 记录 #杂项 #网络
计算机组成3-存储系统 3.1 概述 3.2 主存储器 3.2.1 SRAM Static Random-Access Memory 1.SRAM存储元 不需要周期刷新 采用多个MOSFET(Metal-Oxide-Semiconductor Field-Effect Transistor)-MOS管构成 2.存储扩展 2025-04-28 学习笔记 > 计算机基础 > 计算机组成 #CS基础 #计算机组成
StackOverflow LINUX Stackoverflow学习笔记 CTF PWN的学习资源过于零散,此文用于整合一些学习所得 原理相关 函数调用栈: CTFwiki中关于栈原理的介绍 这其中包含了对函数调用栈的介绍以及x86与x64的区别 栈溢出原理: CTFwiki关于栈溢出原理的介绍 包含了对栈溢出的基本介绍 2024-06-16 CTF学习 #栈溢出 #CTF
图的概念 数据结构速通之图的概念 相关知识 1.逻辑结构:多对多 2.图graph顶点vertex边edge 3.图G由两个集合构成,V是顶点的有限非空集合,E是V中顶点对的有限集。 4.V是⼀个有限的的⾮空集合,我们也称之为顶点集合,其元素称之为顶点或者点。V = {v1,v2,v3,v4,v5}。|V|表示顶点的数⽬。 5.E是由V中的点组成的⽆序对构成的集合的边集,其元素称之为边,且同⼀点对在E中可以 2024-03-07 学习笔记 > 基础算法与数据结构 #数据结构 #算法 #CS基础
时间复杂度 数据结构速通之时间复杂度 前导知识 1.每种C语言语句运行的速度一般不同,基本取决于每条指令对应机器指令的条数。又因为其中差距极小,近似地认为每条语句执行时间相同。由此近似地得出1s可执行10^8条语句。 2024-03-02 学习笔记 > 基础算法与数据结构 #算法