Songqian Li's Blog

去历史上留点故事

Logistic Regression

逻辑回归的假设函数:

其中是输入,是要求解的参数。

函数图像:

一个机器学习模型实际上是把决策函数限定在某组条件下,这组限定条件决定了模型的假设空间,逻辑回归的假设空间:

它的意思是在给定的条件下,的概率。

Support Vector Machine

直观理解:将数据点通过某个函数映射到高维空间中(我们称这个函数为核函数),这时寻找一个平面(我们称这个平面为超平面)对空间进行切分,达到同类的数据点在同一面的效果,最后将该平面与空间曲面形成的交线投影到原维度中,得到分类结果。

直观演示视频:https://www.youtube.com/watch?v=3liCbRZPrZA

不定期更新……

相关文章
评论
分享
  • 使用PyTorch可视化必须知道的TensorBoard参数

    亲测可用的PyTorch和TensorflowBoard版本,不会出现绘制模型结构图片时空白的情况。 1234torch==1.2.0tensorboard==2.1.1tensorflow==2.1.0tensorboardX==2...

    使用PyTorch可视化必须知道的TensorBoard参数
  • 你看不懂的BERT解读

    本文主要是针对近年来序列模型的发展,例如 BERT、Transformer-XL、XLNet、RoBERTa 以及 XLM 等模型的思路整理。 BERT: Bidirectional Encoder Representations f...

    你看不懂的BERT解读
  • 我发现了Transformer模型的秘密

    本文希望从 Base-Attention 到 Transformer 逐层递进的解释其中的计算细节,从而更好的理解 Transformer 模型。本文主要对模型可能存在的盲区进行解释,可能思路有些跳跃,请谅解。参考资料见文章末尾Ref...

    我发现了Transformer模型的秘密
  • 正则化

    模型越复杂越容易出现过拟合状态,所以需要一种机制来保证我们模型的“简单”,这样我们的模型才能有较好的泛化能力,正则化是这类机制之一。 欧几里得范数: L2 范数: L1 范数: 推导过程 泰勒公式   为什么可以减少过拟合 ...

    正则化
  • 泊松过程推导

    本文将通过计数过程推导 t 时刻事件发生 k 次的概率公式。 I. 计数过程 有这样一段连续时间,事件每经过时间间隔发生一次,这里用代表从到时间内事件发生的次数,那么在简单模型下,事件的发生次数。 众所周知,在实际生活中事件发生的间隔...

    泊松过程推导
  • 《操作系统真象还原》:第十章 输入输出系统

    上一章中我们遇到的字符混乱和 GP 异常问题,根本原因是由于临界区代码的资源竞争,这需要一些互斥的方法来保证操作的原子性。 10.1 同步机制——锁 10.1.1 排查 GP 异常,理解原子操作 多线程执行刷屏时光标值越界导致 G...

    《操作系统真象还原》:第十章 输入输出系统
  • 《操作系统真象还原》:第九章 线程

    线程和进程将分两部分实现,本章先讲解线程。 9.1 实现内核线程 9.1.1 执行流 在处理器数量不变的情况下,多任务操作系统采用多道程序设计的方式,使处理器在所有任务之间来回切换,这称为“伪并行”,由操作系统中的任务调度器决定当前处...

    《操作系统真象还原》:第九章 线程
  • GPU虚拟化

    用户层虚拟化 本地 API 拦截和 API formwarding 在用户态实现一个函数库,假设叫 libwrapper, 它要实现底层库的所有 API; 让 APP 调用这个 libwrapper。如何做? libw...

    GPU虚拟化
  • 硬件虚拟化

    硬件虚拟化介绍 硬件虚拟化要做的事情 体系结构支持 体系结构 实现功能 作用 模式切换 Host CPU <-> Guest CPU 切换 CPU 资源隔离 二阶段地址转换 GVA-> GPA ...

    硬件虚拟化
  • 《操作系统真象还原》:第八章 内存管理系统

    8.1 makefile 简介 这部分可参考阮一峰的讲解:https://www.ruanyifeng.com/blog/2015/02/make.html 8.1.1 makefile 是什么 makefile 是 Linux ...

    《操作系统真象还原》:第八章 内存管理系统