李航《统计学系方法》第8章:提升方法 - 入门学习笔记

原本的目标是学会gradient boosting decision tree/梯度提升决策树/GBDT,实际上写完一个简单的python Adaboost demo以后就没继续学了。最初的学习原因应该是看到某篇论文里面用了GBDT,所以想入门学习一下boosting大概是什么东西(以前总是跳过这部分)。

目录:
本笔记对应的PDF
一些零散的学习笔记
什么是boosting
Adaboost学习笔记和代码

Gale–Shapley algorithm

介绍,以及手动推算unstable matching pairs
代码应用
大致思路
数据输入
用于检验unstable matching的函数
求解gale-shapley(调包)
多次运行以反复验证
代码汇总

(导航)(2023年6月~7月)基于MIT 6.251J Introduction to Mathematical Programming学习LP(只学到simplex前后)

从2024年的角度来看,直接用MIT intro to linear optimization这本书(或者说MIT 6.251J这门课)开始学习,并强行试图去做书上的一些习题,是不太合理的。我在degeneracy这块地方卡了很久,最终这个系列也就学到simplex就停了。