Hello!
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于

The Data Link Layer

Notice !: Computer Networking_ A Top-Down Approach, Global Edition, 8th Edition for CONTENT Computer Networking_ A Top-Down Approach, Global Edition, 3th Edition for QUESTION Introduction and Servic
2025-06-04
Computer Network > Data Link Layer

朴素贝叶斯法

朴素贝叶斯法的学习与分类基本方法设输入空间 $\mathcal{X} \in \mathbb{R}^n$ 为 $n$ 维向量的集合,输出空间类标记集合 $\mathcal{Y} = \{c_1, c_2, \cdots, c_K \}$。训练数据集 T = \{(x_1, y_1), (x_2, y_2), \dots, (x_N, y_N)\}由 $P(X, Y)$ 独立同分布产生。 朴素贝叶
2025-06-04
机器学习
#算法

期望极大

EM 算法EM 算法通过迭代求 $L(\theta) = \log P(Y | \theta)$ 的极大似然估计。每次迭代包含两步:E步,求期望;M步,求极大化。 算法步骤输入:观测变量数据 $Y$,隐变量数据 $Z$,联合分布 $P(Y, Z | \theta)$,条件分布 $P(Z | Y, \theta)$;输出:模型参数$\theta$。 (1)选择参数初始值 $\theta^{(0)}$
2025-06-03
机器学习
#算法

感知机

Perceptron感知机用于二分类线性问题 感知机的数学定义假设输入空间 $\mathcal{X} \subseteq \mathbb{R}^n$,输出空间是 $\mathcal{Y} = \{+1, -1\}$。由输入空间到输出空间的如下函数: f(x) = \operatorname{sign} (w \cdot x + b) \tag{1}称为感知机。其中,$w$ 和 $b$ 为感知机模
2025-06-03
机器学习
#算法

上下文无关文法

上下文无关文法的定义定义文法 $G = (V, T, P, S)$,其中产生式,除了空产生式外,有如下特点: \forall \alpha \to \beta \in P, \quad \beta \in (V \cup T)^{\ast}, \quad \text{均有 } |\beta| \geq |\alpha|, \text{并且 } \alpha \in V派生树设有 CFG $ G
2025-06-03
形式语言与自动机

最大熵模型

Logistic RegressionLogistic Distribution设$X$是连续随机变量,$X$服从 logistic distribution 是指$X$具有下列分布函数和密度函数: \begin{align} F(x) &= P(X \leq x) = \frac{1}{1 + e^{-(x-\mu)/\gamma}} \tag{1} \\ f(x) &= F'(x) = \f
2025-06-02
机器学习
#算法

条件随机场

Only focus on tagging problem and linear chain Probabilistic Undirected Graphical ModelPairwise Markov PropertyNode $u$, $v$, and all nodes $O$. Their corresponding random variable are $Y_u$, $Y_v$, $
2025-06-01
机器学习
#算法

The Network Layer

Notice !: Computer Networking_ A Top-Down Approach, Global Edition, 3th Edition Dijkstra’s Link-State Algorithm1234567891011121314151617181920N = {u};for (auto a : nodes) { if (isAdj
2025-05-30
Computer Network > Network Layer
#Network Layer #Control Plane #Routing #Networking

提升方法

AdaBoost 算法Data Information: 二分类训练数据集 $T$ \begin{align} T& = \{(x_1, y_1), (x_2, y_2), \ldots, (x_N, y_N)\} \\ x_i \in \mathcal{X}& = \mathbb{R}^n, \quad y_i \in \mathcal{Y} = \{+1, -1\}, \quad i = 1
2025-05-30
机器学习
#算法

支持向量机

Linear SVM in Linearly Separable CaseDefine Training Data T = \\{(x_1, y_1), (x_2, y_2), \ldots, (x_N, y_N)\\}x_i \in \mathcal{X} = \mathbb{R}^n, \quad y_i \in \mathcal{Y} = \{+1, -1\}, \quad i = 1,
2025-05-30
机器学习
#算法
12

搜索

Hexo Fluid