The Data Link Layer Notice !: Computer Networking_ A Top-Down Approach, Global Edition, 8th Edition for CONTENT Computer Networking_ A Top-Down Approach, Global Edition, 3th Edition for QUESTION Introduction and Servic 2025-06-04 Computer Network > Data Link Layer
朴素贝叶斯法 朴素贝叶斯法的学习与分类基本方法设输入空间 $\mathcal{X} \in \mathbb{R}^n$ 为 $n$ 维向量的集合,输出空间类标记集合 $\mathcal{Y} = \{c_1, c_2, \cdots, c_K \}$。训练数据集 T = \{(x_1, y_1), (x_2, y_2), \dots, (x_N, y_N)\}由 $P(X, Y)$ 独立同分布产生。 朴素贝叶 2025-06-04 机器学习 #算法
期望极大 EM 算法EM 算法通过迭代求 $L(\theta) = \log P(Y | \theta)$ 的极大似然估计。每次迭代包含两步:E步,求期望;M步,求极大化。 算法步骤输入:观测变量数据 $Y$,隐变量数据 $Z$,联合分布 $P(Y, Z | \theta)$,条件分布 $P(Z | Y, \theta)$;输出:模型参数$\theta$。 (1)选择参数初始值 $\theta^{(0)}$ 2025-06-03 机器学习 #算法
感知机 Perceptron感知机用于二分类线性问题 感知机的数学定义假设输入空间 $\mathcal{X} \subseteq \mathbb{R}^n$,输出空间是 $\mathcal{Y} = \{+1, -1\}$。由输入空间到输出空间的如下函数: f(x) = \operatorname{sign} (w \cdot x + b) \tag{1}称为感知机。其中,$w$ 和 $b$ 为感知机模 2025-06-03 机器学习 #算法
上下文无关文法 上下文无关文法的定义定义文法 $G = (V, T, P, S)$,其中产生式,除了空产生式外,有如下特点: \forall \alpha \to \beta \in P, \quad \beta \in (V \cup T)^{\ast}, \quad \text{均有 } |\beta| \geq |\alpha|, \text{并且 } \alpha \in V派生树设有 CFG $ G 2025-06-03 形式语言与自动机
最大熵模型 Logistic RegressionLogistic Distribution设$X$是连续随机变量,$X$服从 logistic distribution 是指$X$具有下列分布函数和密度函数: \begin{align} F(x) &= P(X \leq x) = \frac{1}{1 + e^{-(x-\mu)/\gamma}} \tag{1} \\ f(x) &= F'(x) = \f 2025-06-02 机器学习 #算法
条件随机场 Only focus on tagging problem and linear chain Probabilistic Undirected Graphical ModelPairwise Markov PropertyNode $u$, $v$, and all nodes $O$. Their corresponding random variable are $Y_u$, $Y_v$, $ 2025-06-01 机器学习 #算法
The Network Layer Notice !: Computer Networking_ A Top-Down Approach, Global Edition, 3th Edition Dijkstra’s Link-State Algorithm1234567891011121314151617181920N = {u};for (auto a : nodes) { if (isAdj 2025-05-30 Computer Network > Network Layer #Network Layer #Control Plane #Routing #Networking
提升方法 AdaBoost 算法Data Information: 二分类训练数据集 $T$ \begin{align} T& = \{(x_1, y_1), (x_2, y_2), \ldots, (x_N, y_N)\} \\ x_i \in \mathcal{X}& = \mathbb{R}^n, \quad y_i \in \mathcal{Y} = \{+1, -1\}, \quad i = 1 2025-05-30 机器学习 #算法
支持向量机 Linear SVM in Linearly Separable CaseDefine Training Data T = \\{(x_1, y_1), (x_2, y_2), \ldots, (x_N, y_N)\\}x_i \in \mathcal{X} = \mathbb{R}^n, \quad y_i \in \mathcal{Y} = \{+1, -1\}, \quad i = 1, 2025-05-30 机器学习 #算法