当前位置: 首页 > news >正文

织梦网站必须下载如何创建网站教程视频

织梦网站必须下载,如何创建网站教程视频,网页布局的几种方法,用网站模板做新网站数学建模笔记—— 主成分分析 主成分分析1. 基本原理1.1 主成分分析方法1.2 数据降维1.3 主成分分析原理1.4 主成分分析思想 2. PCA的计算步骤3. 典型例题4. 主成分分析说明5. python代码实现 主成分分析 1. 基本原理 在实际问题研究中,多变量问题是经常会遇到的。变量太多,无… 数学建模笔记—— 主成分分析 主成分分析1. 基本原理1.1 主成分分析方法1.2 数据降维1.3 主成分分析原理1.4 主成分分析思想 2. PCA的计算步骤3. 典型例题4. 主成分分析说明5. python代码实现 主成分分析 1. 基本原理 在实际问题研究中,多变量问题是经常会遇到的。变量太多,无疑会增加分析问题的难度与复杂性,而且在许多实际问题中,多个变量之间是具有一定的相关关系的。因此,人们会很自然地想到,能否在相关分析的基础上,用较少的新变量代替原来较多的旧变量,而且使这些较少的新变量尽可能多地保留原来变量所反映的信息? 一个简单的例子 例如,某人要做一件上衣要测量很多尺寸,如身长、袖长、胸围、腰围、肩宽、肩厚等十几项指标,但某服装厂要生产一批新型服装绝不可能把尺寸的型号分得过多? 我们可以把多种指标中综合成几个少数的综合指标,做为分类的型号,将十几项指标综合成3项指标,一项是反映长度的指标,一项是反映胖瘦的指标,一项是反映特殊体型的指标。 1.1 主成分分析方法 在分析研究多变量的课题时,变量太多就会增加课题的复杂性。人们自然希望变量个数较少而得到的信息较多。在很多情形,变量之间是有一定的相关关系的,可以解释为这两个变量反映此课题的信息有一定的重叠。主成分分析是对于原先提出的所有变量,将重复的变量(关系紧密的变量)删去多余,建立尽可能少的新变量,使得这些新变量是两两不相关的,且这些新变量在反映课题的信息方面尽可能保持原有的信息。设法将原来变量重新组合成一组新的互相无关的几个综合变量,同时根据实际需要从中可以取出几个较少的综合变量尽可能多地反映原来变量的信息的统计方法叫做主成分分析或称主分量分析,也是数学上用来降维的一种方法。 1.2 数据降维 降维是将高维度的数据(指标太多)保留下最重要的一些特征,去除噪声和不重要的特征,从而实现提升数据处理速度的目的。在实际的生产和应用中,降维在一定的信息损失范围内,可以为我们节省大量的时间和成本。降维也成为应用非常广泛的数据预处理方法。 降维优点 使得数据集更易使用除噪声降低算法的计算开销使得结果容易理解 1.3 主成分分析原理 PCA的主要目标是将特征维度变小,同时尽量减少信息损失。就是对一个样本矩阵,**一是换特征,**找一组新的特征来重新标识;**二是减少特征,**新特征的数目要远小于原特征的数目。 通过PCA将n维原始特征映射到k维(kn)上,称这k维特征为主成分。需要强调的是,不是简单地从n维特征中去除其余n-k维特征,而是重新构造出全新的k维正交特征,且新生成的k维数据尽可能多地包含原来n维数据的信息。例如,使用PCA将20个相关的特征转化为5个无关的新特征,并且尽可能保留原始数据集的信息。 怎么找到新的维度呢?实质是数据间的方差够大,通俗地说,就是能够使数据到了新的维度基变换下,坐标点足够分散,数据间各有区分。 如图所示的左图中有5个离散点,降低维度,就是需要把点映射成一条线。将其映射到右图中黑色虚线上则样本变化最大,且坐标点更分散,这 条黑色虚线就是第一主成分的投影方向。 PCA是一种线性降维方法,即通过某个投影矩阵将高维空间中的原始样本点线性投影到低维空间,以达到降维的目的,线性投影就是通过矩阵变换的方式把数据映射到最合适的方向。 降维的几何意义可以理解为旋转坐标系,取前k个轴作为新特征。 对于下图所示的情况我们发现这些数据都几乎排列在一条直线上并且在x轴方向和y轴方向的方差都比较大。但是如果把坐标轴旋转一定角度使得这些数据在某个坐标轴的投影的方差比较大便可以用新坐标系下方差较大的一个坐标轴坐标作为主成分。对于左图数据为(1,2)、(2,4)…旋转坐标轴后坐标为 ( 5 , 0 ) 、 ( 2 5 , 1 ) … … (\sqrt5,0)、\begin{pmatrix}2\sqrt5,1\end{pmatrix}\ldots\ldots (5 ​,0)、(25 ​,1​)……这样主成分就是新坐标系下变量 x x x的数值 5 、 2 5 . . . . . . \sqrt{5}、2\sqrt{5}...... 5 ​、25 ​...... 对于大多数情况,数据各个变量基本服从正态分布,所以变量为2的数据散点分布大致为一个椭圆,变量为3的散点分布大致为一个椭球,p个变量的数据大致分布在一个超椭圆。而通过旋转坐标系,使得超椭圆的长轴落在一个坐标轴上,其次超椭圆另一个轴也尽量落在坐标轴上。这样各个新的坐标轴上的坐标值便是相应的主成分。 例如,对于图示的数据,在x轴和y轴的方差都很大,所以可以旋转坐标系,使得椭圆两个轴尽量落在坐标轴上。这样,我们便以散点在新坐标系下的x坐标作为第一主成分(因为x方向方差最大),y轴的坐标为第二主成分。 主成分分析的理论推导较为复杂,需要借助投影寻踪,构造目标函数等方法来推导,在多元统计的相关书籍中都有详细讲解。但是其结论却是十分简洁。所以,如果只是需要实际应用,了解主成分分析的基本原理与实现方法便足够了。 降维的代数意义可以理解为 m × n m\times n m×n阶的原始样本 X X X与 n × k n\times k n×k阶矩阵 W W W做矩阵乘法运算 X × W X\times W X×W即可得到 m × k m\times k m×k阶低维矩阵 Y Y Y这里的 n × k n\times k n×k阶矩阵 W W W就是投影矩阵。 1.4 主成分分析思想 假设有 n n n个样本 p p p个指标则可构成大小为 n × p n\times p n×p的样本矩阵 x : x: x: x [ x 11 x 12 ⋯ x 1 p x 21 x 22 ⋯ x 2 p ⋮ ⋮ ⋱ ⋮ x n 1 x n 2 ⋯ x n p ] ( x 1 , x 2 , ⋯ , x p ) x\begin{bmatrix}x_{11}x_{12}\cdotsx_{1p}\\x_{21}x_{22}\cdotsx_{2p}\\\vdots\vdots\ddots\vdots\\x_{n1}x_{n2}\cdotsx_{np}\end{bmatrix}\begin{pmatrix}x_1,x_2,\cdots,x_p\end{pmatrix} x ​x11​x21​⋮xn1​​x12​x22​⋮xn2​​⋯⋯⋱⋯​x1p​x2p​⋮xnp​​ ​(x1​,x2​,⋯,xp​​) 假设我们想找到新的一组变量 z 1 , z 2 , ⋅ ⋅ ⋅ , z m ( m ≤ p ) z_1,z_2,\cdotp\cdotp\cdotp,z_m(m\leq p) z1​,z2​,⋅⋅⋅,zm​(m≤p)且它们满足 { z 1 l 11 x 1 l 12 x 2 ⋯ l 1 p x p z 2 l 21 x 1 l 22 x 2 ⋯ l 2 p x p ⋮ z m l m 1 x 1 l m 2 x 2 ⋯ l m p x p \begin{cases}z_1l_{11}x_1l_{12}x_2\cdotsl_{1p}x_p\\z_2l_{21}x_1l_{22}x_2\cdotsl_{2p}x_p\\\vdots\\z_ml_{m1}x_1l_{m2}x_2\cdotsl_{mp}x_p\end{cases} ⎩ ⎨ ⎧​z1​l11​x1​l12​x2​⋯l1p​xp​z2​l21​x1​l22​x2​⋯l2p​xp​⋮zm​lm1​x1​lm2​x2​⋯lmp​xp​​ 系数 l i j l_{ij} lij​的确定原则 z i z_i zi​与 z j ( i ≠ j ; i , j 1 , 2 , , m ) z_j(i\neq j;i,j1,2,,m) zj​(ij;i,j1,2,,m)相互无关 z 1 z_1 z1​是与 x 1 , x 2 , . . . , x p x_1,x_2,...,x_p x1​,x2​,...,xp​ 的一切线性组合中方差最大者 z 2 z_2 z2​与 z 1 z_1 z1​不相关的 x 1 , x 2 , . . . , x p x_1,x_2,...,x_p x1​,x2​,...,xp​ 的一切线性组合中方差最大者以此类推 z m z_m zm​是与 z 1 , z 2 , . . . , z m − 1 z_1,z_2,...,z_{m-1} z1​,z2​,...,zm−1​不相关的 x 1 , x 2 , . . . , x p x_1,x_2,...,x_p x1​,x2​,...,xp​ 的所有线性组合中方差最大者新变量指标 z 1 , z 2 , . . . , z m z_1,z_2,...,z_m z1​,z2​,...,zm​分别称为原变量指标 x 1 , x 2 , . . . , x p x_1,x_2,...,x_p x1​,x2​,...,xp​的第一第二…,第m主成分 2. PCA的计算步骤 假设有 n n n个样本 p p p个指标则可构成大小为 n × p n\times p n×p的样本矩阵 x : x: x: x [ x 11 x 12 ⋯ x 1 p x 21 x 22 ⋯ x 2 p ⋮ ⋮ ⋱ ⋮ x n 1 x n 2 ⋯ x n p ] ( x 1 , x 2 , ⋯ , x p ) x\begin{bmatrix}x_{11}x_{12}\cdotsx_{1p}\\x_{21}x_{22}\cdotsx_{2p}\\\vdots\vdots\ddots\vdots\\x_{n1}x_{n2}\cdotsx_{np}\end{bmatrix}\begin{pmatrix}x_1,x_2,\cdots,x_p\end{pmatrix} x ​x11​x21​⋮xn1​​x12​x22​⋮xn2​​⋯⋯⋱⋯​x1p​x2p​⋮xnp​​ ​(x1​,x2​,⋯,xp​​) 首先对其进行标准化处理 按列计算均值 x ‾ j 1 n Σ i 1 n x i j \overline x_j\frac1n\Sigma_{i1}^nx_{ij} xj​n1​Σi1n​xij​和标准差 S j ∑ i 1 n ( x i j − x j ‾ ) 2 n − 1 S_j \sqrt {\frac {\sum _{i 1}^n( x_{ij}- \overline {x_j}) ^2}{n- 1}} Sj​n−1∑i1n​(xij​−xj​​)2​ ​ , 计算得标准化数据 X i j x i j − x j ‾ s j X_{ij}\frac{x_{ij}-\overline{x_j}}{s_j} Xij​sj​xij​−xj​​​ 原始样本矩阵经过标准化变为 X [ X 11 X 12 ⋯ X 1 p X 21 X 22 ⋯ X 2 p ⋮ ⋮ ⋱ ⋮ X n 1 X n 2 ⋯ X n p ] ( X 1 , X 2 , ⋯ , X p ) \begin{aligned}X\begin{bmatrix}X_{11}X_{12}\cdotsX_{1p}\\X_{21}X_{22}\cdotsX_{2p}\\\vdots\vdots\ddots\vdots\\X_{n1}X_{n2}\cdotsX_{np}\end{bmatrix}\begin{pmatrix}X_1,X_2,\cdots,X_p\end{pmatrix}\end{aligned} ​X ​X11​X21​⋮Xn1​​X12​X22​⋮Xn2​​⋯⋯⋱⋯​X1p​X2p​⋮Xnp​​ ​(X1​,X2​,⋯,Xp​​)​ 计算标准化样本的协方差矩阵/样本相关系数矩阵 R [ r 11 r 12 ⋯ r 1 p r 21 r 22 ⋯ r 2 p ⋮ ⋮ ⋱ ⋮ r n 1 r n 2 ⋯ r n p ] 其中 r i j 1 n − 1 ∑ k 1 n ( X k i − X i ‾ ) ( X k j − X j ‾ ) \begin{aligned}R\begin{bmatrix}r_{11}r_{12}\cdotsr_{1p}\\r_{21}r_{22}\cdotsr_{2p}\\\vdots\vdots\ddots\vdots\\r_{n1}r_{n2}\cdotsr_{np}\end{bmatrix}\\\text{其中}\quad r_{ij}\frac{1}{n-1}\sum_{k1}^{n}\Big(X_{ki}-\overline{X_{i}}\Big)\Big(X_{kj}-\overline{X_{j}}\Big)\end{aligned} ​R ​r11​r21​⋮rn1​​r12​r22​⋮rn2​​⋯⋯⋱⋯​r1p​r2p​⋮rnp​​ ​其中rij​n−11​k1∑n​(Xki​−Xi​​)(Xkj​−Xj​​)​ 计算 R R R的特征值和特征向量 特征值: λ 1 ≥ λ 2 ≥ . . . ≥ λ p ≥ 0 特征向量: a 1 [ a 11 a 21 ⋮ a p 1 ] , a 2 [ a 12 a 22 ⋮ a p 2 ] , ⋯ , a p [ a 1 p a 2 p ⋮ a p p ] \begin{aligned}\text{特征值:}\quad\lambda_1\geq\lambda_2\geq...\geq\lambda_p\geq0\\\text{特征向量:}\quad a_1\begin{bmatrix}a_{11}\\a_{21}\\\vdots\\a_{p1}\end{bmatrix},a_2\begin{bmatrix}a_{12}\\a_{22}\\\vdots\\a_{p2}\end{bmatrix},\cdots, a_p\begin{bmatrix}a_{1p}\\a_{2p}\\\vdots\\a_{pp}\end{bmatrix}\end{aligned} ​特征值:λ1​≥λ2​≥...≥λp​≥0特征向量:a1​ ​a11​a21​⋮ap1​​ ​,a2​ ​a12​a22​⋮ap2​​ ​,⋯,ap​ ​a1p​a2p​⋮app​​ ​​ 计算主成分贡献率以及累计贡献率 贡献率 α i λ i ∑ k 1 p λ k ( i 1 , 2 , . . . , p ) 累计贡献率 ∑ G ∑ k − 1 i λ k ∑ k 1 p λ k ( i 1 , 2 , . . . , p ) \text{贡献率}\alpha_i\frac{\lambda_i}{\sum_{k1}^p\lambda_k}(i1,2,...,p)\quad\text{累计贡献率}\sum G\frac{\sum_{k-1}^i\lambda_k}{\sum_{k1}^p\lambda_k}(i1,2,...,p) 贡献率αi​∑k1p​λk​λi​​(i1,2,...,p)累计贡献率∑G∑k1p​λk​∑k−1i​λk​​(i1,2,...,p) 写出主成分 一般取累计贡献率超过80%的特征值所对应的第一、第二、…第 m ( m ≤ p ) m(m\le p) m(m≤p)个主成分。第 i i i个主成分 F i a 1 i X 1 a 2 i X 2 . . . a p i X p ( i 1 , 2 , . . . , m ) F_{i}a_{1i}X_{1}a_{2i}X_{2}...a_{pi}X_{p} (i1 ,2 ,... ,m) Fi​a1i​X1​a2i​X2​...api​Xp​(i1,2,...,m) 根据系数分析主成分代表的意义 对于某个主成分而言指标前面的系数越大代表该指标对于该主成分的影响越大。 利用主成分的结果进行后续的分析 主成分得分聚类分析回归分析 3. 典型例题 在制定服装标准的过程中对128名成年男子的身材进行了测量每人测得的指标中含有这样的六项身高 ( x 1 ) (x_1) (x1​)、坐高 ( x 2 ) (x_2) (x2​)、胸围 ( x 3 ) (x_3) (x3​)、手臂长 ( x 4 ) (x_4) (x4​)、肋围 ( x 5 ) (x_5) (x5​)、腰围 ( x 6 ) (x_6) (x6​)。所得样本相关系数矩阵(对称矩阵)如下表 x 1 x_{1} x1​ x 2 x_{2} x2​ x 3 x_{3} x3​ x 4 x_{4} x4​ x 5 x_{5} x5​ x 6 x_{6} x6​ x 1 x_1 x1​10.790.360.760.250.51 x 2 x_2 x2​0.7910.310.550.170.35 x 3 x_3 x3​0.360.3110.350.640.58 x 4 x_4 x4​0.760.550.3510.160.38 x 5 x_5 x5​0.250.170.640.1610.63 x 6 x_6 x6​0.510.350.580.380.631 注意本题给我们的数据直接就是样本相关系数矩阵一般来说大家自己建模的时候得到的是原始数据。 经过计算相关系数矩阵的特征值、相应的特征向量以及贡献率列于下表 特征向量 a 1 a_{1} a1​ a 2 a_{2} a2​ a 3 a_{3} a3​ a 4 a_4 a4​ a 5 a_5 a5​ a 6 a_{6} a6​ x 1 : x_1: x1​: 身高0.469-0.3650.092-0.122-0.080-0.786 x 2 : x_2: x2​: 坐高0.404-0.3970.6130.3260.0270.443 x 3 : x_3: x3​: 胸围0.3940.397-0.2790.6560.405-0.125 x 4 : x_4: x4​: 手臂长0.408-0.365-0.705-0.108-0.2350.371 x 5 : x_5: x5​: 肋围0.3370.5690.164-0.019-0.7310.034 x 6 : x_6: x6​: 腰围0.4270.3080.119-0.6610.4900.179特征值3.2871.4060.4590.4260.2950.126贡献率0.5480.2340.0770.0710.0490.021累计贡献率0.5480.7820.8590.9300.9791.000 从表中可以看到前三个主成分的累计贡献率达85.9%,因此可以考虑只取三个主成分他们能够很好地概括原始变量。 写出主成分并分析解释含义 F 1 0.469 X 1 0.404 X 2 0.394 X 3 0.408 X 4 0.339 X 5 0.427 X 6 F 2 − 0.365 X 1 − 0.397 X 2 0.397 X 3 − 0.365 X 4 0.569 X 5 0.308 X 6 F 3 0.092 X 1 0.613 X 2 − 0.279 X 3 − 0.705 X 4 0.164 X 5 0.119 X 6 X i 均是标准化后的指标 x i : 身高、坐高、胸围、手臂长、肋围和腰围 F_{1}0.469X_{1}0.404X_{2}0.394X_{3}0.408X_{4}0.339X_{5}0.427X_{6}\\F_{2}-0.365X_{1}\:-\:0.397X_{2}0.397\:X_{3}\:-\:0.365X_{4}0.569X_{5}0.308X_{6}\\F_{3}0.092X_{1}\:0.613X_{2}\:-0.279X_{3}\:-0.705X_{4}\:0.164X_{5}\:0.119X_{6}\\ X_i均是标准化后的指标x_i:身高、坐高、胸围、手臂长、肋围和腰围 F1​0.469X1​0.404X2​0.394X3​0.408X4​0.339X5​0.427X6​F2​−0.365X1​−0.397X2​0.397X3​−0.365X4​0.569X5​0.308X6​F3​0.092X1​0.613X2​−0.279X3​−0.705X4​0.164X5​0.119X6​Xi​均是标准化后的指标xi​:身高、坐高、胸围、手臂长、肋围和腰围 第一主成分 F 1 F_{1} F1​对所有(标准化)原始变量都有近似相等的正载荷故称第一主成分为**(身材)大小成分**第二主成分 F 2 F_2 F2​在 X 3 , X 5 , X 6 X_3,X_5,X_6 X3​,X5​,X6​上有中等程度的正载荷而在 X 1 , X 2 , X 4 X_1,X_2,X_4 X1​,X2​,X4​上有中等程度的负载荷称第二主成分为形状成分(或胖瘦成分)第三主成分 F 3 F_3 F3​在 X 2 X_2 X2​上有大的正载荷在 X 4 X_4 X4​上有大的负载荷而在其余变量上的载荷都较小可称为第三主成分为臂长成分当然由于第三主成分贡献率不算高实际意义也不太重要因此我们可以考虑只取前两个。 4. 主成分分析说明 在主成分分析中,我们首先应保证所提取的前几个主成分的累计贡献率达到一个较高的水平,其次对这些被提取的主成分必须都能够给出符合实际背景和意义的解释。 主成分的解释其含义一般多少带有点模糊性,不像原始变量的含义那么清楚、确切,这是变量降维过程中不得不付出的代价。因此,提取的主成分个数m通常应明显小于原始变量个数p(除非p本身较小),否则维数降低的“利”可能抵不过主成分含义不如原始变量清楚的“弊”。 如果原始变量之间具有较高的相关性,则前面少数几个主成分的累计贡献率通常就能达到一个较高水平,也就是说,此时的累计贡献率通常较易得到满足。主成分分析的困难之处主要在于要能够给出主成分的较好解释,所提取的主成分中如有一个主成分解释不了,整个主成分分析也就失败了。主成分分析是变量降维的一种重要、常用的方法,简单的说,该方法要应用得成功,一是靠原 始变量的合理选取,二是靠“运气”。 – 参考教材:《应用多元统计分析》王学民 5. python代码实现 数据data.csv内容如下 年份,单产,种子费,化肥费,农药费,机械费,灌溉费 1990,1017.0,106.05,495.15,305.1,45.9,56.1 1991,1036.5,113.55,561.45,343.8,68.55,93.3 1992,792.0,104.55,584.85,414.0,73.2,104.55 1993,861.0,132.75,658.35,453.75,82.95,107.55 1994,901.5,174.3,904.05,625.05,114.0,152.1 1995,922.5,230.4,1248.75,834.45,143.85,176.4 1996,916.5,238.2,1361.55,720.75,165.15,194.25 1997,976.5,260.1,1337.4,727.65,201.9,291.75 1998,1024.5,270.6,1195.8,775.5,220.5,271.35 1999,1003.5,286.2,1171.8,610.95,195.0,284.55 2000,1069.5,282.9,1151.55,599.85,190.65,277.35 2001,1168.5,317.85,1105.8,553.8,211.05,290.1 2002,1228.5,319.65,1213.05,513.75,231.6,324.15 2003,1023.0,368.4,1274.1,567.45,239.85,331.8 2004,1144.5,466.2,1527.9,487.35,408.0,336.15 2005,1122.0,449.85,1703.25,555.15,402.3,358.8 2006,1276.5,537.0,1888.5,637.2,480.75,428.4 2007,1233.0,565.5,2009.85,715.65,562.05,456.9源码如下 import pandas as pd import numpy as np# 在python中导入scipy库的linalg模块 # scipy是python中的一个科学计算库linalg模块包含了线性代数的函数 from scipy import linalg# 读取csv文件的后五行 df pd.read_csv(data.csv, usecols[2, 3, 4, 5, 6]) # print(df)# df.to_numpy()是pandas对象中的一个方法用于将DataFrame转换为NumPy数组 x df.to_numpy() # print(x)# 标准化数据 X (x-np.mean(x, axis0))/np.std(x, ddof1, axis0)# 计算协方差矩阵 R np.cov(X.T)# 计算特征值和特征向量 eigvals, eigvecs linalg.eigh(R) # 将特征值数组按降序排列 eigvals eigvals[::-1] # 将特征向量数组按降序排列 eigvecs eigvecs[:, ::-1]# 计算主成分贡献率和累积贡献率 contribution_rate eigvals/sum(eigvals) # np.cumsum()是numpy中的一个函数用于计算数组的累积和 cumulative_contribution_rate np.cumsum(contribution_rate)# 打印结果 print(特征值为) print(eigvals) print(贡献率为) print(contribution_rate) print(累积贡献率为) print(cumulative_contribution_rate) print(与特征值对应的特征向量为) print(eigvecs)输出结果 特征值为 [4.09453559 0.79266524 0.08165257 0.02069963 0.01044696] 贡献率为 [0.81890712 0.15853305 0.01633051 0.00413993 0.00208939] 累积贡献率为 [0.81890712 0.97744017 0.99377068 0.99791061 1. ] 与特征值对应的特征向量为 [[-0.48104689 0.23837363 -0.01782683 -0.0038534 0.84346859][-0.48753322 -0.07920883 -0.33594594 -0.7565078 -0.26622096][-0.28138862 -0.92242424 -0.00452323 0.24430868 0.10122639][-0.47315152 0.26834026 -0.46128305 0.60577733 -0.35266544][-0.47733984 0.11845256 0.82098722 0.03206562 -0.28821424]]
http://www.ho-use.cn/article/10819518.html

相关文章:

  • 砀山做网站的公司做企业网站多
  • 网站二级目录是什么页面设计代码
  • wordpress模版使用班级优化大师下载
  • 有域名怎么建立网站大数据技术就业和发展前景
  • 青海高端网站建设多少钱西安电商网站制作
  • 毕业设计网站做几个大连做网站的科技公司
  • 太原网站建设维护word文档做网站
  • 一个做服装品牌的网站天津教育学会网站建设
  • 做网站空间500m多少钱合肥建站
  • 宁波集团网站建设五金东莞网站建设技术支持
  • 怎么在别人网站做跳转盐山做网站的
  • 荣添网站建设优化没有域名可以建网站吗
  • 佛山企业网站建设平台phpwind怎么做网站
  • 手机网页翻译网站优化的要求
  • 杭州城西做网站的公司做网站用虚拟主机好吗
  • 为何建设银行网站无法登陆扬中富裕吗
  • 百度站长工具怎么推广网站山西本地网
  • 做游戏代练的网站怎么查网站外链数
  • 如何选择网站建设平台做网站要写代码吗
  • 网站防盗链怎么做电商网站怎么推广
  • 旅游网站建站目的wordpress显示标签页
  • 手机网站头部静态页面生成器
  • 镇江网站推广优化网站页面
  • 直播平台创建公会网站做进一步优化
  • 苏州建站公司 诚找苏州聚尚网络南京市建设工程造价信息网
  • 网站怎么做统计腾讯云服务器做网站可以吗
  • 比较好的网站开发网站编程学
  • php做的大型网站淘宝买cdk自己做网站
  • 网站实施方案网页制作公司哪家好
  • 给网站做排名优化学什么好个人简介网页制作