统计函数怎么写数据分析方法

统计函数怎么写数据分析方法

统计函数可以通过使用Python中的Pandas、Numpy库,以及统计学的基本概念,如均值、中位数、标准差等,进行数据分析。这些工具提供了强大的功能,可以帮助你进行复杂的数据处理和分析。例如,Pandas库的describe()函数可以快速生成数据集的描述性统计信息,包括均值、标准差、最小值、四分位数等。对于更复杂的统计分析,Numpy库提供了丰富的数学函数,如mean()std()等,可以用于计算数据集的基本统计量。接下来,我们将详细介绍这些工具和方法,并演示如何在实际数据分析中应用它们。

一、PANDAS库的使用

Pandas是Python中最常用的数据处理库之一,它提供了高效的数据操作工具,使得数据清洗、整理和分析变得非常简单。Pandas的核心数据结构是DataFrame,它类似于Excel中的表格,可以方便地进行数据的增删改查。以下是一些常见的Pandas函数及其使用方法:

  1. 读取数据: pd.read_csv()pd.read_excel()等函数可以读取不同格式的数据文件。
  2. 数据预览: head()tail()函数可以快速预览数据集的前几行和后几行。
  3. 数据清洗: dropna()fillna()等函数用于处理缺失数据,drop()函数用于删除不需要的行和列。
  4. 数据转换: astype()函数可以改变数据类型,apply()函数可以对数据进行逐元素操作。
  5. 数据聚合: groupby()agg()函数用于数据分组和聚合操作。

例如,使用Pandas库读取一个CSV文件并查看其基本信息:

import pandas as pd

读取CSV文件

data = pd.read_csv('data.csv')

查看数据的前五行

print(data.head())

查看数据的描述性统计信息

print(data.describe())

二、NUMPY库的使用

Numpy是Python中进行科学计算的重要库,提供了支持多维数组和矩阵运算的函数。Numpy的核心是ndarray对象,它是一个多维数组,可以存储同类型的数据。以下是一些常见的Numpy函数及其使用方法:

  1. 创建数组: array()zeros()ones()arange()linspace()等函数用于创建不同类型的数组。
  2. 数组操作: reshape()flatten()transpose()等函数用于改变数组形状,concatenate()stack()等函数用于数组拼接。
  3. 数学运算: sum()mean()std()min()max()等函数用于计算数组的统计量,dot()函数用于矩阵乘法。
  4. 随机数生成: random.rand()random.randint()random.normal()等函数用于生成随机数。

例如,使用Numpy库创建一个二维数组并计算其均值和标准差:

import numpy as np

创建一个二维数组

array = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]])

计算数组的均值

mean_value = np.mean(array)

print('Mean:', mean_value)

计算数组的标准差

std_value = np.std(array)

print('Standard Deviation:', std_value)

三、描述性统计分析

描述性统计分析是数据分析的基础,它通过各种统计量来描述数据集的基本特征。常见的描述性统计量包括均值、中位数、标准差、方差、最小值、最大值、四分位数等。这些统计量可以帮助我们了解数据的分布和变异情况。

  1. 均值(Mean): 数据集的平均值,用于衡量数据的集中趋势。
  2. 中位数(Median): 数据集的中间值,用于衡量数据的集中趋势,特别适用于含有极端值的数据集。
  3. 标准差(Standard Deviation): 数据集的离散程度,用于衡量数据的变异情况。
  4. 方差(Variance): 数据集的离散程度的平方,用于衡量数据的变异情况。
  5. 最小值和最大值(Min and Max): 数据集中最小的值和最大的值,用于了解数据的范围。
  6. 四分位数(Quartiles): 数据集按百分位数划分成四部分,用于衡量数据的分布情况。

例如,使用Pandas库计算数据集的描述性统计量:

import pandas as pd

读取CSV文件

data = pd.read_csv('data.csv')

计算数据集的均值

mean_value = data.mean()

print('Mean:', mean_value)

计算数据集的中位数

median_value = data.median()

print('Median:', median_value)

计算数据集的标准差

std_value = data.std()

print('Standard Deviation:', std_value)

计算数据集的方差

variance_value = data.var()

print('Variance:', variance_value)

计算数据集的最小值和最大值

min_value = data.min()

max_value = data.max()

print('Min:', min_value)

print('Max:', max_value)

计算数据集的四分位数

quartiles_value = data.quantile([0.25, 0.5, 0.75])

print('Quartiles:', quartiles_value)

四、假设检验

假设检验是统计分析中的一种方法,用于判断一个假设在特定条件下是否成立。常见的假设检验方法包括t检验、卡方检验、ANOVA等。这些方法通过计算统计量和显著性水平,来判断假设是否成立。

  1. t检验(t-test): 用于比较两个样本均值是否显著不同,适用于小样本数据。
  2. 卡方检验(Chi-Square Test): 用于检验两个分类变量是否独立,适用于分类数据。
  3. ANOVA(方差分析): 用于比较多个样本均值是否显著不同,适用于多组数据。

例如,使用SciPy库进行t检验:

from scipy import stats

假设两个样本数据

sample1 = [1, 2, 3, 4, 5]

sample2 = [2, 3, 4, 5, 6]

进行t检验

t_stat, p_value = stats.ttest_ind(sample1, sample2)

print('t-statistic:', t_stat)

print('p-value:', p_value)

五、回归分析

回归分析是一种统计方法,用于研究变量之间的关系。常见的回归分析方法包括线性回归、逻辑回归等。这些方法通过构建回归模型,来预测因变量和自变量之间的关系。

  1. 线性回归(Linear Regression): 用于研究一个因变量和一个或多个自变量之间的线性关系。
  2. 逻辑回归(Logistic Regression): 用于研究分类变量和自变量之间的关系,适用于二分类问题。

例如,使用SciKit-Learn库进行线性回归分析:

from sklearn.linear_model import LinearRegression

import numpy as np

假设自变量和因变量数据

X = np.array([[1], [2], [3], [4], [5]])

y = np.array([2, 3, 5, 4, 6])

创建线性回归模型

model = LinearRegression()

训练模型

model.fit(X, y)

预测

predictions = model.predict(X)

print('Predictions:', predictions)

打印模型的系数和截距

print('Coefficients:', model.coef_)

print('Intercept:', model.intercept_)

六、数据可视化

数据可视化是数据分析的重要组成部分,通过图形化的方式展示数据,可以更直观地理解数据的分布和趋势。常见的数据可视化工具包括Matplotlib、Seaborn等

  1. Matplotlib: 一个基础的数据可视化库,提供了丰富的绘图功能,如折线图、柱状图、散点图等。
  2. Seaborn: 基于Matplotlib的高级数据可视化库,提供了更加美观和简洁的绘图功能,如箱线图、热力图等。

例如,使用Matplotlib库绘制一个简单的折线图:

import matplotlib.pyplot as plt

假设数据

x = [1, 2, 3, 4, 5]

y = [2, 3, 5, 4, 6]

绘制折线图

plt.plot(x, y)

添加标题和标签

plt.title('Line Plot')

plt.xlabel('X-axis')

plt.ylabel('Y-axis')

显示图形

plt.show()

七、时间序列分析

时间序列分析是一种统计方法,用于分析时间序列数据的特征和规律。常见的时间序列分析方法包括自回归(AR)、移动平均(MA)、自回归滑动平均(ARMA)等。这些方法通过构建时间序列模型,来预测未来的数据趋势。

  1. 自回归(AR): 用于研究一个变量的当前值与其过去值之间的关系。
  2. 移动平均(MA): 用于研究一个变量的当前值与过去误差之间的关系。
  3. 自回归滑动平均(ARMA): 结合自回归和移动平均方法,用于研究一个变量的当前值、过去值和过去误差之间的关系。

例如,使用Statsmodels库进行自回归模型分析:

import statsmodels.api as sm

假设时间序列数据

data = [1, 2, 3, 4, 5, 4, 3, 2, 1]

创建自回归模型

model = sm.tsa.AR(data)

拟合模型

results = model.fit()

预测

predictions = results.predict(start=0, end=8)

print('Predictions:', predictions)

八、聚类分析

聚类分析是一种无监督学习方法,用于将数据集划分成若干个簇,使得同一簇内的数据更加相似。常见的聚类分析方法包括K均值聚类、层次聚类等

  1. K均值聚类(K-Means Clustering): 通过迭代的方法,将数据集划分成K个簇,使得每个簇内的数据点到簇中心的距离最小。
  2. 层次聚类(Hierarchical Clustering): 通过构建树状结构,将数据集逐层划分成不同的簇。

例如,使用SciKit-Learn库进行K均值聚类分析:

from sklearn.cluster import KMeans

import numpy as np

假设数据

X = np.array([[1, 2], [1, 4], [1, 0], [4, 2], [4, 4], [4, 0]])

创建K均值聚类模型

kmeans = KMeans(n_clusters=2)

训练模型

kmeans.fit(X)

预测

labels = kmeans.predict(X)

print('Labels:', labels)

打印簇中心

print('Cluster Centers:', kmeans.cluster_centers_)

九、主成分分析(PCA)

主成分分析(PCA)是一种降维方法,用于将高维数据映射到低维空间,保留数据的主要特征。PCA通过线性变换,将原始数据投影到新的坐标系,使得投影后的数据方差最大

例如,使用SciKit-Learn库进行主成分分析:

from sklearn.decomposition import PCA

import numpy as np

假设数据

X = np.array([[1, 2], [1, 4], [1, 0], [4, 2], [4, 4], [4, 0]])

创建PCA模型

pca = PCA(n_components=1)

拟合模型

pca.fit(X)

转换数据

X_pca = pca.transform(X)

print('PCA Result:', X_pca)

打印主成分

print('Components:', pca.components_)

print('Explained Variance:', pca.explained_variance_)

十、机器学习模型评价

机器学习模型评价是数据分析中的一个重要环节,通过评估模型的性能,来判断模型的好坏。常见的模型评价指标包括准确率、精确率、召回率、F1分数、均方误差等

  1. 准确率(Accuracy): 用于衡量分类模型的预测准确性。
  2. 精确率(Precision): 用于衡量分类模型在预测为正类时的准确性。
  3. 召回率(Recall): 用于衡量分类模型在实际为正类时的检出率。
  4. F1分数(F1 Score): 精确率和召回率的调和平均数,用于综合评价分类模型的性能。
  5. 均方误差(Mean Squared Error): 用于衡量回归模型的预测误差。

例如,使用SciKit-Learn库进行模型评价:

from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, mean_squared_error

假设真实标签和预测标签

y_true = [0, 1, 1, 0, 1]

y_pred = [0, 1, 0, 0, 1]

计算准确率

accuracy = accuracy_score(y_true, y_pred)

print('Accuracy:', accuracy)

计算精确率

precision = precision_score(y_true, y_pred)

print('Precision:', precision)

计算召回率

recall = recall_score(y_true, y_pred)

print('Recall:', recall)

计算F1分数

f1 = f1_score(y_true, y_pred)

print('F1 Score:', f1)

假设真实值和预测值

y_true_reg = [2.5, 0.0, 2.1, 1.6]

y_pred_reg = [3.0, -0.1, 2.1, 1.3]

计算均方误差

mse = mean_squared_error(y_true_reg, y_pred_reg)

print('Mean Squared Error:', mse)

通过以上各个部分的详细描述和示例代码,你可以掌握统计函数在数据分析中的具体应用方法。希望这些内容能够帮助你更好地进行数据分析和统计工作。

相关问答FAQs:

统计函数怎么写数据分析方法?

数据分析方法是通过一系列统计函数和技术来挖掘数据中的信息和模式。使用统计函数能够帮助分析师从数据中提取有价值的见解。以下是一些常用的统计函数及其应用的详细介绍。

1. 什么是统计函数?

统计函数是用于描述和分析数据集的数学公式或算法。这些函数通过对数据进行计算,能够提供关于数据分布、趋势、相关性等的重要信息。常见的统计函数包括均值、中位数、标准差、方差、相关系数等。

2. 如何使用统计函数进行数据分析?

在数据分析过程中,统计函数的使用主要包括以下几个步骤:

  • 数据收集:这是数据分析的第一步,数据可以通过问卷调查、实验、数据库等多种方式获得。
  • 数据清洗:在收集到数据后,需要对数据进行清洗,包括处理缺失值、重复值和异常值,以确保数据的质量和准确性。
  • 描述性统计:使用均值、标准差等函数对数据进行初步分析,了解数据的基本特征。
  • 推断统计:通过假设检验、置信区间等方法,推断样本数据所代表的总体特征。
  • 回归分析:利用回归函数分析变量之间的关系,以预测未来的趋势。
  • 可视化:将分析结果通过图表等形式展示,使数据更易理解。

3. 常见的统计函数及其应用

3.1 均值(Mean)

均值是数据集中所有数值的总和除以数值的个数。它反映了数据的集中趋势,适用于连续性数据的分析。

应用案例:通过计算销售额的均值,可以了解某产品的平均销售情况,从而为市场策略提供依据。

3.2 中位数(Median)

中位数是将数据按顺序排列后,位于中间位置的数值。中位数对极端值不敏感,适合用于分析存在异常值的数据集。

应用案例:在分析收入数据时,由于部分人群收入极高,使用中位数可以更准确地反映大多数人的收入水平。

3.3 标准差(Standard Deviation)

标准差是衡量数据分散程度的一个指标,数值越大,数据分布越分散。它可以帮助分析师了解数据的波动性。

应用案例:在股票市场分析中,标准差可以用来衡量股票价格的波动性,从而帮助投资者评估风险。

3.4 相关系数(Correlation Coefficient)

相关系数用于衡量两个变量之间的线性关系,其值范围在-1到1之间。正值表示正相关,负值表示负相关。

应用案例:在市场研究中,可以通过计算广告支出与销售额之间的相关系数,来判断广告效果。

4. 数据分析中的常用工具与软件

数据分析离不开工具的支持,以下是一些常用的统计分析软件和编程语言:

4.1 Excel

Excel是最常用的数据分析工具之一,提供了丰富的统计函数,如AVERAGE、MEDIAN、STDEV等,适合初学者进行简单的数据分析。

4.2 R语言

R是一种专为统计分析而设计的编程语言,拥有强大的统计分析功能和丰富的包,适合进行复杂的数据分析和建模。

4.3 Python

Python通过库如Pandas、NumPy和SciPy等,提供了强大的数据分析和统计功能,适合大规模数据处理和机器学习。

5. 如何选择合适的统计函数?

选择合适的统计函数依赖于数据的类型和分析的目的。以下几点可以帮助分析师做出选择:

  • 数据类型:了解数据是定量数据还是定性数据,选择相应的统计函数。例如,均值和标准差适合定量数据,而频率分布适合定性数据。
  • 分析目标:明确分析的目的,是描述性分析还是推断性分析,选择相应的统计方法。
  • 数据分布:判断数据的分布类型,比如正态分布或偏态分布,以选择合适的统计方法。

6. 数据分析中的常见问题

6.1 统计分析结果不一致,如何处理?

如果不同的统计分析结果出现不一致,可能是由于数据处理、方法选择或模型假设等原因造成的。需要仔细检查数据的质量、分析方法的适用性和模型的假设条件。

6.2 如何处理缺失数据?

缺失数据的处理方法有多种,包括删除缺失值、插补缺失值和使用模型预测缺失值。选择合适的方法需要考虑缺失数据的性质和分析的目的。

6.3 如何评估模型的有效性?

模型的有效性通常通过交叉验证、AIC/BIC等指标进行评估。此外,可以使用残差分析、拟合优度等方法来判断模型的准确性。

7. 案例分析:使用统计函数进行市场分析

7.1 数据收集与清洗

在进行市场分析时,首先需要收集目标客户的相关数据,包括年龄、性别、购买频率等。收集到的数据需进行清洗,确保数据的完整性和一致性。

7.2 描述性统计分析

对清洗后的数据进行描述性统计分析,计算均值、中位数、标准差等,以了解目标客户的基本特征。例如,计算顾客的平均年龄和购买频率。

7.3 推断统计分析

使用假设检验方法,判断不同性别的购买频率是否存在显著差异。通过计算p值,确定是否拒绝原假设。

7.4 回归分析

构建回归模型,分析年龄、性别与购买频率之间的关系,预测未来的购买趋势。

7.5 结果可视化

将分析结果通过图表进行可视化,例如使用柱状图展示不同年龄段的购买频率,帮助管理层更直观地理解数据。

8. 总结与展望

数据分析是一个复杂而系统的过程,统计函数在其中扮演着重要的角色。随着数据量的不断增加,数据分析的方法和工具也在不断发展。掌握统计函数及其应用能够帮助分析师更有效地从数据中获取有价值的信息,为决策提供支持。未来,随着人工智能和大数据技术的进步,数据分析将更加精准和高效。

本文内容通过AI工具匹配关键字智能整合而成,仅供参考,帆软不对内容的真实、准确或完整作任何形式的承诺。具体产品功能请以帆软官方帮助文档为准,或联系您的对接销售进行咨询。如有其他问题,您可以通过联系blog@fanruan.com进行反馈,帆软收到您的反馈后将及时答复和处理。

Aidan
上一篇 2024 年 8 月 25 日
下一篇 2024 年 8 月 25 日

传统式报表开发 VS 自助式数据分析

一站式数据分析平台,大大提升分析效率

数据准备
数据编辑
数据可视化
分享协作
可连接多种数据源,一键接入数据库表或导入Excel
可视化编辑数据,过滤合并计算,完全不需要SQL
内置50+图表和联动钻取特效,可视化呈现数据故事
可多人协同编辑仪表板,复用他人报表,一键分享发布
BI分析看板Demo>

每个人都能上手数据分析,提升业务

通过大数据分析工具FineBI,每个人都能充分了解并利用他们的数据,辅助决策、提升业务。

销售人员
财务人员
人事专员
运营人员
库存管理人员
经营管理人员

销售人员

销售部门人员可通过IT人员制作的业务包轻松完成销售主题的探索分析,轻松掌握企业销售目标、销售活动等数据。在管理和实现企业销售目标的过程中做到数据在手,心中不慌。

FineBI助力高效分析
易用的自助式BI轻松实现业务分析
随时根据异常情况进行战略调整
免费试用FineBI

财务人员

财务分析往往是企业运营中重要的一环,当财务人员通过固定报表发现净利润下降,可立刻拉出各个业务、机构、产品等结构进行分析。实现智能化的财务运营。

FineBI助力高效分析
丰富的函数应用,支撑各类财务数据分析场景
打通不同条线数据源,实现数据共享
免费试用FineBI

人事专员

人事专员通过对人力资源数据进行分析,有助于企业定时开展人才盘点,系统化对组织结构和人才管理进行建设,为人员的选、聘、育、留提供充足的决策依据。

FineBI助力高效分析
告别重复的人事数据分析过程,提高效率
数据权限的灵活分配确保了人事数据隐私
免费试用FineBI

运营人员

运营人员可以通过可视化化大屏的形式直观展示公司业务的关键指标,有助于从全局层面加深对业务的理解与思考,做到让数据驱动运营。

FineBI助力高效分析
高效灵活的分析路径减轻了业务人员的负担
协作共享功能避免了内部业务信息不对称
免费试用FineBI

库存管理人员

库存管理是影响企业盈利能力的重要因素之一,管理不当可能导致大量的库存积压。因此,库存管理人员需要对库存体系做到全盘熟稔于心。

FineBI助力高效分析
为决策提供数据支持,还原库存体系原貌
对重点指标设置预警,及时发现并解决问题
免费试用FineBI

经营管理人员

经营管理人员通过搭建数据分析驾驶舱,打通生产、销售、售后等业务域之间数据壁垒,有利于实现对企业的整体把控与决策分析,以及有助于制定企业后续的战略规划。

FineBI助力高效分析
融合多种数据源,快速构建数据中心
高级计算能力让经营者也能轻松驾驭BI
免费试用FineBI

帆软大数据分析平台的优势

01

一站式大数据平台

从源头打通和整合各种数据资源,实现从数据提取、集成到数据清洗、加工、前端可视化分析与展现。所有操作都可在一个平台完成,每个企业都可拥有自己的数据分析平台。

02

高性能数据引擎

90%的千万级数据量内多表合并秒级响应,可支持10000+用户在线查看,低于1%的更新阻塞率,多节点智能调度,全力支持企业级数据分析。

03

全方位数据安全保护

编辑查看导出敏感数据可根据数据权限设置脱敏,支持cookie增强、文件上传校验等安全防护,以及平台内可配置全局水印、SQL防注防止恶意参数输入。

04

IT与业务的最佳配合

FineBI能让业务不同程度上掌握分析能力,入门级可快速获取数据和完成图表可视化;中级可完成数据处理与多维分析;高级可完成高阶计算与复杂分析,IT大大降低工作量。

使用自助式BI工具,解决企业应用数据难题

数据分析平台,bi数据可视化工具

数据分析,一站解决

数据准备
数据编辑
数据可视化
分享协作

可连接多种数据源,一键接入数据库表或导入Excel

数据分析平台,bi数据可视化工具

可视化编辑数据,过滤合并计算,完全不需要SQL

数据分析平台,bi数据可视化工具

图表和联动钻取特效,可视化呈现数据故事

数据分析平台,bi数据可视化工具

可多人协同编辑仪表板,复用他人报表,一键分享发布

数据分析平台,bi数据可视化工具

每个人都能使用FineBI分析数据,提升业务

销售人员
财务人员
人事专员
运营人员
库存管理人员
经营管理人员

销售人员

销售部门人员可通过IT人员制作的业务包轻松完成销售主题的探索分析,轻松掌握企业销售目标、销售活动等数据。在管理和实现企业销售目标的过程中做到数据在手,心中不慌。

易用的自助式BI轻松实现业务分析

随时根据异常情况进行战略调整

数据分析平台,bi数据可视化工具

财务人员

财务分析往往是企业运营中重要的一环,当财务人员通过固定报表发现净利润下降,可立刻拉出各个业务、机构、产品等结构进行分析。实现智能化的财务运营。

丰富的函数应用,支撑各类财务数据分析场景

打通不同条线数据源,实现数据共享

数据分析平台,bi数据可视化工具

人事专员

人事专员通过对人力资源数据进行分析,有助于企业定时开展人才盘点,系统化对组织结构和人才管理进行建设,为人员的选、聘、育、留提供充足的决策依据。

告别重复的人事数据分析过程,提高效率

数据权限的灵活分配确保了人事数据隐私

数据分析平台,bi数据可视化工具

运营人员

运营人员可以通过可视化化大屏的形式直观展示公司业务的关键指标,有助于从全局层面加深对业务的理解与思考,做到让数据驱动运营。

高效灵活的分析路径减轻了业务人员的负担

协作共享功能避免了内部业务信息不对称

数据分析平台,bi数据可视化工具

库存管理人员

库存管理是影响企业盈利能力的重要因素之一,管理不当可能导致大量的库存积压。因此,库存管理人员需要对库存体系做到全盘熟稔于心。

为决策提供数据支持,还原库存体系原貌

对重点指标设置预警,及时发现并解决问题

数据分析平台,bi数据可视化工具

经营管理人员

经营管理人员通过搭建数据分析驾驶舱,打通生产、销售、售后等业务域之间数据壁垒,有利于实现对企业的整体把控与决策分析,以及有助于制定企业后续的战略规划。

融合多种数据源,快速构建数据中心

高级计算能力让经营者也能轻松驾驭BI

数据分析平台,bi数据可视化工具

商品分析痛点剖析

01

打造一站式数据分析平台

一站式数据处理与分析平台帮助企业汇通各个业务系统,从源头打通和整合各种数据资源,实现从数据提取、集成到数据清洗、加工、前端可视化分析与展现,帮助企业真正从数据中提取价值,提高企业的经营能力。

02

定义IT与业务最佳配合模式

FineBI以其低门槛的特性,赋予业务部门不同级别的能力:入门级,帮助用户快速获取数据和完成图表可视化;中级,帮助用户完成数据处理与多维分析;高级,帮助用户完成高阶计算与复杂分析。

03

深入洞察业务,快速解决

依托BI分析平台,开展基于业务问题的探索式分析,锁定关键影响因素,快速响应,解决业务危机或抓住市场机遇,从而促进业务目标高效率达成。

04

打造一站式数据分析平台

一站式数据处理与分析平台帮助企业汇通各个业务系统,从源头打通和整合各种数据资源,实现从数据提取、集成到数据清洗、加工、前端可视化分析与展现,帮助企业真正从数据中提取价值,提高企业的经营能力。

在线咨询
产品Demo体验
产品报价选型
行业案例下载

产品介绍

选型报价

行业案例

Demo体验

电话咨询
电话咨询
电话热线: 400-811-8890转1
商务咨询: 点击申请专人服务
技术咨询
技术咨询
在线技术咨询: 立即沟通
紧急服务热线: 400-811-8890转2
微信咨询
微信咨询
扫码添加专属售前顾问免费获取更多行业资料
投诉入口
投诉入口
总裁办24H投诉: 173-127-81526
商务咨询