登录
主页
 文章
布朗双重平滑法(Brown's Dual Smoothing Method),又称双指数平滑法,用于数据平滑处理的统计方法,它主要用于时间序列数据的分析。该方法由统计学家罗伯特·布朗(Robert Brown)提出,其核心思想是通过对原始数据进行两次平滑处理,以减少数据中的随机波动,从而更清晰地揭示数据的趋势和周期性。
501
1
12
统计过程控制(Statistical Process Control,SPC)是一种利用统计学原理来监控和控制生产过程的方法。其核心目的是通过实时监控生产过程的关键质量参数,确保生产过程的稳定性和一致性,从而提高产品质量,减少浪费,并优化生产效率。一、关键组成1. 控制图(Control Charts): 控制图是一种图形工具,用于显示生产过程中的数据随时间的变化,并判断过程是否处于统计控制状态。常见的控制图包括X-bar图(用于连续数据)和P-chart(用于计件数据)。
562
0
13
事件研究方法(Event Study Method)是一种经济学和金融学中用来评估特定事件对公司价值影响的定量研究方法。它通常用于评估并购、重组、政策变化等事件对公司股价或市场价值的影响。一、概念1. 事件定义:首先确定研究的具体事件,比如公司宣布并购、新产品发布、重大政策变动等。
522
8
0
霍特林线性趋势法(Holt's linear trend method)是一种时间序列预测方法,它适用于具有线性趋势的数据。该方法由 Charles C. Holt 在 1957 年提出,旨在扩展简单指数平滑法以处理具有趋势的时间序列数据。- 水平分量:用于描述时间序列的基础水平或均值。- 趋势分量:体现数据随时间呈现出的线性变化趋势。
840
7
4
混合整数规划(Mixed Integer Programming, MIP)是一种优化问题,它结合了线性规划和整数规划的特点。在混合整数规划问题中,一部分决策变量是连续的(可以取任何实数值),而另一部分决策变量是离散的(只能取整数值)。一、基本概念整数变量:模型中包含一些变量被限定必须取整数值,比如只能是 0 或 1,或者是正整数等。
842
6
11
多标准决策分析(Multi-Criteria Decision Analysis, MCDA)是一种帮助决策者在多个标准或目标之间权衡并做出选择的方法。这种方法特别适用于那些涉及多个目标、标准或属性的复杂决策情境。一、基本概念1.主要特点和作用- 综合考量:能够将不同性质、不同维度的标准整合在一起进行分析。
839
5
2
简单指数平滑法(Simple Exponential Smoothing Method)是一种时间序列预测方法,它适用于数据没有明显趋势或季节性波动的情况。简单指数平滑法通过赋予最近观测值更高的权重来预测未来值,随着时间的推移,早期的观测值对预测值的影响逐渐减小。基本原理是:通过对过去观测值进行加权平均来预测未来值,给予近期数据较大的权重,而对较远的数据赋予较小的权重,权重呈指数递减。
1086
1
2
动态分析法(Dynamic Analysis)是一种在工程、经济学、物理学等领域广泛应用的分析方法。它主要用于研究系统在时间变化过程中的行为和性能。强调考虑时间因素对研究对象的影响。通过跟踪和监测变量在不同时间点的数值、状态或趋势,来深入了解其动态行为。这种方法的主要特点包括:
564
1
4
在当前AI大模型领域,众多企业争相进入,但并非所有公司都能在这场竞争中存活下来。根据李开复的观点,未来中美的大模型公司中,能够存活下去的可能只有5、6家。这表明,尽管目前市场上大模型公司众多,但最终能够持续发展并保持竞争力的将是少数。大模型的竞争优势核心要素主要包括以下几个方面:
908
1
1
结构分析法(Structural Analysis)是一种常用的分析方法,它主要用于研究和分析一个系统或组织内部的结构和组成部分之间的关系。结构分析法可以帮助我们更好地理解系统的运作方式,识别关键组成部分,以及预测系统在不同条件下的行为。一、特点结构分析法的定义通常包括以下几个关键点:
1121
5
2
平衡分析法(Equilibrium Analysis)用于确定系统在不同因素影响下达到平衡状态的条件,是一种研究系统在多个变量相互作用下达到稳定状态的方法。平衡分析法的核心在于识别系统中的平衡点,即系统内部的力或过程相互抵消,导致系统宏观性质保持不变的状态。平衡点的定义:系统达到一个状态,其中所有内部过程的速率相互抵消,系统参数(如温度、压力、浓度等)不随时间变化。
972
8
4
敏感性分析(Sensitivity Analysis)的基本原理是通过评估输入变量的变化对输出结果的影响,来确定哪些输入变量对模型或决策过程最为关键。一、核心原理1. 影响度量:首先定义一个度量标准来衡量输入变量变化对输出的影响。这可以是输出的变化量、变化百分比、或者更复杂的统计量。
755
6
2
失效分析(Failure Analysis)是一种技术活动和管理活动,它涉及判断产品失效的模式,查找失效原因和机理,并提出预防再失效的对策。一、基本原理1. 失效的定义:产品丧失规定的功能称为失效。2. 失效分析的目的:失效分析旨在找出引起产品失效的直接原因,并提出预防措施,以提高产品的可靠性和质量。
957
9
10
控制变量分析(Control Variable Analysis)。在某些统计和研究领域,特别是在实验设计和回归分析中,它也可能被称为 "Holding Variables Constant" 或 "Covariate Analysis"。控制变量分析是一种科学研究方法,用于确定不同变量之间的关系,同时控制其他可能影响结果的变量。一、基本原理
994
6
3
德尔菲法(Delphi method)是一种结构化的通信技术,用于收集专家组的意见,以达成共识或预测未来事件。这种方法通常用于那些难以通过定量数据获得答案的问题。德尔菲法的基本原理是利用专家的知识和经验,通过一系列结构化的问卷调查,来预测未来或解决复杂问题。
918
8
5
高通量筛选(High-Throughput Screening,HTS)技术起源于20世纪80年代后期,最初是为了寻找先导化合物而对大量样品进行药理活性评价分析的技术手段。随着技术的发展,HTS开始实现自动化,利用计算机及其操作软件、自动化加样设备、温孵离心设备和堆栈等组成自动化操作系统。
1039
9
6
FICO评分的全称是(Fair Isaac Credit Organization,FICO)信用评分”。FICO这个名字来源于Fair Isaac公司的两位创始人,工程师Bill Fair和数学家Earl Isaac。他们于20世纪50年代发明了这个信用评分模型,后来在80年代开始在美国流行。如今,FICO评分已经成为Fair Isaac & Company的专有产品,并且在全球范围内被广泛使用作为评估个人信用风险的标准。
701
2
6
粒子群优化(Particle Swarm Optimization, PSO)是一种基于群体智能的优化算法,由Eberhart和Kennedy在1995年提出。它受到鸟群觅食行为的启发,通过模拟鸟群或鱼群等生物群体的社会行为来进行问题求解。PSO算法是由James Kennedy和Russell Eberhart在1995年首次提出的。它的灵感来源于对鸟群捕食行为的观察,特别是飞鸟集群活动的规律性。
851
9
4
智能隐形眼镜(Smart Contact Lenses)作为可穿戴设备的新兴领域,正在快速发展。智能隐形眼镜的发展历史是一个充满创新和挑战的进程。智能隐形眼镜的早期概念可以追溯到1509年,达·芬奇发现水可以改变视觉,这启发了隐形眼镜的基本原理。1888年,德国眼科专家阿道夫·菲克首次将玻璃镜片制成大于角膜的角巩型镜片,用于矫正视力。1948年,美国视光师凯文·托赫发明了Microlens,这是一种小直径的硬性隐形眼镜,可以覆盖角膜,甚至比角膜更小,从而可以舒适地佩戴一整天。1963年,捷克斯洛伐克化学家奥托·特勒发明了聚甲基丙烯酸羟乙酯(PHEMA)材料,这种材料适合眼球内的湿度,柔软、异物感少、透气性好,是软性隐形眼镜的开端。2022年,美国初创公司Mojo Vision发布了AR隐形眼镜Mojo Lens的原型机,具有Micro LED显示屏、低延迟通信技术和眼动追踪系统。
696
0
9
定量构效关系(Quantitative Structure-Activity Relationship,QSAR)是一种分析方法,它用于解释特定分子的生物活性与其结构之间的定量关系。QSAR 模型可以产生有用的 2D 或 3D 形式的方程、图像或模型,将分子的生物反应或物理特性与其分子结构联系起来。这种方法广泛应用于药物发现,以找到与相关生物受体结合重要的共同特征,并通过偏最小二乘(PLS)方法探索构效关系场与生物活性值之间的线性相关性。
720
1
8
- -
© 2021 - 现在 杭州极深数据有限公司 版权所有 联系我们 
浙公网安备 33018302001059号  浙ICP备18026513号-1号