离散型随机变量的方差怎么算选择一个点,为什么选择下个点的概率与两点之间的欧式距离平方成正比,而不是欧式距离成正比?

2.3.1 方差与标准差的定义方差的数字特征:随机变量的稳定性定义
若随机变量 X^2 的数学期望 E(X^2) 存在,则称偏差平方和 (X-E(X))^2 的数学期望 E(X-E(X))^2 为随机变量 X (或相应分布)的方差,记为
\begin{align} Var(X) & = E(X-E(X))^2 \\ & = \left\{ \begin{aligned} & \sum\limits_i(x_i-E(X))^2p(x_i), \quad 在离散场合,
\\ & \int_{-\infty}^{\infty}(x-E(X))^2p(x)dx, \quad 在连续场合 \end{aligned} \right. \end{align} \\ 称方差的正平方根 \sqrt{Var(X)} 为随机变量 X (或相应分布)的标准差,记为 \sigma(X) ,或 \sigma_X 方差和标准差的功能相似,它们都是用来表述随机变量取值的集中与分散程度(即散布大小)的两个特征数.方差与标准差愈小,随机变量的取值愈集中;方差与标准差愈大,随机变量的取值愈分散.方差与标准差之间的差别主要在量纲上,由于标准差于所讨论的随机变量、数学期望有相同的量纲,其加减 E(X) \pm k\sigma(X) 是有意义的( k 为正实数),所以在实际中,人们比较乐意选用标准差,但标准差的计算必须通过方差才能算得.2.3.2 方差的性质以下假定随机变量的方差是存在的性质 Var(X)=E(X^2)-[E(X)]^2 proof:因为
Var(X) = E(X-E(X))^2 = E(X^2 - 2\cdot X \cdot E(X) + E(X)^2) \\ 由数学期望的性质可得
Var(X) = E(X^2) - 2E(X)\cdot E(X) + E(X)^2 = E(X^2) - E(X)^2 \\ 性质
常数的方差为0,即 Var(c) = 0 ,其中 c 为常数proof:若 c 为常数,则
Var(c) = E(C-E(C))^2 = E(0) = 0 \\ 性质
若 a,b 是常数,则 Var(aX+b)=a^2Var(X) proof:因 a,b 是常数,则
Var(aX+b) = E(aX+b-E(aX+b))^2 = E(aX - aE(X))^2 = a^2E(X-E(X)) = a^2Var(X) \\ 2.3.3 切比雪夫不等式切比雪夫不等式 设随机变量 X 的数学期望和方差都存在,则对任意常数 \varepsilon>0 ,有
P(|X-E(X)
\geqslant \varepsilon) \leqslant \frac{Var(X)}{\varepsilon^2} \\ 或
P(|X-E(X)
< \varepsilon) \geqslant 1-\frac{Var(X)}{\varepsilon^2} \\ 下证随机变量为连续性随机变量时proof:设 X 是一个连续随机变量,其密度函数为 p(x) .记 E(X)=a ,我们有
\begin{align} P(|X-E(X)
\geqslant \varepsilon) =& \int\limits_{\{x:|x-a|\geqslant \varepsilon \}}p(x)dx \leqslant \int\limits_{\{x:|x-a|\geqslant \varepsilon \}}\frac{(x-a)^2}{\varepsilon^2}p(x)dx \\ & \leqslant \frac{1}{\varepsilon^2}\int_{-\infty}^{\infty}(x-a)^2p(x)dx = \frac{Var(X)}{\varepsilon^2} \end{align} \\ 对于离散变量的情况同样可以证明在概率论中,事件 {|X-E(X)
\geqslant \varepsilon
} 称为大偏差,其概率 P(|X-E(X)
\geqslant \varepsilon) 称为大偏差发生概率.切比雪夫不等式给出大偏差发生概率的上界,这个上界与方差成正比,方差愈大上界也愈大以下定理进一步说明了方差为0就意味着随机变量的取值几乎集中在一点上定理
若随机变量 X 的方差存在,则 Var(X)=0 的充要条件是 X 几乎处处为某个常数 a ,即 P(X=a)=1 proof:充分性是显然的,下面证必要性.设 Var(X)=0 ,这时 E(X) 存在.因为
\{
X-E(X)
> 0\} = \bigcup\limits_{n=1}^{\infty}\{
X-E(X)
\geqslant \frac{1}{n} \}, \\ 所以有
\begin{align} P(|X-E(X)|>0) &= P(\bigcup\limits_{n=1}^{\infty}\{
X-E(X)
\geqslant \frac{1}{n}) \\ & \leqslant \sum\limits_{n=1}^{\infty}P(|X-E(X)
\geqslant \frac{1}{n}) \\ & \leqslant \sum\limits_{n=1}^{\infty}\frac{Var(X)}{(1/n)^2} = 0 \end{align} \\ 因而
P(|X-E(X)|=0)=1 \\ 即
P(X=E(X))=1 \\
概率是指事件发生的可能性,例如抛一次硬币正面朝上的概率为50%,即正面朝上或背面朝上的可能性是一样的。而要理解概率分布,首先要理解随机变量的概念。随机变量及其概率分布随机变量是指一个随机现象可能出现不同的结果,比如抛一次硬币、掷一次骰子、明天是下雨还是不下雨、橘子中的糖分等。每次观察称为一次试验。不同的结果是随机变量不同的取值。例如,我们可以定义抛一次硬币为一个随机变量,它包含两个可能的事件,即正面朝上或背面朝上:X = {正面朝上, 背面朝上}有两种类型的随机变量:离散型,即随机变量只有有限的取值,例如抛硬币只有两个结果,掷骰子只有六个结果连续型,即随机变量在特定数值范围内有无限的取值,例如橘子里的糖分可以是1.4g、1.45g或1.4568g离散型随机变量的概率分布是指每种结果出现的概率,也被称为概率质量函数(PMF, probability mass function)。假设我们有一个随机变量X,它有k个不同的取值,每个取值相应的概率为 P(X=x_{i})=p_{i} ,那么:0< p_{i} <1 p_{1}+p_{2}+...+p_{k} =1 离散型概率分布的例子包括二项分布、伯努利分布和泊松分布。后面将详细介绍。连续型随机变量是指有无限可能取值的变量。它的概率分布也被称为概率密度函数(PDF, probability distribution functions)。对于连续型随机变量,观察到任何单一数值的概率等于0,因为可能数值的个数是无限的。例如,随机变量X可以取特定数值范围内的任何取值,假设A是所有可能数值的集合。那么,X的概率P(A)就是概率密度曲线下的面积。连续型概率分布的例子包括正态分布、指数分布等。伯努利分布伯努利分布是二项分布的一种。二项分布是指二分变量的概率分布。二分变量即只有两种可能结果的变量,比如:抛一次硬币明天是否下雨伯努利分布只进行一次试验(n=1)。也就是说:它只有两个结果(属于二项分布)我们只进行一次试验(是二项分布在n=1时的情形)伯努利变量的概率分布很简单。如果某种结果发生的概率是p,那么它不发生或另一种结果发生的概率就是1-p,即:P(x) = \left\{ \begin{aligned} 1-p,\ x = 0 \\ p,
\ x =1
\\ \end{aligned} \right. 伯努利分布也可以表示为:f(k;p)=p^{k}(1-p)^{1-k} \ \
for\
\
k\in \{0, 1\} 抛一次硬币的概率分布是:P(x) = \left\{ \begin{aligned} 0.5,\ x= 正面朝上 \\ 0.5 ,
x= 反面朝上
\\ \end{aligned} \right. 我们使用scipy.stats模块的bernoulli.rvs方法生成伯努利变量,其中p参数指定事件发生的概率,size参数指定模拟的次数,或者说随机变量的个数。另外,使用seaborn的displot函数来绘制概率分布,其中kde控制是否显示核密度估计(kernel density estimate)、color控制颜色、hist_kw控制直方图样式。from scipy.stats import bernoulli
import seaborn as sn
data_bern = bernoulli.rvs(size=1000,p=0.6)
ax = sn.distplot(data_bern,
kde=True,
color='crimson',
hist_kws={"linewidth": 25,'alpha':1})
ax.set(xlabel='Bernouli', ylabel='Frequency')图1:bernoulli.rvs(size=1000,p=0.6)二项分布(binomial distribution)如果我们试验不止一次,那么二分变量的概率分布是怎样的呢?例如:抛5次硬币,有正面朝上的概率是多少5局三胜的比赛,胜利的概率有多少让我们来看一个例子。假设正在进行一场羽毛球双打,总共5局,哪队赢得多哪队胜。再假设你的队伍水平更高,所以有75%的胜率,换句话说,你们也有25%的概率输掉比赛。那么,你们赢得5局比赛的概率是多少呢?要找到这个问题的答案,首先要思考所有可能的结果。第一局的结果有两种可能,赢或输;第二局同样是两种可能。以此类推。假设第一局对第二局的结果没有影响:没有人会累,也没有在输掉比赛后感受到压力。那么,总的可能结果有2*2*2*2*2=32种:- P(X=0) 表示输掉所有比赛的概率,即{输输输输输} = 0.25*0.25*0.25*0.25*0.25 = 0.000977- P(X=1) 表示只赢一局的概率,即{赢输输输输 或
输赢输输输 或 输输赢输输 或 输输输赢输 或 输输输输赢} = 5*0.75*0.25*0.25*0.25*0.25=0.0146赢两局的情形稍微有些复杂,但利用小学的排列组合知识,我们可以知道总共有 \binom{5}{2} 种可能,即从5局中挑选两局作为赢的情况。总之,n局赢k局的概率是:P(X=k) = \binom{n}{k}p^{k}q^{n-k}
p是赢的概率,q是输的概率。利用上面的公式继续统计所有可能的情形:- P(X=2) 表示只赢两局的概率 = 10*0.75*0.75*0.25*0.25*0.25 = 0.088- P(X=3) 表示只赢三局的概率 = 10*0.75*0.25*0.75*0.25*0.25=0.264- P(X=4) 表示只赢四局的概率 = 0.395- P(X=5) = 0.237所以,我们队赢得比赛的概率是0.264+0.395+0.237=0.896我们可以利用scipy.stats模块的binom.rvs方法来模拟一个符合二项分布的随机变量,其中:n指定试验的次数p指定每次试验关注事件出现的概率size指定模拟的次数,或者说随机变量的个数import seaborn as sn
from scipy.stats import binom
data_binom = binom.rvs(n=5,p=0.75, size=100)
ax = sn.distplot(data_binom,
kde=True,
color='blue',
hist_kws={"linewidth": 25,'alpha':1})
ax.set(xlabel='Binomial', ylabel='Frequency')图2: binom.rvs(n=5,p=0.75, size=100)如果每局胜利失败的概率是一样的,即p=q=0.5,那么概率分布就不一样了:图3: binom.rvs(n=5,p=0.5, size=100)对比两个分布,图1更偏向右侧,也就是说赢得多的情形出现的次数更多。而如果p=q=0.5,概率分布则更加对称,赢两次或三次的概率比较多。如果只进行一次试验,所得到的分布就是伯努利分布,伯努利分布是二项分布进行一次试验时的特例:图4: binom.rvs(n=1,p=0.75, size=100)泊松分布生活中许多事件都是有固定的频率的,例如:你每天大概会收到3封邮件一家服装店平均每小时接待10个顾客一家医院平均每小时出生3个婴儿马路上平均每小时经过20辆汽车你每天大概会收到3封邮件,但是这些邮件出现在一天中的哪个时刻是随机的,你没办法知道具体的发生时间。比如,在接下来的一个小时,你会收到几封邮件?你没办法预知。泊松分布研究的是在固定时间或空间间隔内随机事件发生次数的概率分布,例如:我们以一个小时内马路上经过的汽车数量为例:X = 一个小时内经过的汽车数量泊松分布假设每个小时经过的汽车数量是基本恒定的,虽然这不一定符合现实,比如早晚高峰期的汽车数量肯定是远高于其他时间段的。假设经过观察,你发现你观察的路段每小时经过的汽车数量平均有 \lambda 辆,即:E(X) = \lambda = np 其中,n为时间间隔,p为该时间间隔内事件发生的次数,即:\lambda 辆/小时 = 60 分钟/小时 * \frac{\lambda}{60} 辆/分钟
假设我们观察2个小时,那么期望次数则是:2 * 60 分钟/小时 * \frac{\lambda}{60} 辆/分钟 = 2\lambda辆 在接下来的一个小时内,我观察到k辆汽车的概率是多少呢?我们从60分钟中选出k分钟,假设这k分钟分别会出现一辆车,也即60分钟内出现k辆车;出现车的概率是 \frac{\lambda}{60} ,不出现车的概率是 \left(1-\frac{\lambda}{60}\right) ,因此:P(X=k) = \binom{60}{k}\left(\frac{\lambda}{60}\right)^{k}\left({1-\frac{\lambda}{60}}\right)^{60-k} 你可能会想,如果两辆车出现在同一分钟内?理论上,我们可以无限切分时间,比如将60分钟换成3600秒,得到:P(X=k) = \binom{3600}{k}\left(\frac{\lambda}{3600}\right)^{k}\left({1-\frac{\lambda}{3600}}\right)^{3600-k}至此,我们已经清楚了泊松分布概率分布函数的一般形式:P(X=k) = \lim_{n \rightarrow \infty}\binom{n}{k}\left(\frac{\lambda}{n}\right)^{k}\left({1-\frac{\lambda}{n}}\right)^{n-k} = \lim_{n \rightarrow \infty}\left(\frac{n!}{(n-k)!k!}\right)\left(\frac{{\lambda}^{k}}{{n}^{k}}\right)\left({1-\frac{\lambda}{n}}\right)^{n}\left({1-\frac{\lambda}{n}}\right)^{-k}
= \lim_{n \rightarrow \infty}\left(\frac{(n-1)(n-2)...(n-k+1)}{{n}^{k}}\right)\left(\frac{{\lambda}^{k}}{k!}\right)\lim_{n \rightarrow \infty}\left({1-\frac{\lambda}{n}}\right)^{n}\left({1-\frac{\lambda}{n}}\right)^{-k} 由于n趋向于∞,那么(n-1)(n-2)...(n-k+1)约等于 {n}^{k} ,可与分母一起约掉。而:\lim_{n \rightarrow \infty}\left({1-\frac{\lambda}{n}}\right)^{n} = {e}^{-\lambda} \lim_{n \rightarrow \infty}\left({1-\frac{\lambda}{n}}\right)^{-k} = 1 因此:P(X=k) =\frac{{\lambda}^{k}}{k!}{e}^{-\lambda} 维基百科上有一个实际的例子可以帮助我们直观地理解泊松分布。平均而言,一条河流每100年发生一次特大洪水( \lambda =1)。假设泊松分布是合理的,那么可以计算百年一遇大洪水发生x=0,1,2,3,4,5,6次的概率分别是:P(x=0)=\frac{1^{0}e^{-1}}{0!}=\frac{e^{-1}}{1}=0.368 P(x=1)=\frac{1^{1}e^{-1}}{1!}=\frac{e^{-1}}{1}=0.368P(x=2)=\frac{1^{2}e^{-1}}{2!}=\frac{e^{-1}}{2}=0.184P(x=3)=0.061P(x=4)=0.015P(x=5)=0.003 P(x=6)=0.0005 我们同样使用scipy.stats模块来生成符合泊松分布的随机变量,并利用seaborn的distplot函数绘制概率分布图:from scipy.stats import poisson
import seaborn as sn
data_binom = poisson.rvs(mu=1, size=10000)
ax = sn.distplot(data_binom,
kde=True,
color='green',
hist_kws={"linewidth": 25,'alpha':1})
ax.set(xlabel='Poisson', ylabel='Frequency')图5:poisson.rvs(mu=1, size=10000)二项分布和泊松分布有关系吗?如果二项分布试验的次数足够多,成功事件的概率变小,二项分布便接近泊松分布。图6: binom.rvs(n=1000,p=0.05, size=1000)指数分布假设我在掷骰子,我们已经知道,我每掷6次看到5或6点的事件是符合波松分布的:3 4 6 5 4 4 2 6 2 3 3 2 3 6 5 5 3 4 5 1 3 6 4 6 2 2 3 4 2 3 2 3 4 1 6 2 ...而我掷出5或6点的时间间隔则符合指数分布:3 1 4 6 1 1 3 3 2 11 ...上面的3代表我掷了3次才掷出6点,1代表我一次就掷出了5点,以此类推。可以看到,掷1次2次或3次看到5或6的概率都是很大的,但掷6次甚至11次才看到6的概率则迅速下降。指数分布大致长这样:图7: 指数分布指数分布描述的是波松过程两次事件发生的时间间隔的概率分布,是连续型概率分布。指数分布实际上可以从泊松分布中推导出来。我们以收邮件为例。如果我收到下一封邮件的时间间隔为t,那么在t之内我就不会收到任何邮件。如果单位时间内我收到的邮件封数是 \lambda ,那么在t单位时间内我收到的邮件就是\lambda t
封。因此,按泊松分布的概率分布函数,在t时间间隔内我不会收到任何邮件的概率是:P(X = 0) =\frac{\left({\lambda t}\right)^{0}}{0!}{e}^{-\lambda t} = {e}^{-\lambda t} 反过来,我在t时间间隔内收到邮件的概率则是:P(X>=1) = 1- P(X = 0) = 1-{e}^{-\lambda t} 我们也可以从另一角度来理解 P(X = 0)
= {e}^{-\lambda t} ,即我从收到邮件开始再次收到邮件的时间间隔(T)大于t的概率:P(T > t) = P(X=0) = e^{-\lambda t} 反之,在t单位时间内,我收到邮件的概率就是:P(T <= t) = 1 - P(X=0) = 1 - e^{-\lambda t} 假设我每个小时可以收到3封邮件。在头10分钟,我没有收到邮件的概率是:P(T > 10min) = e^{-3*(10/60)} = 0.607 以此类推:P(T > 20min) = e^{-3*(20/60)} = 0.368 P(T > 30min) = e^{-3*(30/60)} = 0.223 P(T > 60min) = e^{-3*(60/60)} = 0.050 P(T > 10min) = e^{-3*(120/60)} = 0.002 我们可以看到,如果我一个小时可以收到3封邮件,那么我过10分钟没有收到邮件的概率是相对比较大的,有60.7%。过20分钟或30分钟还没有收到任何邮件也有一定的概率,但我过1个小时还没有收到邮件,甚至过2个小时还没有收到邮件的概率则急剧下降。我们再来考虑另外一个问题。在头10分钟,我收到邮件的概率是:P(T <= 10min) = 1 - e^{-3*(10/60)} = 0.393 如果从我收到第一封邮件开始已经过去了30分钟,那么在接下来的10分钟我收到邮件的概率是多少呢?P( 30min \leq T \leq 40min)
= P( T \leq 40min)
-
P( T \leq 30min)
= (1 - e^{-3*(40/60)}) - (1 - e^{-3*(30/60)}) = e^{-3*(30/60)} - e^{-3*(40/60)} = 0.223 - 0.135 \approx 0.088指数分布的这一特性不能与它的无记忆性相混淆。无记忆性无记忆性意味着,我已经等待了30分钟后,我还需要再等待超过10分钟才能收到邮件的概率,与我从一开始就要等待超过10分钟的概率是一致的:P(T>40
T>30) = P(T>10)
就算你选择继续等待,接下来10分钟事情就发生的概率并不会增加或减少。注意不是:P(T>40
T>30) = P(T>40)即我已经等待了30分钟,我还需要再等待超过10分钟的概率,与我从一开始要等待超过40分钟才能收到邮件的概率相等。也就是说,在等待30分钟后的10分钟内我收到邮件的概率和我在40分钟内收到邮件的概率是相等的。如果这样的话,我在前30分钟就收不到邮件。它们就不是相互独立事件了。指数分布的概率密度函数是:P(x; \lambda) = \left\{ \begin{aligned} \lambda e^{-\lambda x},\ x \geq 0 \\ 0,
\ x <0
\\ \end{aligned} \right. 我们使用scipy.stats模块来生成符合指数分布的随机变量,并利用seaborn的distplot函数绘制概率分布图:from scipy.stats import expon
import seaborn as sn
data_expon = expon.rvs(scale=1, loc=0, size=1000)
ax = sn.distplot(data_expon,
kde=True,
bins=100,
color='skyblue',
hist_kws={"linewidth": 15,'alpha':1})
ax.set(xlabel='Exponential Distribution', ylabel='Frequency')图8:expon.rvs(scale=1, loc=0, size=1000)正态分布要理解正态分布,我们首先要了解中心极限定理。中心极限定理告诉我们,不管总体的分布如何,随着样本数量n的增大,随机且独立的n个观察值的样本均值将服从正态分布。假设我们抛100次硬币,那么我们可以预期得到正面朝上的次数是np=100*0.5=50次。于是我们开始试验,第一次正面朝上的次数是51,第二次是53,第三次是56,经过了三次试验后,样本的均值是53,稍大于期望值。但继续试验,同样会得到小于期望值的正面朝上次数。只要试验的次数足够多,样本均值将趋近于总体均值50。上面我们用二项分布介绍了中心极限定理,但正态分布与指数分布一样也属于连续型概率分布。那二项分布和正态分布有什么关系?假设我们抛5次硬币,各种情况出现的概率分布是怎样的呢?没有一次正面朝上 -
P(X=0)=\frac{1}{32} 有一次正面朝上 -
P(X=1)=\frac{5}{32} 有两次正面朝上 - P(X=2)=\frac{10}{32}=\frac{5}{16} 有三次正面朝上 - P(X=3)=\frac{10}{32}=\frac{5}{16} 有四次正面朝上 - P(X=1)=\frac{5}{32} 全部正面朝上 - P(X=0)=\frac{1}{32} 将上面的概率分布绘制出来:图9:binom.rvs(n=5,p=0.5, size=1000)只要试验的次数足够多,比如把5次试验换成500次、5000次甚至5万次试验,那么二项分布就接近正态分布:图10:binom.rvs(n=500,p=0.5, size=1000)总之,假设有许多随机事件正在进行,然后把它们发生的概率分布绘制出来,离散的情况下就是二项分布,而连续的情况下就是正态分布。我们把上面抛100次硬币的例子,换成每次从总体中抽取100个人的身高(连续型随机变量),那么100个人的身高的均值将服从正态分布。正态分布的概率分布图像一个左右对称的钟。因此也被称为“钟形曲线”。越接近期望值的数值出现的概率越高,而越远离期望值的数值出现的概率越小。例如,中国成年男性的平均身高是1.67m,你很容易碰到身高在1.67m左右的人,而身高在2.64m甚至3.19m的人则非常少见。除了身高,许多现象都符合正态分布的规律,例如:体重测量误差血压学生的考试分数不同的正态分布“长得不一样”。如何描述不同分布的特征呢?平均值 - 它描述了正态分布曲线中心的位置标准差 - 它描述了正态分布曲线分散的情况,如果数据比较分散,标准差大,那么钟形曲线就比较扁平,而如果数据比较集中,标准差小,那么钟形曲线就比较陡尖图11:不同平均值或标准差下的钟形/正态分布曲线对于正态分布,68%的观察值落在平均值正负一个标准差的范围内,95%的观察值落在正负两个标准差的范围内,99.7%的观察值落在正负三个标准差的范围内。我们来绘制正态分布:%matplotlib inline
import seaborn as sn
from scipy.stats import norm
data_normal = norm.rvs(size=10000, loc=0, scale=1)
ax = sn.distplot(data_normal,
bins=100,
kde=True,
color='skyblue',
hist_kws={"linewidth": 15,'alpha':1})
ax.set(xlabel='Normal Distribution', ylabel='Frequency')图12:norm.rvs(size=10000, loc=0, scale=1) 总结抛一次硬币,是一个伯努利随机变量。这一变量有两个结果:正面朝上和反面朝上。正面朝上的概率是50%,反面朝上的概率是100%-50%=50%。这便是伯努利变量的概率分布:P(x) = \left\{ \begin{aligned} 1-p,\ x = 0 \\ p,
\ x =1
\\ \end{aligned} \right. 如果我们抛5次硬币,不同结果的概率分布属于二项分布。抛n次硬币有k次正面朝上的概率是:P(X=k) = \binom{n}{k}p^{k}q^{n-k} 生活中许多事情的发生是有一定的频率的。例如,每抛两次硬币大概有一次会正面朝上;每掷6次骰子大概有两次是5点或6点。泊松分布研究的是在固定时间或空间间隔内随机事件发生次数的概率分布:P(X=k) =\frac{{\lambda}^{k}}{k!}{e}^{-\lambda} 如果二项分布试验的次数足够多,成功事件的概率变小,二项分布便接近泊松分布。指数分布描述的是波松过程两次事件发生的时间间隔的概率分布,属于连续型概率分布。指数分布实际上可以从泊松分布中推导出来。指数分布的概率密度函数是:P(x; \lambda) = \left\{ \begin{aligned} \lambda e^{-\lambda x},\ x \geq 0 \\ 0,
\ x <0
\\ \end{aligned} \right. 正态分布与指数分布一样,也属于连续型概率分布。根据中心极限定理,正态分布本质上是由随机变量的加法过程造成的。而随机变量的乘法过程将形成指数分布。我们继续来玩抛硬币游戏,这次的规则是:如果正面朝上,则继续抛硬币;一旦遇到背面朝上,则游戏终止:第一次就背面朝上的概率 = 1/2第二次背面朝上的概率 = 1/2*1/2 =(1/2)^{2} 第三次背面朝上的概率
=(1/2)^{3} 以此类推。现实中还有许多乘法过程的例子:电商平台商家的成交。平台流量资源有限,不同商家彼此竞争,少量商家获得了大部分资源,带动成交增长;高成交进一步促成了资源的集中,比如更容易在搜索中曝光、更多的营销资源倾斜等等。网络视频的观看人数。一个人在网上看了一个视频并点了赞,她很有可能将这个视频分享给自己的朋友,因此这个视频的观看人数就会按已经观看人数的一定比例增长。微博粉丝数。如果一个人是微博大V,她发了一条微博,就会有许多人转发,进而有更多的粉丝。因为乘法过程,变大或变流行的东西会按现有规模一定的比例变得更大、更流行。参考资料:Probability Distributions in Python with SciPy and SeabornExponential Distribution / Negative Exponential: Definition, Examples泊松分布和指数分布:10分钟教程 The Poisson and Exponential Distributions Basics of Probability for Data Science explained with examples 6 Common Probability Distributions every data science professional should know Probability Distributions in Python Statistics and probability

我要回帖

更多关于 离散型随机变量的方差怎么算 的文章

 

随机推荐