零、基本介绍
此文中 \(\log\) 指代自然对数,记 \(p, q, r\) 为素数,分解 \(n = p_1^{\alpha_1}p_2^{\alpha_2} \cdots p_m^{\alpha_m}\)。
令 \(\displaystyle \pi(x) = \sum [0 \le p \le x]\) 为素数计数函数,则其为我们研究的目标。
素数作为整数环上的不可约元,研究素数的分布必然要与整数的唯一分解联系起来,累积是一种手段,我们研究考虑 \(n!\) 的质因数分解:
\[\log n! = \sum_{p} \left( \left\lfloor\frac{n}{p}\right\rfloor + \left\lfloor\frac{n}{p^2}\right\rfloor + \cdots \right) \log p
\]
但由于下取整的存在带来了困难,因此我们考虑反演,定义冯·曼戈尔特函数和其和函数切比雪夫函数:
\[\Lambda := \log *\,\mu = \begin{cases} \log p & (n = p^k) \\ 0 & \mathrm{otherwise} \end{cases}
\]
\[\psi(x) := \sum_{n \le x} \Lambda(n) = \sum_{p ^ m \le x} \log p,\ \ \vartheta(x) := \sum_{p \le x} \log p
\]
分析切比雪夫函数是证明素数定理必要的手段。
我们先能分析出 \(R(x) := \vartheta(x) - x\) 在积分累计后值较小,但这还不够。
利用 \(\Lambda * \Lambda + \Lambda' = \mu * 1''\),我们得到了关键的塞尔伯格渐近公式。
从而我们可以迭代估计。
利用积分累计的式子,能分析出必然存在的 \(|R(x)|\) 较小的区间;
然后,利用这些值,就能估计出 \(|R(x)|\) 必然比预想中小,素数定理也就浮现了。
参考:华罗庚《数论导引》以及 TravorLZH 的知乎专栏。
一、以积分来估计和的数值
定理一
当 \(x \ge a\) 时,若 \(f(x)\) 非负且单调递增,则有:
\[\left| \sum_{a \le n \le \xi} f(n) - \int_a^\xi f(x) \mathrm dx \right| \le f(\xi)
\]
设 \(b = \lfloor \xi \rfloor\),则有:
\[\begin{aligned}
\int_a^{\xi} f(x) \mathrm dx &= \int_b^\xi f(x) \mathrm dx + \sum_{i=a}^{b-1} \int_i^{i+1} f(x)\mathrm dx \\
& = \sum_{a \le n \le \xi} f(n) + r, \quad \text{where } r \in [-f(a) , f(\xi) - f(b)]
\end{aligned}\]
取 \(a = 1, f(x) = \log x\),则 \(\displaystyle \sum_{n \le x} \log n = \log \lfloor x \rfloor !\),故:
\[\log \lfloor x \rfloor ! = \int_1^x \log t \mathrm dt + O(\log x) = x\log x - x + O(\log x)
\]
定理二
当 \(x \ge a\) 时,若 \(f(x)\) 非负且单调递减,则极限:
\[\lim_{N \to \infty} \left( \sum_{n = a} ^ N f(n) - \int_a ^ N f(x) \mathrm dx \right) = \alpha
\]
存在,且 \(0 \le \alpha \le f(a)\),更进一步的,若 \(x \to \infty\) 时 \(f(x) \to 0\),则 \(\xi \ge \alpha + 1\) 时有:
\[\left| \sum_{a \le n \le \xi} f(n) - \int_a ^ \xi f(x) \mathrm dx - \alpha \right| \le f(\xi - 1)
\]
令:
\[g(\xi) = \sum_{a \le n \le \xi} f(n) - \int_a ^ \xi f(x) \mathrm dx
\]
则有:
\[g(n) - g(n + 1) = -f(n + 1) + \int_n ^ {n + 1} f(x) \mathrm dx \ge -f(n + 1) + f(n + 1) \ge 0
\]
又有:
\[g(N) = \sum_{i = a} ^ {N - 1} \left( f(n) - \int_n ^ {n + 1} f(x) \mathrm dx \right) + f(N) \ge f(N) \ge 0
\]
故 \(g(n)\) 单调递减且有界,极限存在为 \(\alpha\),且 \(0 \le \alpha \le f(a)\)。
若 \(x \to \infty\) 时 \(f(x) \to 0\),则设 \(b = \lfloor \xi \rfloor\):
\[\begin{aligned}
g(\xi) - \alpha &= \sum_{a \le n \le \xi} f(n) - \int_a^\xi f(x)\mathrm dx - \lim_{N \to \infty} \left( \sum_{n=a}^N f(n) - \int_a^N f(x) \mathrm dx \right) \\
&= -\int_b^\xi f(x) \mathrm dx + \lim_{N \to \infty} \left( \int_b^N f(x) \mathrm dx - \sum_{n=b+1}^N f(n) \right) \\
&\left\{ \begin{aligned}
&\le \lim_{N \to \infty} \sum_{n=b}^N \Big( f(n) - f(n-1) \Big) \mathrm dx = f(b) \le f(\xi - 1) \\
&\ge -\int_b ^ \xi f(x) \mathrm dx \ge -(\xi - b) f(b) \ge - f(\xi - 1)
\end{aligned} \right.
\end{aligned}\]
故得定理。
取 \(\displaystyle a = 1, f(x) = \frac{1}{x}\),此时 \(\alpha\) 为 Euler 常数 \(\gamma\),有 \(0 \le \gamma \le 1\),且:
\[\sum_{1 \le n \le \xi} \frac{1}{n} = \log \xi + \gamma + O \left( \frac{1}{\xi} \right)
\]
二、分部求和法
设 \(f : \mathbb N \mapsto \mathbb C, g : \mathbb R \mapsto \mathbb C\),和函数 \(\displaystyle S(x) = \sum_{n \le x} f(n)\),则有:
\[\sum_{a \le n \le x} f(n)g(n) = S(x)g(x) - S(a-1)g(a) - \int_a^x S(t)g'(t)\mathrm dt
\]
记 \(b = \lfloor x \rfloor\),则有:
\[\begin{aligned}
\sum_{n=a}^b f(n)g(n) &= \sum_{n=a}^b \Big( S(n)-S(n-1) \Big) g(n) \\
&= S(b)g(b) - S(a-1)g(a) - \sum_{n=a}^{b-1}S(n) \Big( g(n+1) - g(n) \Big) \\
&= S(b)g(b) - S(a-1)g(a) - \int_a^b S(t)g'(t)\mathrm dt
\end{aligned}\]
又有:
\[S(x)g(x) - S(b)g(b) = S(b)\Big(g(x)-g(b)\Big) = \int_b^x S(t)g'(t)\mathrm dt
\]
故得证。
计算对素数求和时,常可以取 \(S(x) = \pi(x), \vartheta(x)\) 或别的和素数相关的和函数。
三、数论杂项
狄利克雷卷积
狄利克雷卷积满足乘法的运算律,其是如下定义的:
\[(f * g)(n) := \sum_{d \mid n} f(d)g\!\left(\frac{n}{d}\right)
\]
设函数 \(h\) 满足 \(h(ab) = h(a) + h(b)\),则可以定义狄利克雷导数:
\[f'(n) := f(n)h(n)
\]
\[\begin{aligned}
(f * g)'(n) &= \sum_{d \mid n} f(d)g\!\left(\frac{n}{d}\right)h(n) \\
&= \sum_{d \mid n} f(d)h(d)g\!\left(\frac{n}{d}\right) + \sum_{d \mid n} f(d)g\!\left(\frac{n}{d}\right)h\!\left(\frac{n}{d}\right) = f'*g + f*g'
\end{aligned}\]
常取 \(h(n) = \log n\)。
以 \(\mu * 1 = \epsilon\) 定义 \(\mu\),其中 \(1(n) = 1\),\(\epsilon(n) = [n=1]\)。
莫比乌斯反演
根据 \(\mu * 1 = \epsilon\),代入即可证明:
\[F(x) = \sum_{n \le x} G\!\left(\frac{x}{n}\right) \iff G(x) = \sum_{n \le x} \mu(n)F\!\left(\frac{x}{n}\right)
\]
我们常常需要估计 \(F\) 和 \(G\),我们给出一些例子。
当 \(G(x) = x^\alpha\),\(0 \le \alpha < 1\) 时,有:
\[F(x) = \sum_{n \le x} \left(\frac{x}{n}\right)^\alpha = x^\alpha \left( \int_{1}^x \frac{\mathrm dt}{t^\alpha} + O(1) \right) = \frac{x}{1-\alpha} + O(x^\alpha)
\]
当 \(G(x) = x\log^m x, m \ge 0\) 时,有:
\[\begin{aligned}
F(x) &= x\log^m x \sum_{n \le x} \frac{1}{n}\!\left(1 - \frac{\log n}{\log x}\right)^m \\
&= x\log^m x \sum_{k} (-1)^k\dbinom{m}{k}\sum_{n \le x} \frac{1}{n}\!\left(\frac{\log n}{\log x}\right)^k
\end{aligned}\]
计算:
\[\sum_{n \le x} \frac{1}{n}\!\left(\frac{\log n}{\log x}\right)^k = \frac{1}{\log^k x}\int_1^x \frac{\log^k t\mathrm dt}{t} + O(1) = \frac{\log x}{k+1} + O(1)
\]
再通过:
\[\sum_k \dbinom{m}{k} = 2^k,\ \sum_k (-1)^k\dbinom{m}{k} = 0^k = [k=0]
\]
\[\begin{aligned}
\sum_k (-1)^k\dbinom{m}{k}\frac{1}{k+1} &= \frac{1}{m+1}\sum_{k=0} (-1)^k\dbinom{m+1}{k+1} \\
&= \frac{1}{m+1}\left(1-\sum_k (-1)^k\dbinom{m+1}{k}\right) = \frac{1}{m+1}
\end{aligned}\]
便可以最终得到:
\[F(x) = \frac{x\log^{m+1} x}{m+1} + O(x\log^m x)
\]
反着证明便可以做到给定 \(F(x)\) 时,估计 \(G(x)\),这在处理 \(\mu(n)\) 时是极为有用的。
四、切比雪夫定理
切比雪夫定理讲述了 \(\pi(x)\log x = \Theta(x)\),是证明素数定理的一个前置估计。
对 \(\log n!\) 的估计
首先可以重写刚刚的 \(\log n!\) 的展开式:
\[\sum_{n \le x} \Lambda(n)\left\lfloor\frac{x}{n}\right\rfloor = \log \lfloor x \rfloor ! = x\log x + O(x)
\]
在两侧做变换 \(F(x) - 2F(x/2)\),右侧可以得到 \(x\log x - 2(x/2\log x/2) + O(x) = \Theta(x)\),
然后在左侧通过 \([n>x/2] \le \lfloor x/n \rfloor - 2\lfloor x/2n \rfloor \le 1\),可以得到:
\[\psi(x) - \psi(x/2) \le \Theta(x) \le \psi(x) \implies \psi(x) = \Theta(x)
\]
又因为:
\[\psi(x) = \sum_{p \le x} \left\lfloor \frac{\log x}{\log p} \right\rfloor \log p
\]
故 \(\psi(x) \le \pi(x)\log x \le 2\psi(x)\),即 \(\pi(x)\log x = \Theta(x)\)。
切比雪夫定理的推论
以上的估计大部分都是 \(\Theta\),但下面这个式子却成功估出了主项的系数!
\[\sum_{p \le x} \frac{\log p}{p} = \log x + O(1)
\]
通过 \(\lfloor x \rfloor = x + O(1)\),有:
\[\sum_{n \le x} \Lambda(n)\left\lfloor\frac{x}{n}\right\rfloor = x \sum_{n \le x} \frac{\Lambda(n)}{n} + O(\psi(x))
\]
故 \(\displaystyle \sum_{n \le x} \frac{\Lambda(n)}{n} = \log x + O(1)\),则有:
\[\sum_{p \le x} \frac{\log p}{p} = \sum_{n \le x} \frac{\Lambda(n)}{n} + O\!\left(\sum_{p} \frac{\log p}{p(p-1)}\right) = \log x + O(1)
\]
我们还可以通过分部求和法得到更多类似的式子:
\[\sum_{p \le x} \frac{1}{p} = \int_2^x \frac{1}{t\log t}\mathrm dt + O(1) = \log\log x + O(1)
\]
\[\sum_{p \le x} \frac{\log^2 p}{p} = \log^2 x - \int_2^x \frac{\log t}{t}\mathrm dt + O(1) = \frac{1}{2}\log^2 x + O(1)
\]
五、切比雪夫函数的估计
首先根据 \(\pi(x)\log x = \Theta(x)\),有以下事实:
\[\begin{aligned}
\vartheta(x) &= \sum_{2\le n\le x} \Big( \pi(n) - \pi(n-1) \Big) \log n = \pi(x)\log x - \int_2^x \frac{\pi(t)}{t}\mathrm dt \\
&= \pi(x)\log x - O\!\left(\int_2^x \frac{\mathrm dt}{\log t}\right) = \pi(x)\log x - O\!\left(\frac{x}{\log x}\right)
\end{aligned}\]
\[\psi(x) = \sum_{m = 1} \sum_{p \le \sqrt[m]{x}} \log p = \vartheta(x) + \vartheta(x^\frac{1}{2}) + \vartheta(x^\frac{1}{3}) + \cdots = \vartheta(x) + O(\sqrt{x}\log x)
\]
故 \(\psi(x) \sim \vartheta(x) \sim \pi(x)\log x\)。我们将估计素数计数函数化为了估计更友好的切比雪夫函数。
事实上,利用分部求和,我们立马可以得到:
\[\sum_{p \le x} \frac{\log p}{p} = \frac{\vartheta(x)}{x} + \int_2^x \frac{\vartheta(t)}{t^2}\mathrm dt + O(1)
\]
也即以下这个重要估计!
\[\int_2^x \frac{\vartheta(t)}{t^2}\mathrm dt = \log x + O(1)
\]
误差函数的引入
令 \(R(x) = \vartheta(x) - x\),我们要证的是 \(R(x) = \omicron(x)\),估计 \(R(x)\) 的时候可以使用绝对值的语言,这将是十分方便的。
重写刚刚得到的 \(\vartheta(x)\) 的积分估计:
\[\int_2^x \frac{\vartheta(t)}{t^2}\mathrm dt = \log x + O(1) \implies \int_2^x \frac{R(t)}{t^2}\mathrm dt = O(1) \implies \int_y^x \frac{R(t)}{t^2}\mathrm dt = O(1)
\]
估计 \(\displaystyle\left|\frac{R(x)}{x}\right|\) 的上界时,会发现痛点在于 \(R(x)\) 可能有局部的峰和变号。
我们将用一个从 \(n \le x\) 的 \(\displaystyle R\!\left(\frac{x}{n}\right)\) 递推到 \(R(x)\) 的递推公式解决这个问题。
塞尔伯格渐近公式
塞尔伯格渐近公式是这样的:
\[\vartheta(x)\log x + \sum_{p \le x}\vartheta\!\left(\frac{x}{p}\right)\log p = 2x\log x + O(x)
\]
代入 \(\vartheta(x) = x\) 可以看到两侧相等,并且这个递推也符合我们的需要。
考虑 \(\Lambda * 1 = \log = 1'\),两侧求导并卷上 \(\mu\),有:
\[\mu * 1'' = \mu * (\Lambda * 1)' = \mu * \Lambda * 1' + \Lambda' = \Lambda * \Lambda + \Lambda'
\]
两侧都进行前缀和,有:
\[\sum_{n \le x} \Lambda(n)\log n + \sum_{nm \le x} \Lambda(n)\Lambda(m) = \sum_{d \le x} \mu(d) \sum_{n \le x/d} \log^2(n)
\]
逐项估计:
\[\begin{aligned}
\sum_{n \le x} \Lambda(n)\log n - \vartheta(x)\log x &= \sum_{m \ge 2}\sum_{p^m \le x} m\log^2 p - \sum_{p \le x} \log p\log\!\left(\frac{x}{p}\right) \\
&= O(x) + O\Big((\pi(x)\log x - \vartheta(x))\log x\Big) = O(x)
\end{aligned}\]
\[\begin{aligned}
\sum_{nm \le x} \Lambda(n)\Lambda(m) - \sum_{p \le x}\vartheta\!\left(\frac{x}{p}\right)\log p &= \sum_{nm \le x} \Lambda(n)\Lambda(m) - \sum_{pq \le x} \log p\log q \\
&= O\!\left(\sum_{p \le x} \log p \sum_{m \ge 2} \psi\!\left(\frac{x}{p^m}\right)\right) \\
&= O\!\left(x\sum_{p \le x} \frac{\log p}{p(p-1)}\right) = O(x) \\
\end{aligned}\]
并利用上文莫反的结论:
\[\begin{aligned}
\sum_{d \le x} \mu(d) \sum_{n \le x/d} \log^2(n) &= \sum_{d \le x} \mu(d) \left(\int_1^{x/d} \log^2 t\mathrm dt + O\!\left(\log^2\!\left(\frac{x}{d}\right)\right)\right) \\
&= \sum_{d \le x} \mu(d) \frac{x}{d}\log^2\!\left(\frac{x}{d}\right) + O(x) = 2x\log x + O(x)
\end{aligned}\]
即证。
由于
\[\sum_{p \le x} \log^2 p = \vartheta(x)\log x - 2\int_2^x \frac{\vartheta(t)}{t}\mathrm dt = \vartheta(x)\log x + O(x)
\]
故塞尔伯格渐进公式也可写为:
\[\sum_{p \le x} \log^2 p + \sum_{pq \le x}\log p\log q = 2x\log x + O(x)
\]
误差函数的上界与线性性
由于 \(\vartheta(x) = \Theta(x)\),当 \(x > x_0'\) 时其存在下界 \(c'x\),通过塞尔伯格渐进公式:
\[\vartheta(x) \le 2x - \frac{1}{\log x}\sum_{p\le x/x_0'}\vartheta\!\left(\frac{x}{p}\right)\log p + O\!\left(\frac{x}{\log x}\right) \le (2-c')x + O\!\left(\frac{x}{\log x}\right)
\]
故存在 \(x_0, c\) 满足 \(x > x_0\) 时 \(cx < \vartheta(x) < (2-c)x\),令 \(\sigma_0 = 1 - c\),有 \(|R(x)| < \sigma_0x\)。
设 \(y > x\),则有:
\[\begin{aligned}
&\vartheta(y)\log y - \vartheta(x)\log x \le 2(y\log y - x\log x) + O(y) \\
\implies &\vartheta(y) - \vartheta(x) \le 2(y - x) + O\left(\frac{y\log(y/x)}{\log y}\right) \\
\implies &|R(y)-R(x)| < y-x + O\left(\frac{y\log(y/x)}{\log y}\right)
\end{aligned}\]
递推公式的导出
我们想通过分部求和法将 \(\displaystyle \sum_{p \le x} \vartheta\!\left(\frac{x}{p}\right)\log p\) 化为更好操作的 \(\displaystyle \sum_{n \le x} \vartheta\!\left(\frac{x}{n}\right)\log n\)。
但塞尔伯格渐进公式包含了 \(p \le x\) 和 \(pq \le x\) 两项,仅有素数的项是不够的。
将 \(x / q\) 代入上式并以 \(\log(q)\) 的权重求和,得到:
\[\sum_{q \le x} \vartheta\!\left(\frac{x}{q}\right)\log\!\left(\frac{x}{q}\right)\log q + \sum_{pq \le x}\vartheta\!\left(\frac{x}{pq}\right)\log p\log q = 2\sum_{q \le x} \frac{x}{q}\log\!\left(\frac{x}{q}\right)\log q + O\!\left(x\log x\right)
\]
估计第一项:
\[\sum_{q \le x} \vartheta\!\left(\frac{x}{q}\right)\log\!\left(\frac{x}{q}\right)\log q = \log x \sum_{q \le x} \vartheta\!\left(\frac{x}{q}\right)\log q - \sum_{q \le x} \vartheta\!\left(\frac{x}{q}\right)\log^2 q
\]
\[\sum_{q \le x} \vartheta\!\left(\frac{x}{q}\right)\log q = 2x \log x + O(x) - \vartheta(x)\log x
\]
估计右侧的第一项:
\[\sum_{q \le x} \frac{x}{q}\log\!\left(\frac{x}{q}\right)\log q = \frac{1}{2}x\log^2 x + O(x\log x)
\]
故我们得到结论:
\[\vartheta(x)\log^2 x = x\log^2 x - \sum_{p \le x} \vartheta\!\left(\frac{x}{p}\right)\log^2 p + \sum_{pq \le x}\vartheta\!\left(\frac{x}{pq}\right)\log p\log q + O(x\log x)
\]
看上去不错。
重写刚刚得到的估计:
\[R(x)\log^2 x = -\sum_{p \le x} R\!\left(\frac{x}{p}\right)\log^2 p + \sum_{pq \le x}R\!\left(\frac{x}{pq}\right)\log p\log q + O(x\log x)
\]
其中用到了一个新的素数二重求和:
\[\sum_{pq \le x}\frac{\log p\log q}{pq} = \sum_{p \le x} \frac{\log p}{p}\Big(\log x - \log p + O(1)\Big) = \frac{1}{2}\log^2 x + O(\log x)
\]
取绝对值得:
\[\begin{aligned}
|R(x)|\log^2 x &\le \sum_{p \le x} \left|R\!\left(\frac{x}{p}\right)\right| \log^2 p + \sum_{pq \le x}\left|R\!\left(\frac{x}{pq}\right)\right|\log p\log q + O(x\log x) \\
&= \sum_{n \le x} \Big(2n\log n + O(n)\Big)\left(\left|R\!\left(\frac{x}{n-1}\right)\right|-\left|R\!\left(\frac{x}{n}\right)\right|\right) + O(x\log x) \\
&= \sum_{n \le x} \Big(2\log n + O(1)\Big)\left|R\!\left(\frac{x}{n}\right)\right| + O(x\log x)
\end{aligned}\]
终于,我们去掉了公式中的 \(p\),有:
\[|R(x)|\log^2 x \le 2\sum_{n \le x} \left|R\!\left(\frac{x}{n}\right)\right|\log n + O(x\log x)
\]
六、最后的斗争
我们先罗列一下已有的工具:
\[\int_y^x \frac{R(t)}{t^2}\mathrm dt = O(1)
\]
\[\forall x > x_0 : |R(x)| < \sigma_0x
\]
\[\vartheta(y) - \vartheta(x) \le 2(y - x) + O\left(\frac{y\log(y/x)}{\log y}\right)
\]
\[|R(x)|\log^2 x \le 2\sum_{n \le x} \left|R\!\left(\frac{x}{n}\right)\right|\log n + O(x\log x)
\]
证明存在值较小的区间
设存在 \(\sigma < 1, x_0\) 使得 \(x > x_0\) 时有 \(|R(x)| < \sigma x\)。
取 \(x_1 \ge x_0\) 还满足以下两条条件:
\[\left|\int_y^x \frac{R(t)}{t^2}\mathrm dt\right| < M,\ \frac{\log x}{x} < \frac{\sigma}{3}
\]
那么存在 \(x_\sigma\),使得 \(x > x_\sigma\) 时,区间 \((x, \lambda x)\) 皆包含子区间 \([y, \delta y)\) 使得:
\[\forall z \in [y, \delta y) : \left|\frac{R(z)}{z}\right| < \frac{2\sigma}{3}
\]
其中 \(\displaystyle \lambda = e^{3M/\sigma},\ \delta = \min\!\left(\lambda, 1 + \frac{\sigma}{3}\right)\)。
首先对于 \(x > x_1\),若 \(R(x)\) 在 \((x, \lambda x)\) 上不变号,那么存在 \(y\) 使得:
\[\left|\frac{R(y)}{y}\right|\log\lambda = \left|\frac{R(y)}{y}\right|\int_x^{\lambda x} \frac{\mathrm dt}{t} \le \left|\int_x^{\lambda x} \frac{R(t)}{t^2}\mathrm dt\right| + \varepsilon < M \implies \left|\frac{R(y)}{y}\right| < \frac{\sigma}{3}
\]
若变号,则存在 \(y\) 使得 \(|R(y)| \le \log y\),上述结论亦成立。
设 \(1/\delta \le y/y' < \delta\),那么:
\[\begin{aligned}
\left|\frac{R(y')}{y'}\right| &\le \left|\frac{R(y) + |y' - y|}{y'}\right| + O\!\left(\frac{1}{\log x}\right) \\
&\le \left|\frac{R(y)}{y}\right| \frac{y}{y'} + \left|1 - \frac{y}{y'}\right| + O\!\left(\frac{1}{\log x}\right) \\
&\le \frac{\sigma}{3}\!\left(1 + \frac{\sigma}{3}\right) + \frac{\sigma}{3} + O\!\left(\frac{1}{\log x}\right) < \frac{2\sigma}{3}\quad (x > x_\sigma)
\end{aligned}\]
显然 \([y/\delta, \delta y)\) 中肯定含有所需的区间。
素数定理的证明
对 \(\sigma_0\) 应用结论,得到所需的 \(x_{\sigma_0}, \lambda, \delta\),然后对于 \([x/\lambda^k, x/\lambda^{k-1})\) 选取 \(y_k\):
\[\begin{aligned}
R(x) &\le \frac{2}{\log^2 x}\sum_{n \le \frac{x}{x_{\sigma_0}}} \left|R\!\left(\frac{x}{n}\right)\right|\log n + \frac{2}{\log^2 x}\sum_{\frac{x}{x_{\sigma_0}} < n \le x} \left|R\!\left(\frac{x}{n}\right)\right|\log n + O\!\left(\frac{x}{\log x}\right) \\
&\le \frac{2\sigma_0 x}{\log^2 x}\sum_{n \le \frac{x}{x_{\sigma_0}}} \frac{\log n}{n} - \frac{2\sigma_0 x}{3\log^2 x}\sum_{\lambda^k \le \frac{x}{x_{\sigma_0}}}\sum_{y_k\le n<\delta y_k} \frac{\log n}{n} + O\!\left(\frac{x}{\log x}\right) \\
&\le \sigma_0x - \frac{2\sigma_0 x}{3\log^2 x}\sum_{\lambda^k \le \frac{x}{x_{\sigma_0}}} \left(\log \delta\log x - k\log\delta\log \lambda + O\!\left(\frac{k\log \lambda}{\lambda^{k}}\right)\right) + O\!\left(\frac{x}{\log x}\right) \\
&\le \sigma_0x - \frac{2\sigma_0 x}{3\log^2 x}\left(\frac{\log x}{\log \lambda}\log \delta\log x - \frac{1}{2}\!\left(\frac{\log x}{\log \lambda}\right)^2\log\delta\log\lambda\right) + O\!\left(\frac{x}{\log x}\right) \\
&\le \sigma_0x\left(1 - \frac{\log\delta}{3\log\lambda}\right) + O\!\left(\frac{x}{\log x}\right) \\
&\le \sigma_0x\left(1 - \frac{\sigma_0^2}{27M}\right) + O\!\left(\frac{x}{\log x}\right) < \sigma_0\!\left(1-\frac{\sigma_0^2}{30M}\right)x = \sigma_1 x \quad (x > x_{\sigma_1})
\end{aligned}\]
故我们得到了一系列 \(\sigma_0 > \sigma_1 > \cdots > \sigma_n\),显然 \(\lim_{n\to\infty} \sigma_n = 0\)。
明所欲证!!!