我正在运行这个脚本:
import pyspark
import random
sc = pyspark.SparkContext(appName="Pi")
num_samples = 100000000
def inside(p):
x, y = random.random(), random.random()
return x*x + y*y < 1
count = sc.parallelize(range(0, num_samples)).filter(inside).count()
pi = 4 * count / num_samples
print(pi)
sc.stop()
并且它运行起来没有任何问题。
如果我将num_samples
变量增加到1000000000
例如,大约 2 秒后我的计算机就会完全关闭。
CPU:amd 5950x 64gb RAM GPU:RTX 3070 TI PSU:CV 750W Bronze
有人知道为什么会发生这种情况吗?
答案1
你很可能遇到了 CPU 散热问题。用力推,CPU 会过热并进入热关机状态。
检查风扇等。上次发生在我身上时,罪魁祸首是液体冷却系统的泵故障。
答案2
750w 的电源似乎不够。amd 7700x 和 5700 gpu 也不够。
一旦承受负载,12v 电压轨就会持续降至最低值以下。