改善 Excel 较差的过滤性能

改善 Excel 较差的过滤性能

当我尝试过滤相对较小的数据集(50,000-250,000 行)时,Excel 出现了一些严重的性能问题。

在 10 万行数据集中过滤单个列以排除某个值可能需要 10-15 分钟。更糟糕的是删除重复项,这可能需要 20-30 分钟。整个过程中,我的 CPU 占用率约为 24%

这似乎异常缓慢,我编写了一个 JavaScript 脚本来过滤另一个系统上的一些数据,该脚本对 50 万行或更多行的运行时间为几秒钟。我希望 Excel 最多在一两分钟内解决这些过滤器。

如何提高 Excel 的性能?是否有方法可以监控其性能并确定其问题所在?

答案1

是的,如果有必要,请删除所有公式(复制/粘贴值)。减少要处理的列数,尤其是当您将数据填到右侧时(我相信 Excel 会分配每一行,并且分配处理数据所需的列数,因此将数据存储在 A 列和 ZZ 列会产生大量未使用的列,而仅使用 A 列和 B 列)。

还要注意引用您正在过滤的数据的 Subtotal() 函数。

最后考虑关闭自动重新计算。看看这会有什么影响。你可能忘记了其他公式。

但如果您能给我们提供更多细节,那会很有帮助。100k 行数据对于 Excel 来说相当大,但老实说,列数也很重要。2 列还是 20 列?乘以 100k 后差别很大。

相关内容