我正在尝试将一个 zip 文件夹(20GB)从我的笔记本电脑上传到我的 VM 实例
gcloud compute scp /Users/yudhiesh/Desktop/frames_split.zip jupyter@tensorflow-5-vm:data
它可以工作,但是速度却慢得令人难以忍受,即使我的常规上传速度约为 2-3 MB/s,我该怎么做才能加快速度呢?
frames_split.zip 0% 195MB 249.4KB/s 24:14:18 ET
答案1
嘿,我建议你试试这个文档将文件传输至实例
- 创建新的 Cloud Storage 存储桶或者确定要用于传输文件的现有存储桶
- 从你的笔记本电脑,使用以下命令将文件上传到存储桶
gsutil cp OBJECT_LOCATION gs://DESTINATION_BUCKET_NAME/
- 通过 SSH 进入您的虚拟机
tensorflow-5-vm
(假设这是 Linux 虚拟机) - 使用以下命令将文件复制到您的实例
gsutil cp gs://BUCKET_NAME/OBJECT_NAME SAVE_TO_LOCATION
注意:确保您的虚拟机确实有范围启用 Cloud Storage 存储桶,并且您的 VM 服务帐号有权访问存储桶
答案2
我通过每 60 秒从 SSH 客户端向服务器发送一次保持活动数据包来修复此问题
sudo vim /etc/ssh/ssh_config
添加以下内容:
Host *
ServerAliveInterval 60