SSH 到 EC2 实例超时

SSH 到 EC2 实例超时

我创建了一个 AWS EC2 实例来在其上设置 prometheus,我创建了一个新的 ssh 密钥对并使用 terraform 配置了该实例,我使用的实例类型为“t3.large”,SSD 磁盘为 120GB,操作系统为 Ubuntu 18.04,我可以正常 ssh 到该实例。到目前为止一切都正常。

在使用 docker 安装 Prometheus 和 Grafana 一段时间后,我回到实例,发现无法登录! 我遇到以下问题:

ssh: connect to host [ip] port 22: Connection timed out

我确信这不是互联网连接问题,因为我能够 ssh 到其他实例。并且使用 ip 地址或 DNS 时问题是相同的,端口 22 也是开放的。

这是我使用的 terraform 脚本,但我认为它与此无关:

provider "aws" {
  profile = "default"
  region  = "eu-west-1"
}

resource "aws_key_pair" "ubuntu" {
  key_name   = "ubuntu"
  public_key = file("ubuntu.pem.pub")
}

resource "aws_security_group" "ubuntu" {
  name        = "ubuntu-security-group"
  description = "Allow HTTP, HTTPS and SSH traffic"

  ingress {
    description = "SSH"
    from_port   = 22
    to_port     = 22
    protocol    = "tcp"
    cidr_blocks = ["0.0.0.0/0"]
  }

  ingress {
    description = "HTTPS"
    from_port   = 443
    to_port     = 443
    protocol    = "tcp"
    cidr_blocks = ["0.0.0.0/0"]
  }

  ingress {
    description = "HTTP"
    from_port   = 80
    to_port     = 80
    protocol    = "tcp"
    cidr_blocks = ["0.0.0.0/0"]
  }

  ingress {
    description = "HTTP"
    from_port   = 3000
    to_port     = 3000
    protocol    = "tcp"
    cidr_blocks = ["0.0.0.0/0"]
  }

  ingress {
    description = "HTTP"
    from_port   = 9090
    to_port     = 9090
    protocol    = "tcp"
    cidr_blocks = ["0.0.0.0/0"]
  }

  ingress {
    description = "HTTP"
    from_port   = 9100
    to_port     = 9100
    protocol    = "tcp"
    cidr_blocks = ["0.0.0.0/0"]
  }



  egress {
    from_port   = 0
    to_port     = 0
    protocol    = "-1"
    cidr_blocks = ["0.0.0.0/0"]
  }

  tags = {
    Name = "terraform"
  }
}


resource "aws_instance" "ubuntu" {
  key_name      = aws_key_pair.ubuntu.key_name
  ami           = "ami-0dc8d444ee2a42d8a"
  instance_type = "t3.large"

  tags = {
    Name = "ubuntu-prometheus"
  }

  vpc_security_group_ids = [
    aws_security_group.ubuntu.id
  ]

  connection {
    type        = "ssh"
    user        = "ubuntu"
    private_key = file("key")
    host        = self.public_ip
  }

  ebs_block_device {
    device_name = "/dev/sda1"
    volume_type = "gp2"
    volume_size = 120
  }
}

resource "aws_eip" "ubuntu" {
  vpc      = true
  instance = aws_instance.ubuntu.id
}

答案1

我最终弄清楚了这个问题,并且我再次能够访问我的 EC2 实例,并且所有数据都与我离开时一样。

这个问题背后的原因是,为了允许新端口中的 http 流量,我启用了ufw防火墙,但允许 ssh 的规则未包含在内,ufw这导致无法访问。我本可以使用 aws 安全组并添加正确的规则来避免所有这些问题。

解决方案是创建一个新的 EC2 实例,并将旧 EC2 实例的卷挂载到这个新创建的实例。

列出可用的磁盘,如下所示:

buntu@ip-172-31-27-78:~$ lsblk
NAME        MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
loop0         7:0    0 97.8M  1 loop /snap/core/10185
loop1         7:1    0 28.1M  1 loop /snap/amazon-ssm-agent/2012
nvme0n1     259:0    0  120G  0 disk 
└─nvme0n1p1 259:1    0  120G  0 part /
nvme1n1     259:2    0  120G  0 disk 
└─nvme1n1p1 259:3    0  120G  0 part 

此后将您的分区挂载到任意目录:

$ sudo mkdir /data
$ sudo mount /dev/nvme1n1p1 /data/

现在您将能够访问您的卷文件,为了允许 ssh 访问,请编辑文件user.rulesuser6.rules位于目录中/data/etc/ufw并添加以下行:

#user.rules
-A ufw-user-input -p tcp --dport 22 -j ACCEPT
-A ufw-user-input -p udp --dport 22 -j ACCEPT
user6.rules
-A ufw6-user-input -p tcp --dport 22 -j ACCEPT
-A ufw6-user-input -p udp --dport 22 -j ACCEPT

感谢这个帖子他给了我很大帮助,我把所有的步骤都收集在这里。

相关内容