autoscaling

Amazon Elastic Beanstalk 可以自动扩展 Amazon RDS 吗?
autoscaling

Amazon Elastic Beanstalk 可以自动扩展 Amazon RDS 吗?

我计划使用 Amazon Elastic Beanstalk 运行 PHP/MySQL 应用程序。在设置中,我可以定义何时自动启动新实例(自动扩展)。 但是,据我了解,这只会创建新的 EC2 实例,并不会触及 RDS 数据层(我也在设置中配置了它)。 有没有办法自动扩展这个 RDS,使用自动读取副本或数据库大小升级,还是我必须以某种方式手动执行此操作? ...

Admin

EC2 更新我现有的 AMI
autoscaling

EC2 更新我现有的 AMI

我在用着弹性负载平衡负载平衡我的Auto Scaling 组,为此我有一个私人急性心肌梗死它包含我的应用程序服务器 (Tomcat) 和以 war 形式部署到其中的 Web 应用程序...现在一切正常...如果我需要更改我的 Tomcat 配置,该怎么办?急性心肌梗死。这是否需要启动我的 AMI --> 登录 + 更改 Tomcat 配置 --> 创建新 AMI --> 删除旧 AMI 我不认为创建新 AMI 是一种解决方案,因为它需要更新我的 Auto Scale Group 以添加我的新 AMI 有没有办法可以更新现有 AMI 中的数...

Admin

AWS 自动扩展设置引导脚本和 ssh 访问
autoscaling

AWS 自动扩展设置引导脚本和 ssh 访问

我不是网络专家,目前正在努力尝试为网络应用程序设置自动扩展。 我有一台服务器(我们可以称之为 master)(在自动缩放组之外),我将其用于 memcache 和 beanstalkd 队列。我还想使用此服务器通过 rsync 进行源代码同步。 我希望自动缩放组中的服务器能够通过 ssh 连接此主服务器以执行 rsync 并确保 AMI 具有最新版本的应用程序。 我想在触发扩展警报并启动新实例时执行此同步。我读到我必须使用 --user-data-file 在服务器首次启动时执行脚本。 这就是我目前掌握的所有信息。我已设置“启动配置”、“自动缩放组”...

Admin

内存使用量是 Google App Engine 实例流失的主要原因吗?
autoscaling

内存使用量是 Google App Engine 实例流失的主要原因吗?

尽管请求率在 2 小时内一直稳定在 2.4k RPS,但每 30 分钟我都会经历实例数的急剧下降和激增。许多实例同时关闭后,周期性地会出现大量预热请求。由于大量空闲实例,这也增加了我们的运营成本。 App Engine 版本:1.8.1 实例总数:共 235 个(15 个常驻) 平均 QPS:9.143 平均延迟:135.5 毫秒 平均内存:157.9 MB 应用程序的性能设置仍为默认设置(F1 实例、最小/最大待处理延迟和最小/最大空闲实例仍为自动)。 我很快会在 F2 实例上重新运行相同的测试。与...

Admin

根据代理(redis)队列大小自动扩展 celery 服务器的方法
autoscaling

根据代理(redis)队列大小自动扩展 celery 服务器的方法

我正在开展一个项目,该项目要求在代理(redis)队列持续高于预定阈值大小时推出新的 celery 服务器,并在队列大小下降时关闭新的框。我有脚本来负责引入新框并确保在其上运行正确的配置。我计划在频繁(15 分钟)间隔后通过 redis-cli 检查队列,如果大小大于阈值,则缩短检查之间的时间间隔(例如 3 分钟)检查两次,然后推出新的框并按照相同的方法关闭新服务器。 我对芹菜还不熟悉,如果能得到一些关于这种方法的建议就太好了。 谢谢 ...

Admin

ELB 实例停止服务
autoscaling

ELB 实例停止服务

在 Amazon AWS 上实施 ELB 和 Autoscaling 后,出现了一个奇怪的问题,我们不知道原因或解决方法。 我们安装了 Auto Scalling 配置来添加 Windows 2008 R2 x64、SQL Express 和 IIS 的 AMI ID 实例。 我们还让ELB在“/”上检查健康状况,配置正常,并假设IIS运行正常。 但是实例一旦启动,ELB 就会显示“停止服务”。 一段时间后,状态突然变为“服务中”。 出现这样的问题是什么原因呢? 是否可以立即使其可用?“当然,当实例启动时,需要立即进行负载平衡” ...

Admin

AWS AutoScaling 是一个强大的部署单元吗?
autoscaling

AWS AutoScaling 是一个强大的部署单元吗?

我们的一些应用程序要求它们“大多数时间都在工作”。它们没有完整的多可用区和 ELB 处理以实现高可用性。 EC2 令人恼火的是,当单个实例消失时,它需要手动干预来恢复,或者使用第三方服务来执行相同操作。 输入 AutoScaling (AS)。 AS 的基本原则是,它将确保您的 AMI 至少有 [x] 个实例始终在运行 - 负责启动(和终止)实例以满足该目标。 这听起来像是一种解决上述问题的非常有效的方法,而不需要第三方服务或处理大量代码。 但是在此主题中我们有一位亚马逊员工建议 OP 手动进行故障转移! 您是否同意 AS 似乎是解决此问题的合适...

Admin

自动扩展 EBS 卷
autoscaling

自动扩展 EBS 卷

我快速查看了 Cloudwatch 中的指标,但什么也没看到,但如果我错过了,请原谅我。我想知道是否可以监视 EBS 卷并在其接近容量时添加更多。这是我可以通过 cloudwatch 执行的操作,还是我应该从服务器本身编写一些内容来执行此操作? ...

Admin

GKE 中 Karpenter 的 NodePool 的 NodeClassRef 应该是什么?
autoscaling

GKE 中 Karpenter 的 NodePool 的 NodeClassRef 应该是什么?

我在 GCP 中创建了一个 GKE 集群,并希望在其上安装 Karpenter 以实现自动扩展。在尝试安装 Karpenter 时,pods 给出错误,要求创建需要 NodeClassRef 的 NodeClaim 资源 (https://github.com/aws/karpenter-provider-aws/blob/main/pkg/apis/crds/karpenter.sh_nodepools.yaml)。 我可以找到 AWS 即 EC2NodeClass 的 NodeClassRef 对象,但找不到 GCP 的 NodeClassRef 对象。...

Admin

自动触发 AWS Autoscale
autoscaling

自动触发 AWS Autoscale

我在 AWS 中有一个 Autoscale Web 应用程序。当我不使用它时,我会使用 Lambda(使用 Cloudwatch)自动终止 EC2 实例。但我找不到自动结构来再次触发它。 我已尝试过。 我尝试使用 Cloudwatch,但在第一个请求后我必须等待。它不适合我的设置。 我通过将到达端口 80 的请求重定向到 Lambda 来触发 ELB,然后重定向我的主项目 443,但这似乎不太健康。 如果您有其他建议或服务可供我使用,您可以分享吗? ...

Admin

在 Jenkins SSH 全局配置中动态更新 AWS Autoscaling 实例的 IP
autoscaling

在 Jenkins SSH 全局配置中动态更新 AWS Autoscaling 实例的 IP

我们在 AWS 中有几个自动扩展组,并且经常创建新实例。我们正在使用声明式 Jenkins 管道,通过从下拉列表中选择服务器,使用通过 ssh 发布插件将构建工件发布到这些服务器。我们已通过提供服务器名称和 ip 在 jenkins 全局配置中配置了 ssh 服务器。我们还将 jenkins 的公钥添加到我们所有的 aws 服务器(以及启动模板),以便 jenkins 可以毫无问题地 ssh 到所有服务器。 现在,我们希望在 aws autoscaling 组中启动新实例后立即动态修改 jenkins 全局配置中的 ssh 服务器的 IP。我们如何实现这一点...

Admin

如果单个主机的单个进程内发生错误,将会有多少个查询失败?
autoscaling

如果单个主机的单个进程内发生错误,将会有多少个查询失败?

语境: 我有一组 H 主机为 API 提供服务,其中每个主机使用 P(恒定)数量(python,但不相关)的进程(异步,但也无关紧要)为 API 提供服务。 我可以访问以下信息(以图表形式): 整个集群的平均(每秒)查询接收器数量,R(t) 平均延迟(处理请求所需的时间)L= L(t),它也随时间而变化。 平均值是秒数,涵盖所有进程/主机 主机的数量H(t),由于自动缩放,它会随着时间而变化。 可能会发生错误,导致整个进程和其中所有进程内的查询终止,但其余进程仍继续工作。 错误率(例如每个主机每天的崩溃次数)是已知且恒定的E。 问题:我想计算崩...

Admin

EKS 使用 Karpenter 提供比 maxnodes 更多的节点
autoscaling

EKS 使用 Karpenter 提供比 maxnodes 更多的节点

目前我正在使用带有 karpenter 的 EKS,并且我配置了 EKS 集群,其值为 minNodes: 1 maxNodes: 2 DesiredNodes: 1 然后我使用此链接按照我上面链接的 karpenter 文档的说明进行设置后,我通过创建使用暂停图像。然后我将部署的副本扩展到 5 个。现在,无需将节点配置到最大节点数值它配置了 5 个节点。 ManagedNodesGroups 配置 amiFamily: AmazonLinux2 instanceType: m5a.large iam: withAddonPoli...

Admin

DynamoDB 自动扩展、应用程序自动扩展
autoscaling

DynamoDB 自动扩展、应用程序自动扩展

我正在尝试设置一组可以创建新用户和 dynamoDB 表的 boto3 python AWS 脚本,以便我正在开发的 Web 应用程序可以添加具有适当范围的权限的新用户。 我无法获取脚本来将自动扩展添加到 dynamodb 表。我创建了一个 IAM 策略,我认为它过于宽泛 - 添加了大多数自动扩展和应用程序自动扩展选项,试图找出我需要什么,但我似乎仍然没有权限将自动扩展添加到我的 dynamodb 表。希望有人能发现我遗漏了什么。 下面我将展示 IAM 策略和尝试添加自动扩展的 Python 代码片段。 { "Version": "2012-10-1...

Admin

如何处理负载下的 kubernetes 工作负载崩溃循环
autoscaling

如何处理负载下的 kubernetes 工作负载崩溃循环

我认为这是一个非常普遍的情况,我不确定最好的解决方案是什么。 假设您有一个 k8s 工作负载,其中 pod 需要 10-30 秒才能就绪。如果在某个时候您遇到负载峰值,由于某种原因(OOMKills、线程池过载导致探测器无响应等)导致您的 pod 崩溃。即使您配置了 HPA,流量也可能会因客户端重试而增加,最终,您的所有 pod 都会在就绪后立即崩溃,因为服务会将大部分请求(并非所有请求)发送到单个 pod,而所有其他 pod 都处于重新启动过程中。 编辑:此时,我假设 pod 已经正确定义了 Liveness和已配置就绪探测器。但是,如果入口流量至少需要 ...

Admin