当前位置: 首页 > news >正文

阿里云Kubernetes容器服务上体验Knative

概述
Knative Serving是一种可缩放至零、请求驱动的计算运行环境,构建在 Kubernetes 和 Istio 之上,支持为 serverless 应用、函数提供部署与服务。Knative Serving的目标是为Kubernetes提供扩展功能,用于部署和运行无服务器工作负载。

下面讲述一下在阿里云Kubernetes容器服务基础之上,如何快速搭建一套Knative Serving环境并进行自动扩容的体验。

搭建Knative Serving
1.准备Kubernetes环境
阿里云容器服务Kubernetes 1.11.5目前已经上线,可以通过容器服务管理控制台非常方便地快速创建 Kubernetes 集群。具体过程可以参考创建Kubernetes集群。

2.部署Istio
Knative serving运行需要基于Istio,目前阿里云容器服务Kubernetes已提供了快速一键部署的方式来安装配置Istio。具体过程可以参考部署Istio。
登录 容器服务管理控制台,单击左侧导航栏中的集群,进入集群列表页面。选择所需的集群并单击操作列更多 > 部署Istio。

clipboard.png

根据需要进行配置,然后点击部署按钮。稍等几十秒钟之后,Istio环境就可以部署完毕,可以通过查看Pod运行状态进行确认,如下所示。

clipboard.png

3.部署Istio IngressGateway
登录容器服务管理控制台,点击左侧的应用目录,在右侧选中ack-istio-ingressgateway,如下:

clipboard.png

点击参数, 可以通过修改参数配置进行定制化,默认参数提供了Istio IngressGateway的配置项,然后点击创建按钮。

clipboard.png

查看命令空间 istio-system 下的Pod列表,确认运行状态,如下所示。

clipboard.png

4.部署Knative CRD
登录容器服务管理控制台,点击左侧的应用目录,在右侧选中ack-knative-init,如下:

clipboard.png

点击创建按钮安装Knative初始化所需的内容,包括安装CRD等。

clipboard.png

5.部署Knative Serving
登录容器服务管理控制台,点击左侧的应用目录,在右侧选中ack-knative-serving,如下:

clipboard.png

点击参数, 可以通过修改参数配置进行定制化,默认参数提供了使用Istio IngressGateway的配置项,然后点击创建按钮。

clipboard.png

至此,安装Knative Serving所需的4个Helm chart都已经安装完毕,如下所示:

clipboard.png

体验Knative
安装autoscale示例
通过执行如下命令部署示例自动伸缩应用程序的 Knative Service:

kubectl create -f autoscale.yaml
其中autoscale.yaml文件内容如下所示:

apiVersion: serving.knative.dev/v1alpha1
kind: Service
metadata:
name: autoscale-go
namespace: default
spec:
runLatest:

configuration:
  revisionTemplate:
    metadata:
      annotations:
        # Target 10 in-flight-requests per pod.
        autoscaling.knative.dev/target: "10"
        autoscaling.knative.dev/class:  kpa.autoscaling.knative.dev
    spec:
      container:
        image: registry.cn-beijing.aliyuncs.com/wangxining/autoscale-go:0.1

访问autoscale示例
找到入口主机名和IP并导出为环境变量:

export IP_ADDRESS=kubectl get svc istio-ingressgateway --namespace istio-system --output jsonpath="{.status.loadBalancer.ingress[*].ip}"
向自动伸缩应用程序发出请求,并检查消耗资源情况:

curl --header "Host: autoscale-go.default.{domain.name}" "http://${IP_ADDRESS?}?sleep=100&prime=10000&bloat=5"
注意,替换你的域名后缀替换{domain.name}。默认示例中为 aliyun.com。

curl --header "Host: autoscale-go.default.aliyun.com" "http://${IP_ADDRESS?}?sleep=100&prime=10000&bloat=5"
Allocated 5 Mb of memory.
The largest prime less than 10000 is 9973.
Slept for 100.16 milliseconds.
通过以下命令安装负载生成器:

go get -u github.com/rakyll/hey
维持50个并发请求,发送30秒的流量:

hey -z 30s -c 50 \
-host "autoscale-go.default.aliyun.com" \
"http://${IP_ADDRESS?}?sleep=100&prime=10000&bloat=5" \
&& kubectl get pods
可以看到运行30秒的流量请求状态,Knative服务随着请求数量的增大也自动扩容:

Summary:
  Total:    30.1126 secs
  Slowest:    2.8528 secs
  Fastest:    0.1066 secs
  Average:    0.1216 secs
  Requests/sec:    410.3270

  Total data:    1235134 bytes
  Size/request:    99 bytes

Response time histogram:
  0.107 [1]    |
  0.381 [12305]    |■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■
  0.656 [0]    |
  0.930 [0]    |
  1.205 [0]    |
  1.480 [0]    |
  1.754 [0]    |
  2.029 [0]    |
  2.304 [0]    |
  2.578 [27]    |
  2.853 [23]    |


Latency distribution:
  10% in 0.1089 secs
  25% in 0.1096 secs
  50% in 0.1107 secs
  75% in 0.1122 secs
  90% in 0.1148 secs
  95% in 0.1178 secs
  99% in 0.1318 secs

Details (average, fastest, slowest):
  DNS+dialup:    0.0001 secs, 0.1066 secs, 2.8528 secs
  DNS-lookup:    0.0000 secs, 0.0000 secs, 0.0000 secs
  req write:    0.0000 secs, 0.0000 secs, 0.0023 secs
  resp wait:    0.1214 secs, 0.1065 secs, 2.8356 secs
  resp read:    0.0001 secs, 0.0000 secs, 0.0012 secs

Status code distribution:
  [200]    12356 responses



NAME                                             READY   STATUS        RESTARTS   AGE
autoscale-go-00001-deployment-5fb497488b-2r76v   2/2     Running       0          29s
autoscale-go-00001-deployment-5fb497488b-6bshv   2/2     Running       0          2m
autoscale-go-00001-deployment-5fb497488b-fb2vb   2/2     Running       0          29s
autoscale-go-00001-deployment-5fb497488b-kbmmk   2/2     Running       0          29s
autoscale-go-00001-deployment-5fb497488b-l4j9q   1/2     Terminating   0          4m
autoscale-go-00001-deployment-5fb497488b-xfv8v   2/2     Running       0          29s

总结
在阿里云Kubernetes容器服务基础之上,可以快速搭建一套Knative Serving环境并进行自动扩容的体验。欢迎大家使用阿里云上的容器服务,快速搭建Knative环境,比较简单地集成到自己项目开发中。

本文作者:osswangxining

阅读原文

本文为云栖社区原创内容,未经允许不得转载。

相关文章:

  • 用编码器-解码器-重构器框架实现英语-日语的神经机器翻译
  • netty-客户端.channel()方法 源码分析.md
  • Java 多线程编程之:notify 和 wait 用法
  • django之配置静态文件
  • 区块链多币种测试网络钱包(开源)
  • 滴滴出行基于RocketMQ构建企业级消息队列服务的实践
  • TypeScript实现数据结构(一)栈,队列,链表
  • 阿里云移动端播放器高级功能介绍
  • CentOS 7 防火墙操作
  • React-flux杂记
  • Computed property XXX was assigned to but it has no setter
  • 阿里云服务器如何修改远程端口?
  • go的基本知识
  • extract-text-webpack-plugin用法
  • 《从0开始学Elasticsearch》—初识Elasticsearch
  • 《Java8实战》-第四章读书笔记(引入流Stream)
  • Android开源项目规范总结
  • C++回声服务器_9-epoll边缘触发模式版本服务器
  • docker-consul
  • Flex布局到底解决了什么问题
  • Javascripit类型转换比较那点事儿,双等号(==)
  • java正则表式的使用
  • js数组之filter
  • Netty+SpringBoot+FastDFS+Html5实现聊天App(六)
  • select2 取值 遍历 设置默认值
  • Shadow DOM 内部构造及如何构建独立组件
  • 安卓应用性能调试和优化经验分享
  • 从tcpdump抓包看TCP/IP协议
  • 理解IaaS, PaaS, SaaS等云模型 (Cloud Models)
  • 前端路由实现-history
  • 前端之React实战:创建跨平台的项目架构
  • 使用parted解决大于2T的磁盘分区
  • 使用SAX解析XML
  • nb
  • python最赚钱的4个方向,你最心动的是哪个?
  • 如何通过报表单元格右键控制报表跳转到不同链接地址 ...
  • ​人工智能之父图灵诞辰纪念日,一起来看最受读者欢迎的AI技术好书
  • $NOIp2018$劝退记
  • (17)Hive ——MR任务的map与reduce个数由什么决定?
  • (JS基础)String 类型
  • (安全基本功)磁盘MBR,分区表,活动分区,引导扇区。。。详解与区别
  • (个人笔记质量不佳)SQL 左连接、右连接、内连接的区别
  • (四)图像的%2线性拉伸
  • .java 指数平滑_转载:二次指数平滑法求预测值的Java代码
  • .NET 8.0 中有哪些新的变化?
  • .net core Swagger 过滤部分Api
  • .net mvc 获取url中controller和action
  • .NET 分布式技术比较
  • .net 微服务 服务保护 自动重试 Polly
  • .Net转Java自学之路—基础巩固篇十三(集合)
  • @Valid和@NotNull字段校验使用
  • @开发者,一文搞懂什么是 C# 计时器!
  • [ CTF ] WriteUp- 2022年第三届“网鼎杯”网络安全大赛(朱雀组)
  • [@Controller]4 详解@ModelAttribute
  • [\u4e00-\u9fa5] //匹配中文字符