Rancher部署k8s集群:开启容器编排新篇章

作者:く成哦日期:2025/12/5

在云计算与容器化技术迅猛发展的今天,Kubernetes(K8s)已成为企业部署和管理云原生应用的黄金标准。然而,随着企业容器化进程的加速,跨云、跨数据中心的K8s集群管理逐渐成为运维团队的核心挑战。面对多集群环境下的配置差异、安全策略不一致、监控分散等问题,企业亟需一款能够统一管理、简化运维的解决方案。Rancher作为全球领先的开源多集群管理平台,凭借其强大的功能与易用性,正成为企业破解这一难题的关键工具。

Enterprise Kubernetes Management Platform & Software | Rancher

一、Rancher:K8s集群管理的“瑞士军刀”

Rancher是一款专为容器化环境设计的开源管理平台,其核心使命是让Kubernetes无处不在(Run Kubernetes Everywhere)。从私有云到公有云,从物理机到边缘设备,Rancher通过单一控制台实现跨环境、跨集群的统一管理,彻底解决了多云架构下的运维复杂性。

1. 多集群管理的“中枢神经”

Rancher支持同时管理数百个K8s集群,无论集群是托管在AWS EKS、阿里云ACK等公有云服务上,还是部署在本地数据中心或边缘节点。通过直观的Web界面,运维人员可一键查看所有集群的健康状态、资源使用率及告警信息,实现“一屏统管”。例如,某跨国企业通过Rancher管理全球20个数据中心的K8s集群,将运维效率提升了60%,故障响应时间缩短至5分钟以内。

2. 简化K8s部署的“加速器”

对于初学者或中小企业而言,K8s的部署与配置门槛较高。Rancher通过封装底层复杂性,提供了“一键部署”功能:用户仅需选择集群规模、网络插件等参数,即可自动完成节点初始化、证书生成、网络配置等流程。以Rancher 2.7版本为例,其支持的RKE2(Rancher Kubernetes Engine)发行版专为生产环境优化,可在10分钟内完成高可用集群的搭建,且支持离线镜像包导入,满足金融、政务等对数据安全要求严格的场景。

3. 安全与合规的“守护者”

在多云环境中,安全策略的统一实施是最大挑战之一。Rancher内置基于角色的访问控制(RBAC),支持与LDAP、Active Directory等企业身份系统集成,实现单点登录(SSO)。同时,通过Open Policy Agent(OPA)策略引擎,管理员可定义全局安全规则(如禁止特权容器、限制网络访问),并自动应用到所有集群。例如,某金融机构利用Rancher的“安全扫描”功能,在应用部署前自动检测镜像漏洞,将安全风险拦截在上线前。

4. DevOps的“协作桥梁”

Rancher为开发团队提供了自助式应用部署能力。通过集成Helm Chart应用商店,开发者可直接部署MySQL、Redis等中间件,或上传自定义Chart实现复杂应用编排。此外,Rancher与GitOps工具(如Argo CD)深度集成,支持将应用配置存储在Git仓库中,实现配置变更的自动化同步。某电商团队通过Rancher的CI/CD流水线,将应用发布周期从“周级”缩短至“分钟级”,且支持蓝绿部署、金丝雀发布等高级策略。

二、Rancher的核心优势:为何选择它?

1. 跨云环境的“无缝适配”

Rancher支持导入任意K8s集群,无论其基于何种发行版(如OpenShift、TKE)或安装工具(如kubeadm、kops)。对于混合云场景,Rancher可统一管理公有云集群与本地集群,甚至通过K3s(轻量级K8s)将集群扩展至边缘设备。例如,某物联网企业利用K3s在500个边缘节点部署AI模型,通过Rancher实现模型更新、日志收集与远程调试。

2. 监控与日志的“一体化方案”

Rancher内置Prometheus+Grafana监控栈,可自动采集集群节点、Pod、CPU/内存等100+指标,并生成可视化仪表盘。同时,支持与ELK、Fluentd等日志系统集成,实现日志的集中存储与搜索。某游戏公司通过Rancher的监控告警功能,在服务器负载突增时自动触发扩容,保障了百万玩家在线的稳定性。

3. 成本优化的“智能助手”

Rancher的“集群模版”功能允许管理员预定义集群配置(如节点规格、存储类),并通过自动化工具批量创建集群,避免重复配置。此外,Rancher可分析集群资源使用情况,识别闲置资源并建议优化方案。某制造企业通过Rancher的资源调度策略,将K8s集群的CPU利用率从40%提升至75%,年节省云成本超百万元。

三、环境准备:服务器部署前的必要步骤

在正式开始Rancher部署K8s集群的实战操作前,我们需要做好充分的环境准备工作。以下将详细介绍所需的服务器配置、网络规划以及基础环境搭建步骤,为后续的集群部署奠定坚实基础。

1. 服务器规划与配置

本次部署采用四台虚拟机(以CentOS 7系统为例)模拟生产环境,具体分工如下:

  • Rancher Server:单独一台服务器,负责运行Rancher管理平台,建议配置至少4核CPU、8GB内存。
  • K8s Master节点:一台服务器,作为K8s集群的控制平面,负责集群管理、调度等核心功能,建议配置至少2核CPU、4GB内存。
  • K8s Node节点:两台服务器,作为K8s集群的工作节点,负责运行容器化应用,建议配置至少2核CPU、4GB内存。

2. 网络规划与配置

  • IP地址分配:为每台服务器分配静态IP地址,避免因IP变动导致服务异常。例如:
    • Rancher Server:192.168.149.131
    • K8s Master节点:192.168.149.128
    • K8s Node节点1:192.168.149.129
    • K8s Node节点2:192.168.149.130
  • 防火墙设置:开放必要的端口,确保服务器之间能够正常通信。主要端口包括:
    • Rancher Server:80(HTTP)、443(HTTPS)
    • K8s Master节点:6443(K8s API Server)、2379-2380(etcd)、10250(kubelet API)
    • K8s Node节点:10250(kubelet API)、30000-32767(NodePort服务)

注:防火墙我本人是直接关了的(systemctl stop firewalld),下面部署节点时我会详细给出的。

3. 基础环境搭建

虚拟机连接建议

建议虚拟机开机后,使用Xshell等终端工具连接四台服务器。可以通过Xshell的"撰写栏"功能实现批量操作:

  • 打开Xshell,连接所有四台服务器会话
  • 点击左下角"全部会话"按钮
  • 在撰写栏中输入命令,所有会话窗口将同步执行

然后再左下角可以选择全部会话就可以,在撰写栏里面输入然后所以四个窗口都可以执行输入的操作。

四、四台服务器相同的操作

1. 配置YUM源(使用阿里云镜像)

1# 进入YUM源配置目录
2cd /etc/yum.repos.d/
3
4# 创建备份目录并移动原有repo文件
5mkdir repo_bak
6mv *.repo repo_bak/
7
8# 下载阿里云CentOS 7基础源
9curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
10
11# 清理并重建缓存
12yum clean all
13yum makecache

2. 安装常用工具

1# 安装基础工具包
2yum install -y wget vim net-tools yum-utils
3
4# 验证网络连接
5ifconfig

3. 配置Docker CE源

1# 添加Docker CE官方源(阿里云镜像)
2yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
3
4# 修改源地址为阿里云镜像
5sed -i 's/download.docker.com/mirrors.aliyun.com\/docker-ce/g' /etc/yum.repos.d/docker-ce.repo
6
7# 重建缓存
8yum makecache

4. 安装Docker CE

1# 安装Docker CE
2yum install -y docker-ce
3
4# 验证安装版本
5docker --version

5. 配置Docker

1# 进入Docker配置目录(如需配置镜像加速等)
2cd /etc/docker/
3
4# 编辑daemon.json文件(示例配置,实际内容根据需求填写)
5vim daemon.json
6# 典型配置内容(示例):
7# {
8#   "registry-mirrors": ["https://<your-mirror>.mirror.aliyuncs.com"]
9# }
10
11# 启动并设置开机自启
12systemctl start docker
13systemctl enable docker
14
15# 重新加载配置并重启
16systemctl daemon-reload
17systemctl restart docker

6. 配置时间同步(Chrony)

1# 编辑时间同步配置文件(实际内容根据需求填写)
2vim /etc/chrony.conf
3# 典型配置内容(示例):
4# server ntp.aliyun.com iburst
5
6
7pool 192.168.149.131 iburst
8
9driftfile /var/lib/chrony/drift
10
11makestep 1.0 3
12
13rtcsync
14
15allow 192.168.149.0/24
16
17local stratum 10
18
19
20keyfile /etc/chrony.keys
21
22leapsectz right/UTC
23
24logdir /var/log/chrony
25
26
27#意思是都跟131这台服务器的时间同步
28
29
30# 重启服务并强制同步
31systemctl restart chronyd.service --now
32chronyc -a makestep
33
34# 验证同步状态
35chronyc sourcestats -v

7. 配置主机名与hosts文件

1
2
3# 编辑hosts文件(根据实际IP规划填写)
4vim /etc/hosts
5# 示例内容:
6 192.168.149.131 rancher
7 192.168.149.128 k8s-master-01
8 192.168.149.129 k8s-node-02
9 192.168.149.130 k8s-node-03
10
11
12# 设置主机名(根据实际规划修改)
13nmtui-hostname  # 或使用 hostnamectl set-hostname <your-hostname>
14
15#会跳出显示款删除原来的名字改成和hosts上一样的

8. 禁用Swap分区

1# 方法一:临时禁用Swap
2swapoff -a
3
4# 方法二:永久禁用(注释掉fstab中的swap行)
5sed -i '/swap/s/^/#/' /etc/fstab
6
7
8上面指令就是去/etc/fstab
9
10# 注销掉最后一行的
11/dev/mapper/centos-swap swap                    swap    defaults        0 0
12
13
14# 我用的是第二个方法永久禁用

9. 配置网络(静态IP)

1# 配置静态IP(根据实际网卡名称修改,示例为ens33)
2nmcli con mod ens33 ipv4.addresses 192.168.149.131/24  # 修改为实际IP(换成每个服务器的ip)
3nmcli con mod ens33 ipv4.gateway 192.168.149.2         # 修改为实际网关
4nmcli con mod ens33 ipv4.dns 8.8.8.8                   # 修改为实际DNS
5nmcli con mod ens33 ipv4.method manual
6nmcli con up ens33
7
8# 验证网络配置
9ip a

10. 配置Bash自动补全

1# 安装bash-completion
2yum install -y bash-completion
3
4# 下载Docker命令补全脚本
5curl -L https://raw.githubusercontent.com/docker/cli/master/contrib/completion/bash/docker -o /etc/bash_completion.d/docker
6chmod +x /etc/bash_completion.d/docker
7
8# 配置自动加载
9echo -e '\n# Docker command completion\nif [ -f /etc/bash_completion.d/docker ]; then\n    source /etc/bash_completion.d/docker\nfi' >> ~/.bashrc
10
11# 使配置生效
12source /etc/bash_completion.d/docker
13source ~/.bashrc

11. 重启服务器

1# 重启使所有配置生效
2reboot

五、Rancher服务器额外操作

在完成上述基础操作后,在Rancher服务器上执行以下额外操作:

1. 拉取Rancher镜像

本人之前用过2.5版本的,所以就习惯用2.5版本的,也可拉取最新稳定版的

1# 拉取指定版本的Rancher镜像(示例为v2.5.2)
2docker pull rancher/rancher:v2.5.2
3
4# 查看已拉取的镜像
5docker images

2. 安装Docker命令补全(增强版)

如果docker指令补全没有生效

1# 安装Docker CE的bash补全包
2yum install -y docker-ce-bash-completion
3
4# 验证安装
5rpm -qa | grep bash-completion
6ls -la /etc/profile.d/bash_completion.sh
7

3. 启动Rancher Server

1# 创建数据目录
2mkdir -p /data/rancher_data
3
4# 启动Rancher Server容器
5docker run -d \
6  --name=rancher-server \
7  --restart=unless-stopped \
8  -p 80:80 -p 443:443 \
9  --privileged \
10  -v /data/rancher_data:/var/lib/rancher \
11  rancher/rancher:v2.5.2
12
13# 验证容器状态
14docker ps

4.浏览器访问rancher

浏览器输入:http://192.168.149.131

可能会提示网站不安全,点击高级,继续访问就可以了

设置访问URL

进去后效果

六、Rancher上添加集群操作

1.添加集群

2.选择想要的(如下选择自定义)

3.输入集群子以及需要的设置,不要的其他设置就默认就好,然后点击下一步

4.创建master节点

复制那段到master节点服务器上运行

注意:

注意:

运行前先关闭防火墙

1# 临时关闭防火墙(开机会自启)
2systemctl stop firewalld
3
4# 查看防火墙状态
5systemctl status firewalld
6
7
8#永久关闭(开机也不会自启)
9systemctl disable firewalld

5.创建node节点

等待刚刚创建的master节点状态变成Active后,点击编辑集群

6.在node节点上运行

复制下面那段分别在想要成为node节点的服务器上运行(只选择worker就行)

7.完成添加

七、master节点上操作

1.配置Kubernetes软件源(Master节点专属操作)

1# 创建Kubernetes官方软件源配置文件
2cat <<EOF > /etc/yum.repos.d/kubernetes.repo
3[kubernetes]
4name=Kubernetes
5baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
6enabled=1
7gpgcheck=1
8repo_gpgcheck=1
9gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg \
10       https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
11EOF

操作说明

  • 该配置将系统软件源指向阿里云Kubernetes镜像仓库,加速kubectl、kubelet等核心组件的安装
  • 双GPG密钥验证确保软件包来源安全可靠
  • 配置完成后可通过yum repolist验证软件源是否生效

2.安装与配置kubectl命令行工具

1# 下载最新稳定版kubectl(自动识别版本)
2curl -LO "https://dl.k8s.io/release/$(curl -L -s https://dl.k8s.io/release/stable.txt)/bin/linux/amd64/kubectl"
3
4# 赋予执行权限并移动到系统路径
5chmod +x kubectl
6mv kubectl /usr/local/bin/
7
8# 验证安装版本(需显示客户端版本和服务端版本)
9kubectl version --client

操作说明

3.配置kubeconfig访问凭证

1# 创建存放目录
2mkdir ~/.kube
3
4# 手动配置示例(当需要自定义配置时)
5vim ~/.kube/config
6
7具体配置文件可在Rancher上复制下来如下图片:
8

4.集群状态验证与基础操作

1# 查看集群节点状态(应全部显示Ready)
2kubectl get nodes
3
4# 查看所有命名空间Pod运行状态(含详细信息)
5kubectl get pod -o wide -A
6
7# 示例:查看default命名空间Pod详情
8kubectl get pod -n default

操作说明

  • kubectl get nodes是验证集群健康的核心命令,所有节点需处于Ready状态
  • -o wide参数展示Pod的IP、节点位置等扩展信息
  • -A参数表示查看所有命名空间(Namespace)的资源
  • 典型健康状态应显示:
1NAME        STATUS   ROLES                  AGE   VERSION
2k8s-master-01  Ready    control-plane,etcd     10d   v1.19.15
3k8s-node-02    Ready    worker                 10d   v1.19.15
4k8s-node-03    Ready    worker                 10d   v1.19.15
5

5.进阶配置建议(生产环境必备)

这步只是建议,我实际上没有操作

1. 配置kubectl自动补全
1# 启用Bash自动补全功能
2echo 'source <(kubectl completion bash)' >> ~/.bashrc
3source ~/.bashrc
2. 安装helm包管理器
1# 添加Helm仓库并安装
2curl https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash
3helm repo add stable https://charts.helm.sh/stable/
3. 配置集群监控组件
  • 通过Rancher UI安装Prometheus+Grafana监控栈
  • 配置Alerting规则实现故障自动告警
  • 启用集群日志收集(如Elasticsearch+Fluentd+Kibana方案)

七、注意事项

  1. 防火墙设置

    • 在生产环境中,不建议直接关闭防火墙。应根据实际需求,精确开放必要的端口,以保障服务器安全。例如,仅开放 Rancher Server、K8s Master 节点和 K8s Node 节点所需的端口,避免不必要的端口暴露增加安全风险。
    • 若选择关闭防火墙进行测试,在测试完成后务必重新开启,并合理配置防火墙规则。
  2. 镜像源选择

    • 文中使用了阿里云的镜像源,这在国内网络环境下能提供较快的下载速度。但在其他地区或特定网络环境下,可能存在速度不理想的情况。此时,可根据实际情况选择其他可靠的镜像源,如官方镜像源或其他合适的第三方镜像源。
  3. 版本兼容性

    • 在安装 Rancher、Docker、Kubernetes 等组件时,要注意各组件之间的版本兼容性。不同版本的组件可能存在功能差异或兼容性问题,可能导致部署失败或运行不稳定。例如,Rancher 不同版本对 Kubernetes 版本的支持范围不同,在部署前需查阅官方文档,确保所选版本相互兼容。
  4. 数据备份

    • Rancher Server 的数据存储在指定的数据目录(如本文中的 /data/rancher_data)中。为防止数据丢失,应定期对该目录进行备份。备份方式可以是定期将数据目录复制到其他存储设备或使用专业的备份工具进行备份。
    • 对于 Kubernetes 集群中的重要数据,如应用配置、持久化数据等,也应制定相应的备份策略,确保在出现故障或数据损坏时能够快速恢复。
  5. 安全策略

    • 在多云环境中,安全策略的统一实施至关重要。除了文中提到的基于角色的访问控制(RBAC)、与 LDAP 等企业身份系统集成以及使用 Open Policy Agent(OPA)策略引擎定义全局安全规则外,还应关注网络安全、数据安全等方面。例如,配置网络策略限制 Pod 之间的网络访问,对敏感数据进行加密存储等。
    • 定期对系统进行安全漏洞扫描和修复,及时更新系统和组件的安全补丁,以保障系统的安全性。
  6. 资源监控与优化
    • 虽然 Rancher 内置了 Prometheus + Grafana 监控栈,但应根据实际业务需求,合理配置监控指标和告警规则。避免监控指标过多导致系统资源消耗过大,同时确保重要的业务指标能够及时告警。
    • 定期分析集群资源使用情况,根据分析结果对集群进行优化。例如,调整节点资源分配、优化应用部署策略等,以提高集群的资源利用率和性能。

八、总结

本文详细介绍了在云计算与容器化技术背景下,使用 Rancher 进行 Kubernetes(K8s)集群管理的相关内容。首先阐述了企业在容器化进程中面临的跨云、跨数据中心 K8s 集群管理挑战,以及 Rancher 作为解决这些挑战的关键工具的重要性和核心优势,包括多集群管理、简化 K8s 部署、安全与合规保障以及 DevOps 协作等方面的功能。

通过本文的介绍,可以了解到从环境准备到集群部署再到基础配置的完整流程,为企业在实际生产环境中使用 Rancher 管理 K8s 集群提供了详细的参考。同时,文中提到的注意事项也有助于在实际操作过程中避免一些常见问题,确保部署和管理的顺利进行。


Rancher部署k8s集群:开启容器编排新篇章》 是转载文章,点击查看原文


相关推荐


React Hydration 错误修复文档 server rendered text didn‘t match the client.
草明2025/12/3

React Hydration 错误修复 概述 本文档记录了在 Next.js 应用中修复 React Hydration 错误的完整过程。该错误出现在国际化(i18n)功能的实现中,由于服务器端渲染(SSR)和客户端渲染的内容不匹配导致。 问题描述 错误现象 在浏览器控制台中出现以下错误: Hydration failed because the server rendered text didn't match the client. As a result this tr


D2L(1) — 线性回归
IguoChan2025/11/30

0. 背景 虽然一直从事的是工程开发,但是目前从事的工作和算法、特别是大模型相关,因此想了解一下算法的相关基础,而d2l就是入门的教程,可参考dl2。 回归(regression)是能为一个或多个自变量与因变量之间关系建模的一类方法。 在自然科学和社会科学领域,回归经常用来表示输入和输出之间的关系。 比如书中中的线性回归就是一个特别简单的例子,即根据房屋的面积(平方英尺)和房龄(年)来估算房屋价格(美元)。从简单的直观感受来说,房子的价格应该和面积成一定的正比,和房龄成反比。 其实在书中,已


Git Worktree + Claude Code:让你的开发效率翻倍的秘密武器
去码头整点薯片2025/11/27

前言 作为一名前端开发者,你是否遇到过这样的场景: 正在开发新功能 A,突然产品经理要你紧急修复一个 bug 想要同时开发两个独立的功能,但频繁的 git stash 和分支切换让你头疼 需要对比两个分支的代码差异,却要来回切换分支 想要同时运行多个分支的开发服务器,却因为端口冲突而束手无策 如果你的答案是"是的",那么这篇文章将为你介绍一个革命性的解决方案:Git Worktree + Claude Code。 本文将从零基础开始,带你深入了解 Git Worktree 的概念,以及如何通


通过Amazon Q CLI 集成DynamoDB MCP 实现游戏场景智能数据建模
亚马逊云开发者2025/11/25

前言 Amazon DynamoDB 是一项完全托管的 NoSQL 数据库服务,提供快速、可预测且可扩展的性能。作为一种无服务器数据库,DynamoDB 让开发者无需担心服务器管理、硬件配置或容量规划等基础设施问题,可以专注于应用程序开发。对于游戏行业而言,DynamoDB 的设计特性尤为适合:其低延迟数据访问(通常以个位数毫秒计)能够支持游戏中的实时交互;自动扩展功能可以轻松应对游戏上线或特殊活动期间的流量高峰;全球表功能支持多区域部署,为全球玩家提供一致的低延迟体验,而按需容量模式则使游戏开


一款基于 .NET + 计算机视觉技术开源免费、功能强大的原神智能辅助工具,一键解放双手!
追逐时光者2025/11/23

前言 今天大姚给大家分享一款基于 .NET + 计算机视觉技术完全开源免费(GPL-3.0 license)、功能强大的原神智能辅助自动化工具,意图让原神变的更好的项目:better-genshin-impact。 项目介绍 better-genshin-impact 是一款基于 .NET + 计算机视觉技术完全开源免费(GPL-3.0 license)、功能强大的原神智能辅助自动化工具,意图让原神变的更好的项目,包含:自动剧情、全自动钓鱼(AI)、全自动七圣召唤、自动伐木、自动刷本、自动采集/


Redis(139)Redis的Cluster是如何实现的?
Victor3562025/11/22

Redis Cluster 是 Redis 的一种分布式架构,允许将数据分布到多个节点上以实现数据的自动分片、负载均衡和高可用性。Redis Cluster 通过分片、复制、故障检测和自动故障转移等机制实现这些功能。以下是 Redis Cluster 的详细实现及其关键组件和代码示例。 核心概念 1. 数据分片 Redis Cluster 将数据键空间分为 16384 个哈希槽(hash slots)。每个键根据其 CRC16 校验和被映射到其中一个哈希槽。 2. 节点角色 Redis Clus


15:00开始面试,15:06就出来了,问的问题有点变态。。。
测试界晓晓2025/11/20

从小厂出来,没想到在另一家公司又寄了。 到这家公司开始上班,加班是每天必不可少的,看在钱给的比较多的份上,就不太计较了。没想到8月一纸通知,所有人不准加班,加班费不仅没有了,薪资还要降40%,这下搞的饭都吃不起了。 还在有个朋友内推我去了一家互联网公司,兴冲冲见面试官,没想到一道题把我给问死了: 如果模块请求http改为了https,测试方案应该如何制定,修改? 感觉好简单的题,硬是没有答出来,早知道好好看看一大佬软件测试面试宝典了。 通过大数据总结发现,其实软件测试岗的面试都是差不多


Java集合框架概述Java:ArrayList的使用Java:LinkedList的使用Java:HashSet的使用Java:TreeSet的使用Java:HashMap的使用
熙客2025/11/19

目录 1、概念 2、核心体系结构 3、Collection接口及实现 3.1 List接口(有序) 3.2 Set接口(去重) 3.3 Queue接口(队列) 4、Map接口及实现 5、迭代器和工具类 5.1 迭代器 (Iterator) 5.2 比较器(Comparator) 5.3 工具类(Collections) 6、集合选择 1、概念 Java集合框架是一个统一的架构,用于表示和操作集合。它包含: 接口:代表不同类型的集合,如 List, Set,


Python 的内置函数 str
IMPYLH2025/11/17

Python 内建函数列表 > Python 的内置函数 str Python 的内置函数 str() 是一个非常重要的类型转换函数,用于将其他数据类型转换为字符串类型。它在 Python 编程中有广泛的应用场景,下面详细介绍其功能和用法: 基本功能 str() 函数的主要作用是将给定的对象转换为字符串表示形式。当调用 str() 时,它会尝试调用对象的 __str__() 方法(如果存在)来获取其字符串表示。 语法格式 str(object='', encoding='utf-8',


PC微信协议之AES-192-GCM算法
AiXed2025/11/16

from cryptography.hazmat.primitives.ciphers import Cipher, algorithms, modes from cryptography.hazmat.primitives import constant_time from cryptography.hazmat.backends import default_backend import os import binascii # ============================

首页编辑器站点地图

本站内容在 CC BY-SA 4.0 协议下发布

Copyright © 2025 聚合阅读