InfraPub 为您找到相关结果 563

如何校验 Debian 软件包的 MD5

你有没有想过为什么安装在你系统上的某个二进制文件或软件包没有按预期的那样来运行,或者说没有按正常的方式来运行,也许它根本就无法启动。 考虑到这是维护系统上未损坏软件包的一个重要因素,因而对照在软件包中的信息,验证文件系统上的文件是个重要步骤,为此需要阅读本文。 推荐阅读:《学会如何在Linux下生成MD5校验和并使用它来校验文件?》 如何对照MD5校验和校验已安装的Debian软件包? 在Debian/Ubuntu系统上,你可以使用debsums工具来校验已安装软件包的MD5和。如果你想在安装之前知道关于debsums软件包的信息,可以使用APT-CACHE,就像这样: $ apt-cache search debsums 下一步,使用apt命令来安装它,如下所示: $ sudo...阅读全文

博文 2021-01-28 17:50:18 debian.cn

项目总结报告应该怎么写

每次项目进度都很紧张、项目发版时间总是一延再延、每个版本bug数量堆积成山、测试期间各种bug总是层出不穷、临近上线发现严重bug,如果项目经理总是被这些问题围绕,那么项目总结迫在眉睫。项目经理如何进行项目总结才能让项目顺利进行,让领导一看就喜欢,今天把经验分享给大家,帮助你做好项目总结。总结的思维模式想写好一份项目总结,总结人员必须具备一定的结构化思维,对问题、数据进行结构分析,且能够通过结构化思维表达出来。结构化思维具备以下四个特点。​结论:问题比较多的时候,要进行抽象归纳,做到抓大放小,先解决当前最主要的问题。总结的目的✤对项目进行复盘,发现项目中在的问题,针对问题找到根本原因并提出解决方案;✤提高项目量,让项目“健康”前行;✤通过数据衡量当前版本的量,对项目整体情况进行评估...阅读全文

谷歌公开了内部管理Infra层的两个工具的Paper

题,详见图3。 图3:每个服务模型必须和每个基础架构提供者集成 如果只需要处理几个基础架构提供者,N*M问题还是可以管理的。随着基础架构提供者数量的增多(看看Google Cloud,AWS和Microsoft Azure上的产品数量),这些集成的数量和量问题就开始出现了。 实际上减少基础架构提供者的数量不太实际。每个提供者都在提供不同的服务(比如,键值,pub/sub系统等),并且一些冗余不得不在,就算定义好规则也会有很多异常情况出现。使用单个服务模型也不现实——这个模型必须能够暴露所有基础架构提供者的每一个特性,这违反了服务模型的初心。 Google的工程师们花费了大量时间将他们需要的服务模型连接到想要使用的基础架构上。我们显然需要一种不同的配置方案。 — 2 — 大规模部署 在...阅读全文

博文 2023-01-08 11:23:20 CSDN博客

Spinnaker 介绍 – Netflix 的持续交付平台

。Rosco 基于 Packer 的镜像创建服务,她将一个 Debian 或者 RedHat 的包封装到虚拟机镜像中,这个过程有点像烘焙,所以也叫 image bake。Front50 所有pipeline,应用,通知的原信息。Igor 对接 Jenkins 的服务,比如 pipeline 中需要调用 jenkins,那么就依赖这个服务。Echo 提供通知服务,对接各种各样的服务商:Slack, Hipchat, SMS (via Twilio) , Email。Rush 脚本执行引擎。 管理方法 Spinnaker 看起来也是一个复杂的微服务架构,由不少服务组成,所以本身也遵循一些运维准则: 每个 Spinnaker 的服务(如 deck,gate,orca)都运行在独立的 cluster 中...阅读全文

博文 2018-12-21 19:30:47 debian.cn

聊聊很重要的内核技术eBPF

在2018年的 Linux Plumber 大会上,eBPF成了亮点,有24个议题提到了 eBPF,可以预计eBPF会成为一大技术热点。 eBPF(Extended Berkeley Packet Filter) 的核心是驻留在 kernel 的高效虚拟机。最初的目的是高效网络过滤框架,前身是 BPF。 Linux kernel 3.18版本开始包含了eBPF,相对于 BPF 做了一些重要改进,首先是效率,这要归功于 JIB 编译 eBPF 代码;其次是应用范围,从网络报文扩展到一般事件处理;最后不再使用socket,使用map进行高效的数据。 根据以上的改进,内核开发人员在不到两年半的事件,做出了包括网络监控、限速和系统监控。目前eBPF可以分解为三个过程: 以字节码的形式创建...阅读全文

博文 2020-08-16 11:08:44 debian.cn

Debian下安装配置 Hadoop 3.1.3 集群

source /etc/profile Hadoop文件配置 配置文件都在etc/hadoop/文件夹下 1. hadoop-env.sh # jdk环境变量 (因为要远程调用 ${java_home}找不到变量) export JAVA_HOME=/usr/lib/jvm/jdk 2. workers # 添加所有slave机器的hostname slave1 slave2 slave3 3. core-site.xml fs.defaultFS hdfs://master:9000