InfraPub 为您找到相关结果 720

不要光想着价格 QLC 与 TLC 闪存有什么不同

在这个互联网时代,游戏、电影、照片等数据越来越大,硬盘将会面临着前所未有的挑战。虽然传统的机械硬盘可以解决问题,但是速度太慢,体验糟糕,并不是最优的个人解决方案。我们渴求大的SSD,不过超过TB大SSD动不动就几千元的售价,对于支付能力有限用户实际上没有意义。SSD的成本主要来源于闪,在TLC闪能够实现TB可惜价格未能降下来。只有不断开发新类型的闪,解决与价格的矛盾,才能让SSD真正在大数据时代发挥应有作用。 这时,QLC 闪就应运而生, 目前,东芝和西数先后宣布成功开发基于四比特单元3D NAND闪芯片,即QLC闪,这也意味着QLC SSD将要来临。那么,它与TLC闪又有什么区别,能否取代TLC成为SSD主流闪之选? 先来了解一下什么是TLC...阅读全文

博文 2017-08-01 09:52:54 debian.cn

希捷预告120TB机械硬盘:全新介质、单碟容量达10TB

这些年,机械硬盘的提升速度十分缓慢,大有被SSD全面赶超的趋势,不过每个季度,希捷、西部数据都会更新路线图,展望机械硬盘在技术、上的发展趋势,尤其是希捷。近日,希捷更是公布了详细的未来技术路线图,计划在2026年左右达到50TB左右,2030年则可以超过120TB。机械硬盘最近几年普遍基于PMR(垂直技术),但即便经过各种优化加强,也已经逼近极限,新的技术、机械结构迫在眉睫。比如希捷研发近20年的HAMR(热辅助磁记录),终于已经开花落地,去年底交付了20TB HAMR硬盘,同时新的多传动器(Muti-Actuator)结构也已经基本成熟,二者结合可让机械硬盘的跨上新台阶,2026年达到50TB就靠它们了。类似未来的半导体工艺制程,要想实现更进一步的突破,全新的介质...阅读全文

都是颗粒 为什么SSD有寿命、内存却没有?

。 SSD则是外部,用来长久保数据,属于非易失性,断电后数据还在,但是相对速度慢、延迟高,HDD机械硬盘、U盘、光盘等也是此类。 SSD的介质是NAND闪颗粒,需要施加不同的电压、改变内部状态来数据,随着时间的流逝、读写次数的增加,会出现物理性的损耗,最终不可用。 NAND闪的寿命一般用P/E编程擦写次数来描述,写满一次就损失一次P/E。 SLC大约是10万次,MLC只有5000次左右,TLC就只大概2000次,QLC仅为1000次上下,所以不得不依靠更多管理技术和算法来辅助,以保持寿命。 但另一方面,SLC、MLC、TLC、QLC的密度越来越大,SSD也越来越大,写满的概率越来越低,所以整个SSD的实际寿命其实并没有大大缩短,一般应用无需过分担忧寿命问题。...阅读全文

490MB/s 金士顿新款外置SSD发布:最高960GB

随着互联网的高速发展,云技术已经相当成熟了,网盘成了人们工作和学习中不可缺少的部分。尽管如此,离线技术也无法被取代,毕竟在没有网络的情况下,离线才是最佳的解决方案。 而目前使用的最多的且最方便的离线设备就是U盘,凭借小巧便携的体型设计赢得了广大用户的喜爱,但随着数据的日益膨胀,小小的U盘无论是在读写速度还是在上已经无法满足我们日益增长的需求。 而今天,金士顿在CES大会上展示了一款离线设备——HyperX Savage EXO外置SSD。HyperX Savage EXO外置SSD外壳采用聚碳酸酯打造,颗粒为3D TLC NAND闪,拥有480GB和960GB两种可供选择。 外置SSD的接口为USB3.1 Gen 2,带宽高达10Gbps,实际连续读写...阅读全文

博文 2018-01-08 20:54:57 debian.cn

中国投资130亿元量产相变内存 比闪存快1000倍

入运营阶段。这个项目2017年11月份完成了厂房封顶,并完成了设备采购,从开工到封顶不到9个月时间,今年3月底开始运营。 根据之前的消息,江苏淮安的这个项目总投资130亿元,一期投资43亿元,建成后将年产10万片12英寸PCM相变芯片。相变芯片被成为21世纪的芯片标准,与传统芯片(比如内)相比,它是一种非易失性芯片,但是速度达到了传统芯片的1000倍,同时可靠性是后者的1000倍——当然这些指标都是理论上的。 目前产的PCM芯片并没有这么强,Intel的3D XPoint闪据说就是一种PCM芯片,只不过一直没有被证实,而它宣传的特点就是性能是闪的1000倍,可靠性也是闪的1000倍,同时密度是闪的10倍。...阅读全文

博文 2018-04-10 22:34:58 debian.cn

SK海力士进军PCIe 4.0 SSD:密度世界第一 轻松32TB

SK海力士今天正式发布了最新款的企业级SSD PE8000系列,包括PE8010、PE8030、PE8111三款型号,这也是其首款PCIe 4.0 SSD,无论密度、还是性能都是世界一流的,甚至是超一流的。 PE8010、PE8030都配备了SK海力士自产的96层堆叠4D TLC NAND闪颗粒,搭配自研主控,最大8TB,兼U.2、U.3接口,其中PE8010面向读取密集型应用,PE8030则为读写混合应用而优化。 性能方面,持续读写速度最高均可达8.3GB/s、3.7GB/s,随机读写速度最高则可达1100K IOPS、320K IOPS。 相比于去年的上代产品,持续读取性能提升103%,随机写入性能提升357%,另外最大功耗为17W。 PE8111则是针对读取密集型负载...阅读全文

博文 2020-04-08 09:31:41 debian.cn

Intel 傲腾 DDR4 内存价格曝光,单条 128GB 仅约 5600 元

本周的 Intel 数据创新大会上,傲腾持久内正式发布,采用 DDR4 接口和协议,既可以当纯粹的 DDR4 内,又可以做型缓盘。 Intel 借助 3D Xpoint 技术实现了 DRAM 和 NAND Flash 共享同一种芯片,即傲腾(Optane)。按照 Intel 公布的信息,傲腾内目前提供 128GB、256GB、512GB。 虽然 Intel 没有公布价格,但美国采购商已经偷跑, 其中 128GB 在 842~893 美元(约最低 5656 元),256GB 在 2668~2850 美元(约最低 1.79 万元),512GB 还不详(预计 6000~7000 美元)。 显然,比起同的 SSD 着实贵了不少,但比起企业级内条(128GB 要 4500...阅读全文

博文 2019-04-07 20:25:18 debian.cn

希捷HAMR硬盘即将商用:目标100TB

看着SSD气势汹汹,机械硬盘丝毫不敢懈怠,唯有不断推陈出新大产品,同时把价比做到更低。据说淘宝上出现了一批全新/充新HGST 8T企业盘,由不景气的乐视云内部流出,居然只要千元出头。 就目前而言,西数、东芝均发布了14TB,前者使用SMR(叠瓦式磁记录),后者使用传统的PMR(垂直磁记录),9碟充氦。 而且,巨头均规划了16TB硬盘,预计明年推向市场。 近日,知名服务商Backblaze刊文报道,希捷CTO(首席技术官)Mark Re介绍称,HAMR(热辅助磁记录)技术硬盘已经越来越接近商用了。 今年10月的密度还是2Tbpsi(每平方英寸),Mark Re此次透露,目前已经达到5Tbpsi,是当下希捷最大的12TB硬盘(PMR)1.3Tbpsi的3.8倍,而HAMR...阅读全文

希捷:明年奉上24TB HAMR硬盘

当然,无论西数还是希捷都在努力开发新的技术,目前出货的14TB和即将推出的16TB、18TB都是传统充氦垂直记录技术,接下来就要上新的HAMR热辅助磁记录技术,2030年前有望带来100TB的总。 希捷此前称会在2018年内出样HAMR硬盘,2019年产,初期20TB,而最新说法让人更加振奋: 希捷表示,HAMR技术进展顺利,下一代大近线硬盘的单盘可达24TB,预计2019年批上市。 当然,希捷还有多驱动技术(Multi-Actuator),硬盘内同时使用多个机械臂进行读写操作,大幅提升性能,读写速度可达480MB/s,基本逼近SATA SSD的水准。...阅读全文

博文 2018-05-03 12:02:35 debian.cn

Kubernetes 1.9发布:Apps Workloads通用版本与生态系统扩展

从这一过程当中汲取到经验,并在过去几次发布周期内对全部四种资源进行了针对性调整,最终使得DaemonSet与StatefulSet也加入到稳定版本队伍中来。此次发布的v1版本代表着其针对生产需求进行强化且准备就绪,拥有长期向下兼性保证。 Windows支持(beta测试阶段) Kubernetes最初专门针对Linux系统开发而成,但随着我们的用户越来越多地意识到器编排功能的优势,我们发现Kubernetes也确有必要运行Windows工作负载。12个月之前,我们开始认真探索Kubernetes支持Windows Server的相关工作。SIG-Windows[3]如今已经将这一功能提升至beta测试版本,意味着大家能够通过实际使用对其效果进行评估。 增强 自第一个版本开始...阅读全文

博文 2017-12-17 01:00:00 debian.cn

Linux内存buffer和cache的区别

"read" from the disk and stored for later use. 2.1 Cache Cache:高速缓,是位于CPU与主内间的一种较小但速度很高的器。 由于CPU的速度远高于主内,CPU直接从内取数据要等待一定时间周期,Cache中保着CPU刚用过或循环使用的一部分数据,当CPU再次使用该部分数据时可从Cache中直接调用,这样就减少了CPU的等待时间,提高了系统的效率。 Cache又分为一级Cache(L1 Cache)和二级Cache(L2 Cache),L1 Cache集成在CPU内部,L2 Cache早期一般是焊在主板上,现在也都集成在CPU内部,常见的有256KB或512KB L2 Cache。 2.2 Buffer Buffer:缓...阅读全文

Kubernetes v1.21 新特性预览

IPv4 和 IPv6 两个地址。注意,如果使用了 CNI 插件和云服务商扩展(Cloud Provider),CNI 插件和云服务商扩展也需要支持 IPv4/IPv6 双栈。CSIVolumeHealth Alpha 和 CSIStorageCapacity Beta从 v1.21 开始,Kubernetes 支持 CSI 插件的 Volume 健康检查(Alpha 版),CSI 插件需要实现外部健康监控控制器。当 Volume 或者 Node 出现异常时,该控制器会向 Volume 所属的 PVC 以及使用该 PVC 的 Pod 发送一个异常事件。CSIStorageCapacity 用于跟踪 CSI 并确保 Pod 调度到足够的节点上。该特性从 v1.21 开始进入...阅读全文

博文 2021-03-30 20:24:36 mp.weixin.qq.com

三星首发HBM-PIM存内计算技术:2倍性能、功耗降低70%

PIM内计算是近年来的热门领域,与传统诺伊曼体系面临着越来越严重的贷款瓶颈不同,PIM直接在芯片上集成了计算功能,而不是CPU、内数据分离,这样就能极大地提高带宽,在AI人工智能领域这个更重要。得益于这一突破,三星首发的HBM-PIM技术实现了2倍的性能,同时功耗还降低了70%,还能兼目前的HBM接口,便于客户通过HBM-PIM来构建自己的AI加速器。三星计划今年上半年推出HBM-PIN芯片完成客户验证工作,何时产、商用还没信息。...阅读全文

博文 2021-02-17 20:05:54 cnBeta.COM

Hadoop 核心 - HDFS 分布式文件系统详解

1. HDFS概述 Hadoop 分布式系统框架中,首要的基础功能就是文件系统,在 Hadoop 中使用 FileSystem 这个抽象类来表示我们的文件系统,这个抽象类下面有很多子实现类,究竟使用哪一种,需要看我们具体的实现类,在我们实际工作中,用到的最多的就是HDFS(分布式文件系统)以及LocalFileSystem(本地文件系统)了。 在现代的企业环境中,单机往往无法数据,需要跨机器。统一管理分布在集群上的文件系统称为分布式文件系统。 HDFS(Hadoop Distributed File System)是 Hadoop 项目的一个子项目。是 Hadoop 的核心组件之一, Hadoop 非常适于大型数据 (比如 TB 和 PB),其就是使用 HDFS 作为...阅读全文

Cortex: 高可用和水平扩展Prometheus监控系统

服务。如果cortex有许多的查询,则可以扩展Querier或Query Frontend微服务。高可用性– Cortex可以在实例之间复制数据replicate data。这样可以防止数据丢失,并避免度标准数据出现间断,即使发生机器故障and/orpod被驱逐。多租户–多个不受信任的parties可以共享同一群集。Cortex在从ingester到querying的整个生命周期中提供数据隔离。这对于为多个单元或应用程序数据的大型组织或运行SaaS服务的人员非常有用。长期– Cortex将数据分块并为其生成索引。可以将Cortex配置为将其在自托管或云提供商支持的数据库或对象中。Cortex的需求Prometheus高可用性和数据去重Prometheus默认情况下不具有...阅读全文

博文 2021-10-09 17:00:22 知乎

Dubbo 2.7.0发布 分布式RPC服务框架

的异步模型。2.6 及以前的版本,元数据全部在 URL 上,配置信息和注册信息只能在注册中心上,注册中心的和扩展成为瓶颈。这个限制在使用 ZooKeeper 作为注册中心的大规模 Dubbo 应用场景下尤为突出。在 2.7.0 中,通过对 URL 的改造,将 注册中心拆分成了三个中心 ,分别是注册中心、配置中心和元数据中心,三者各司其责,不仅有效地解决了上述问题,而且很好地适应了微服务的技术架构,用户可以开始自由选择适合自己场景的注册中心和配置中心。2.7.0 将内建支持 ZooKeeper、Nacos 和 Apollo 等第三方注册和配置中心,在后续的版本中,还会进一步提供对 Consul 和 etcd 的支持。另外,通过引入一个全新的元数据中心,将与注册配置无关的服务信息...阅读全文

博文 2019-01-18 09:43:16 debian.cn

Debian下安装配置 Hadoop 3.1.3 集群

source /etc/profile Hadoop文件配置 配置文件都在etc/hadoop/文件夹下 1. hadoop-env.sh # jdk环境变 (因为要远程调用 ${java_home}找不到变) export JAVA_HOME=/usr/lib/jvm/jdk 2. workers # 添加所有slave机器的hostname slave1 slave2 slave3 3. core-site.xml fs.defaultFS hdfs://master:9000