小小水蜜桃高清视频免费观看:苹果又摊上事了,欧盟预计将开出近40亿元天价罚单

来源:央视新闻 | 2024-02-26 22:51:51
今视网 | 2024-02-26 22:51:51
原标题:"小小水蜜桃高清视频免费观看"
"小小水蜜桃高清视频免费观看",正在加载

"小小水蜜桃高清视频免费观看",苹果又摊上事了,欧盟预计将开出近40亿元天价罚单,卸任重庆市公安局一把手后,胡明朗已进京履新



"小小水蜜桃高清视频免费观看",汇景控股(09968.HK)2022年度收益下降98.4%至约8590万元,历史一刻!英伟达市值超越俄罗斯GDP:仅次于11个国家

"小小水蜜桃高清视频免费观看",金隅天坛家具将携1688㎡超大展位及17大品牌,重磅亮相广州家博会

激战2厨房在哪

厨房中的激战中2在线观看

厨房中的激战中2字小说

厨房里的激战2精彩情节故事简介

小小水蜜桃电影

马红俊2口爆竹竹清

美国电影灭火宝贝2010



小小水蜜桃高清视频免费观看:俄派“间谍船”在北海“破坏基础设施”?克宫驳斥,丹麦宣布停止对“北溪”事件调查,俄方回应:荒谬,摩根大通:Gori和Petno将担任全球

"小小水蜜桃高清视频免费观看",来源|新智元一声炸雷深夜炸响,居然也开源LLM了?!这次,重磅开源的Gemma有2B和7B两种规模,并且采用了与Gemini相同的研究和技术构建。有了Gemini同源技术的加持,Gemma不仅在相同的规模下实现SOTA的性能。而且更令人印象深刻的是,还能在关键基准上越级碾压更大的模型,比如Llama213B。与此同时,谷歌还放出了16页的技术报告。谷歌表示,Gemma这个名字源自拉丁语「gemma」,也就是「宝石」的意思,似乎是在象征着它的珍贵性。历史上,Transformers、TensorFlow、BERT、T5、JAX、AlphaFold和AlphaCode,都是谷歌为开源社区贡献的创新。而谷歌今天在全球范围内同步推出的Gemma,必然会再一次掀起构建开源AI的热潮。同时也坐实了OpenAI「唯一ClosedAI」的名头。OpenAI最近刚因为Sora火到爆,Llame据称也要有大动作,谷歌这就又抢先一步。硅谷大厂,已经卷翻天了!HuggingFaceCEO也跟帖祝贺。还贴出了Gemma登上HuggingFace热榜的截图。Keras作者Fran?oisChollet直言:最强开源大模型,今日易主了。有网友已经亲自试用过,表示Gemma7B真是速度飞快。谷歌简直是用Gemini拳打GPT-4,用Gemma脚踢Llama2!网友们也是看热闹不嫌事大,召唤MistralAI和OpenAI今晚赶快来点大动作,别让谷歌真的抢了头条。(手动狗头)可以看到,Gemma-7B模型在涵盖一般语言理解、推理、数学和编码的8项基准测试中,性能已经超越了Llama27B和13B!并且,它也超越了Mistral7B模型的性能,尤其是在数学、科学和编码相关任务中。在安全性方面,经过指令微调的Gemma-2BIT和Gemma-7BIT模型,在人类偏好评估中都超过了Mistal-7Bv0.2模型。特别是Gemma-7BIT模型,它在理解和执行具体指令方面,表现得更加出色。这次,除了模型本身,谷歌还提供了一套工具帮助开发者,确保Gemma模型负责任的使用,帮助开发者用Gemma构建更安全的AI应用程序。-谷歌为JAX、PyTorch和TensorFlow提供了完整的工具链,支持模型推理和监督式微调(SFT),并且完全兼容最新的Keras3.0。-通过预置的Colab和Kagglenotebooks,以及与HuggingFace、MaxText、NVIDIANeMo和TensorRT-LLM等流行工具的集成,用户可以轻松开始探索Gemma。-Gemma模型既可以在个人笔记本电脑和工作站上运行,也可以在GoogleCloud上部署,支持在VertexAI和GoogleKubernetesEngine(GKE)上的简易部署。-谷歌还对Gemma进行了跨平台优化,确保了它在NVIDIAGPU和GoogleCloudTPU等多种AI硬件上的卓越性能。并且,使用条款为所有组织提供了负责任的商业使用和分发权限,不受组织规模的限制。不过,Gemma并没有能够在所有的榜单中,都拿下SOTA。在官方放出的评测中,Gemma7B在MMLU、HellaSwag、SIQA、CQA、ARC-e、HumanEval、MBPP、GSM8K、MATH和AGIEval中,成功击败了Llama27B和13B模型。相比之下,Gemma7B在Boolq测试中,只与Mistral7B打了个平手。而在PIQA、ARC-c、Winogrande和BBH中,则不敌Mistral7B。在OBQA和trivalentQA中,更是同时被7B和13B规模的Llama27B斩于马下。谷歌这次发布的两个版本的Gemma模型,70亿参数的模型用于GPU和TPU上的高效部署和开发,20亿参数的模型用于CPU和端侧应用程序。在18个基于文本的任务中的11个中,Gemma都优于相似参数规模的开源模型,例如问答、常识推理、数学和科学、编码等任务。模型架构方面,Gemma在Transformer的基础上进行了几项改进,从而在处理复杂任务时能够展现出更加出色的性能和效率。-多查询注意力机制其中,7B模型采用了多头注意力机制,而2B模型则使用了多查询注意力机制。结果显示,这些特定的注意力机制能够在不同的模型规模上提升性能。-RoPE嵌入与传统的绝对位置嵌入不同,模型在每一层都使用了旋转位置嵌入技术,并且在模型的输入和输出之间共享嵌入,这样做可以有效减少模型的大小。-GeGLU激活函数将标准的ReLU激活函数替换成GeGLU激活函数,可以提升模型的表现。-归一化化位置(NormalizerLocation)每个Transformer子层的输入和输出都进行了归一化处理。这里采用的是RMSNorm作为归一化层,以确保模型的稳定性和效率。架构的核心参数如下:两种规模的参数如下:Gemma2B和7B分别针对来自网络文档、数学和代码的主要英语数据的2T和6Ttoken,进行了训练。与Gemini不同,这些模型不是多模态的,也没有针对多语言任务的SOTA进行训练。谷歌使用了Gemini的SentencePiece分词器的子集,来实现兼容性。团队对Gemma2B和7B模型进行了微调,包括有监督的微调(SFT)和基于人类反馈的强化学习(RLHF)。在有监督的微调阶段,研究者使用了一个由纯文本、英文、由人工和机器生成的问题-答案对组成的数据集。在强化学习阶段,则是使用了一个基于英文偏好数据训练出的奖励模型,以及一套精心挑选的高质量提示作为策略。研究者发现,这两个阶段对于提升模型在自动评估和人类偏好评估中的表现,至关重要。研究者根据基于LM的并行评估,选择了数据混合物进行监督微调。给定一组保留prompt,研究者会从测试模型中生成响应,从基准模型中生成对相同提示的响应,随机洗牌,然后要求一个更大、能力更强的模型在两种响应之间表达偏好。研究者构建了不同的提示集,以突出特定的能力,如遵循指令、实事求是、创造性和安全性。我们使用了不同的基于LM的自动评委,采用了一系列技术,如思维链提示、使用评分标准和章程等,以便与人类偏好保持一致。研究者进一步利用来自人类反馈的强化学习(RLHF),对已经进行过有监督微调的模型进行了优化。他们从人类评估者那里收集他们的偏好选择,并在Bradley-Terry模型的基础上,训练了一个奖励函数,这与Gemini项目的做法相似。研究者采用了一个改进版的REINFORCE算法,加入了Kullback–Leibler正则化项,目的是让策略优化这个奖励函数,同时保持与最初调整模型的一致性。与之前的有监督微调阶段相似,为了调整超参数并进一步防止奖励机制被滥用,研究者使用了一个高性能模型作为自动评估工具,并将其与基准模型进行了直接对比。谷歌在多个领域对Gemma进行了性能评估,包括物理和社会推理、问答、编程、数学、常识推理、语言建模、阅读理解等。Gemma2B和7B模型与一系列学术基准测试中的多个外部开源大语言模型进行了比较。在MMLU基准测试中,Gemma7B模型不仅超过了所有规模相同或更小的开源模型,还超过了一些更大的模型,包括Llama213B。然而,基准测试的制定者评估人类专家的表现为89.8%,而GeminiUltra是首个超越此标准的模型,这表明Gemma在达到Gemini和人类水平的性能上,还有很大的提升空间。并且,Gemma模型在数学和编程的基准测试中表现尤为突出。在通常用于评估模型分析能力的数学任务中,Gemma模型在GSM8K和更具挑战性的MATH基准测试上至少领先其他模型10分。同样,在HumanEval上,它们至少领先其他开源模型6分。Gemma甚至在MBPP上超过了专门进行代码微调的CodeLLaMA7B模型的性能(CodeLLaMA得分为41.4%,而Gemma7B得分为44.4%)。近期研究发现,即便是经过精心对齐的人工智能模型,也可能遭受新型对抗攻击,这种攻击能够规避现有的对齐措施。这类攻击有可能使模型行为异常,有时甚至会导致模型重复输出它在训练过程中记住的数据。因此,研究者专注于研究模型的「可检测记忆」能力,这被认为是评估模型记忆能力的一个上限,并已在多项研究中作为通用定义。研究者对Gemma预训练模型进行了记忆测试。具体来说,他们从每个数据集中随机选择了10,000篇文档,并使用文档开头的50个词元作为模型的prompt。测试重点是精确记忆,即如果模型能够基于输入,精确地生成接下来的50token,与原文完全一致,便认为模型「记住了」这段文本。此外,为了探测模型是否能够以改写的形式记忆信息,研究者还测试了模型的「近似记忆」能力,即允许在生成的文本和原文之间存在最多10%的编辑差距。在图2中,是Gemma的测试结果与体量相近的PaLM和PaLM2模型的对比。可以发现,Gemma的记忆率明显更低(见图2左侧)。不过,通过对整个预训练数据集的「总记忆量」进行估算,可得一个更为准确的评估结果(见图2右侧):Gemma在记忆训练数据方面的表现与PaLM相当。个人信息的记忆化问题尤为关键。如图3所示,研究者并未发现有记忆化的敏感信息。虽然确实发现了一些被归类为「个人信息」的数据被记忆,但这种情况发生的频率相对较低。而且这些工具往往会产生许多误报(因为它们仅通过匹配模式而不考虑上下文),这意味着研究者发现的个人信息量可能被高估了。总的来说,Gemma模型在对话、逻辑推理、数学和代码生成等多个领域,都有所提升。在MMLU(64.3%)和MBPP(44.4%)的测试中,Gemma不仅展现了卓越的性能,还显示了开源大语言模型性能进一步提升的空间。除了在标准测试任务上取得的先进性能,谷歌也期待与社区共同推动这一领域的发展。Gemma从Gemini模型计划中学到了很多,包括编码、数据处理、架构设计、指令优化、基于人类反馈的强化学习以及评估方法。同时,谷歌再次强调使用大语言模型时存在的一系列限制。尽管在标准测试任务上表现优异,但要创建出既稳定又安全、能够可靠执行预期任务的模型,还需要进一步的研究,包括确保信息的准确性、模型的目标对齐、处理复杂逻辑推理,以及增强模型对恶意输入的抵抗力。团队表示,正如Gemini所指出的,需要更具挑战性和鲁棒性的测试基准。海量资讯、精准解读,尽在新浪财经APP文章关键词:

"小小水蜜桃高清视频免费观看",两个月前,当载着全球首台0.55NAEUV光刻机零件的卡车,出现在英特尔位于俄勒冈州的厂区时,半导体行业开始讨论未来英特尔在芯片工艺制程上赶超台积电的可能。然而,英特尔向世界表露了远不止于此的野心。北京时间2月22日凌晨,英特尔召开了首届IntelFo--**--两个月前,当载着全球首台0.55NAEUV光刻机零件的卡车,出现在英特尔位于俄勒冈州的厂区时,半导体行业开始讨论未来英特尔在芯片工艺制程上赶超台积电的可能。然而,英特尔向世界表露了远不止于此的野心。北京时间2月22日凌晨,英特尔召开了首届IntelFoundryDirectConnect大会,与以往侧重产品展示和技术分享的活动不同,本次会议只有一个主题——芯片代工。图片来源:Intel在半导体产业链中,芯片代工是个不折不扣的“重要且枯燥”的环节,但这次活动所展示出的亮点,随便拎出一项都足以让人感到惊讶:采用Intel18A工艺(1.8纳米级)的ClearwaterForest至强处理器已完成流片,1.4纳米级的Intel14A工艺首次亮相。首推AI芯片的系统级代工模式,提供从工厂网络到软件的全栈式优化。已成功拿下微软的芯片订单,将采用Intel18A代工。代工服务的IP、EDA合作伙伴,包括新思科技、Cadence、西门子、Ansys、Lorentz、Keysight表示工具和IP已准备就绪。值得一提的是,活动现场英特尔还宣布了与ARM达成合作,未来将支持为基于ARM架构的SoC(系统级芯片)提供代工服务,这种强烈的违和感,就连前来站台的ARM首席执行官ReneHass都打趣地说道:“感觉就像在Windows上运行iTuns一样奇怪。”过去一周,当全世界都在讨论Sora的革命性进步时,英特尔悄悄拿出了应对AI算力需求爆炸的完整解决方案,再一次证明了这位昔日芯片行业霸主的地位。IDM2.0,绝境逢生?当提起英特尔时,人们通常会习惯性地把它与英伟达或AMD做对比,但实际上,英特尔在半导体产业中的发展路径与后两者截然不同,一个最本质的差异是英特尔是业内少数采用IDM模式的芯片厂商。所谓IDM,就是指从设计、制造、封装测试到销售自有品牌IC都一手包办。与之相对应的,一类是诸如英伟达、AMD的Fabless厂商,他们只做芯片的IC设计,芯片制造环节完全交由代工厂完成。另一类则是以台积电、格芯为代表的Foundry厂商,他们负责芯片的代工及封装环节。这种分工模式的好处在于,Fabless厂商无需承担动辄数十亿美元的产线建设成本,Foundry厂商也无需维持体量庞大的产品开发团队,可以专注于工艺制程的提升。这种分工明确且高效的产业链上下游关系,是维持摩尔定律在今天仍能存续下去的前提条件。因此,当今还在采用IDM模式的芯片厂商某种程度上其实是“非主流”的存在。而英特尔的商业模式要更加“邪门”。现任CEO帕特·基辛格在2021年上任后,提出了“IDM2.0模式”。即坚持自己生产芯片的同时,也为第三方芯片设计公司提供代工服务,同时把部分制程芯片交给其他代工厂,来实现对自家工艺的补充。这个设想听起来很美好,但即便是完全不了解芯片行业的人也能够察觉到一丝端倪:第三方芯片设计公司,他们的产品可能本就与英特尔存在竞争关系,那么他们要如何放心把芯片制造环节交由后者呢?英特尔接收的全球首台0.55NAEUV光刻机,图片来源:Intel?打一个比方,这就像是苹果对微软说,“我们正在升级MacOS系统,如果有需要的话,也可以帮你一起开发Windows系统。”还有一个无法忽略的问题是,芯片代工行业是个典型的“重资产、长周期”产业,如果建设能够承接第三方芯片设计公司的产能,势必会让前期成本大幅增加,这一点在去年的多份财报中都已经有所体现,比如在2023年第二季度,英特尔在整体营业利润率为33%的情况下,其负责芯片代工业务的IFS部门利润率为-28%,严重拖累集团业绩表现。因此,在IDM2.0概念被提出后,外界的质疑声始终没有中断过。而在去年6月,意识到IFS部门已经成为沉重负担后,英特尔选择了将该部门拆分出去,未来将独立运营,并在财报中单独核算损益。在同一时间,半导体行业也迎来了一场巨变。随着算力需求在全球范围内的激增,负责AI芯片代工的主要大厂台积电出现明显的产能瓶颈问题,比如CoWoS先进封装的月产能至今维持在1.3-1.5万块(晶圆),而其中部分产能还要被苹果M1Ultra等芯片分走,因此在2023年下半年,出现了英伟达高性能计算卡交货周期普遍延长至12-16个月的情况。考虑到目前具备先进制程的厂商,无外乎台积电、英特尔、三星电子三家,且三星电子的在5纳米工艺节点后的良率问题至今仍是个谜,英特尔成为芯片设计厂商为数不多的代工可选项。这也是英特尔此时提出“AI芯片系统级代工”的底气所在。泼天富贵,英特尔能接住吗?尽管眼下的英特尔似乎占据天时地利,但这家公司现在有实力在代工行业中大展拳脚吗?如果单以市场份额来看,根据TrendForce的统计数据,英特尔在全球芯片代工业占比仅为1%。不过,就技术而言,英特尔仍然算得上是行业中的领先者。首先是其工艺制程目前处于稳步推进状态。在2021年7月,英特尔曾公布了“四年五制程节点”的计划,即利用四年时间推进Intel7、Intel4、Intel3、Intel20A和Intel18A五个制程节点,目的是到2025年重新获得全球芯片代工的制程领先性。就目前已公开的信息来看,两款基于Intel3的产品SierraForest和GraniteRapids已经分别完成流片及设计认证后的试生产工作。“埃米级”的Intel20A及Intel18A也预计在今年投入生产。英特尔制程节点规划图,图片来源:Intel值得一提的是,这两个工艺节点将搭载,可能是英特尔未来十年最重要的两项技术:RibbonFET栅极全环绕场效应管,以及PowerVia背部供电网络。简单地说,前者可以推动芯片上的晶体管尺寸进一步微缩;后者则是将芯片的电源线及信号线移植到晶圆背后,从而降低功耗。这两项底层技术共同奠定了英特尔代工业务的技术基座,也确保了摩尔定律仍然可以得到延续。当然,眼下行业内还不大需要如此高精尖的技术,毕竟AI从业者们所依赖的主力芯片——英伟达A100,其制程也不过7纳米。而就短期来看,AI行业可能更需要英特尔在封装环节的技术积淀。在本次会议上,英特尔宣布将FCBGA2D+纳入英特尔代工先进系统封装及测试的技术组合之中。这一组合将包括FCBGA2D、FCBGA2D+、EMIB、Foveros和FoverosDirect技术。这一连串晦涩难懂的技术名词,让英特尔具备了满足不同代工客户的异构集成需求,也让来自不同供应商、用不同制程节点打造的“芯粒”能够更好地协同合作。这里有必要解释下“芯粒”的概念:可以简单地理解为一种小型的模块化芯片。它对于AI行业的意义在于,能够将CPU、GPU、NPU高速连接在同一个系统中,极大提升异构核之间的传输速率,在提高数据访问速度的同时,降低数据处理功耗。英特尔2.5D封装产线,图片来源:Intel此外,英特尔也为AI芯片创业公司,如近期风头正盛的Groq和SiMa.AI,这些潜在的创业公司客户做足了准备。这些公司普遍认为专用芯片比通用芯片效率更高,因此在产品研发上也多集中于构建专门用于某些架构的芯片,但问题在于这些创业公司在芯片版图设计上可谓五花八门。因此,在本次会议上前来为英特尔站台的合作伙伴中,可以看到芯片行业内的“EDA五巨头”(新思科技、Cadence、西门子、Ansys、Lorentz)悉数到场,以展示英特尔为各型软件及工具认证做出准备。总的来说,无论是工艺制成还是封装技术,亦或是开发工具,英特尔已初步具备“AI芯片的系统级代工”能力,但英特尔自此之后真的可以高枕无忧了吗?显然不是,一个最直接的隐患在于,尽管芯片代工部门未来在财报上将独立核算,但产线的前期建设及调试费用依然需要英特尔支付。这将是一笔天文数字。就目前英特尔官方披露的项目进展来看,这家公司未来将分别在波兰、以色列和德国共计投资626亿美元,用于晶圆代工产线修建。在芯片补贴法案的资金迟迟无法到位的情况下,这些投资几乎完全需要由英特尔承担。另外不得不提的一点是,英特尔CEO帕特·基辛格曾多次表示,独立之后的芯片代工部门与芯片设计部门完全切割,后者在有代工需求时将评估市场上的不同方案,综合成本选择代工厂,绝对公平竞争。基辛格的确做到了。目前,英特尔内部代号为“ArrowLake”与“LunarLake”的两款处理器的ComputerTile部分就是交给了台积电代工。但长此以往,如果英特尔自家处理器的核心模块都是由台积电代工完成的,其他Fabless厂商又如何能放心地将订单交给英特尔呢?这恐怕是英特尔代工部门不得不考虑的问题。责任编辑:若风

"小小水蜜桃高清视频免费观看",
作者:韩依风



海盗船2500/6500系列机箱海外上架:支持背插主板,129.99英镑起

"小小水蜜桃高清视频免费观看",苹果又摊上事了,欧盟预计将开出近40亿元天价罚单,巴基斯坦驻华大使感谢中方帮助巴侨民从苏丹平安撤离,韩国最新民调:尹锡悦就职一周年,施政差评率60%,快讯|安利股份:公司与苹果合作稳定与三星、Beats等合作向好,美墨边境移民激增得州不堪重负

"小小水蜜桃高清视频免费观看",5连板克劳斯:公司股价走势与经营业绩已经出现较大程度背离,存在下行风险

"小小水蜜桃高清视频免费观看",
总监制:呼延听南

监 制:闾熙雯

主 编:范姜跃

编 审:琴倚莱

(文章未经授权不得转载。)

点击收起全文
扫一扫 分享到微信
|
返回顶部
最新推荐
正在阅读:小小水蜜桃高清视频免费观看:苹果又摊上事了,欧盟预计将开出近40亿元天价罚单
扫一扫 分享到微信
手机看
扫一扫 手机继续看
A- A+