青柠影院免费版在线观看HD:台首艘自造潜艇出厂测试并实施海空管制防泄密,岛内网友:作秀!

来源:央视新闻 | 2024-02-26 23:10:13
南充新闻网 | 2024-02-26 23:10:13
原标题:"青柠影院免费版在线观看HD"
"青柠影院免费版在线观看HD",正在加载

"青柠影院免费版在线观看HD",台首艘自造潜艇出厂测试并实施海空管制防泄密,岛内网友:作秀!,波罗的海干散货运价指数升至七周高点



"青柠影院免费版在线观看HD",大连湾海底隧道今天正式通车城市快速路连接南北城区,被叫停的海湾整治项目:是生态修复,还是破坏生态?

"青柠影院免费版在线观看HD",波音公司替换737MAX项目负责人

岳婿厨房激战2

性一交一无一伦一精一品的意思

小小水蜜桃高清在线观看3

小小水蜜桃6在线观看

成人家庭影院专区

小小水蜜桃lily

厨房中的激战2中2字革命



青柠影院免费版在线观看HD:法拉第未来计划以1比3反向拆分普通股,巴拉圭总统候选人谈与台湾交往吴钊燮又“困扰”了,宏力盘中异动大幅拉升5.92%

"青柠影院免费版在线观看HD",来源|新智元一声炸雷深夜炸响,居然也开源LLM了?!这次,重磅开源的Gemma有2B和7B两种规模,并且采用了与Gemini相同的研究和技术构建。有了Gemini同源技术的加持,Gemma不仅在相同的规模下实现SOTA的性能。而且更令人印象深刻的是,还能在关键基准上越级碾压更大的模型,比如Llama213B。与此同时,谷歌还放出了16页的技术报告。谷歌表示,Gemma这个名字源自拉丁语「gemma」,也就是「宝石」的意思,似乎是在象征着它的珍贵性。历史上,Transformers、TensorFlow、BERT、T5、JAX、AlphaFold和AlphaCode,都是谷歌为开源社区贡献的创新。而谷歌今天在全球范围内同步推出的Gemma,必然会再一次掀起构建开源AI的热潮。同时也坐实了OpenAI「唯一ClosedAI」的名头。OpenAI最近刚因为Sora火到爆,Llame据称也要有大动作,谷歌这就又抢先一步。硅谷大厂,已经卷翻天了!HuggingFaceCEO也跟帖祝贺。还贴出了Gemma登上HuggingFace热榜的截图。Keras作者Fran?oisChollet直言:最强开源大模型,今日易主了。有网友已经亲自试用过,表示Gemma7B真是速度飞快。谷歌简直是用Gemini拳打GPT-4,用Gemma脚踢Llama2!网友们也是看热闹不嫌事大,召唤MistralAI和OpenAI今晚赶快来点大动作,别让谷歌真的抢了头条。(手动狗头)可以看到,Gemma-7B模型在涵盖一般语言理解、推理、数学和编码的8项基准测试中,性能已经超越了Llama27B和13B!并且,它也超越了Mistral7B模型的性能,尤其是在数学、科学和编码相关任务中。在安全性方面,经过指令微调的Gemma-2BIT和Gemma-7BIT模型,在人类偏好评估中都超过了Mistal-7Bv0.2模型。特别是Gemma-7BIT模型,它在理解和执行具体指令方面,表现得更加出色。这次,除了模型本身,谷歌还提供了一套工具帮助开发者,确保Gemma模型负责任的使用,帮助开发者用Gemma构建更安全的AI应用程序。-谷歌为JAX、PyTorch和TensorFlow提供了完整的工具链,支持模型推理和监督式微调(SFT),并且完全兼容最新的Keras3.0。-通过预置的Colab和Kagglenotebooks,以及与HuggingFace、MaxText、NVIDIANeMo和TensorRT-LLM等流行工具的集成,用户可以轻松开始探索Gemma。-Gemma模型既可以在个人笔记本电脑和工作站上运行,也可以在GoogleCloud上部署,支持在VertexAI和GoogleKubernetesEngine(GKE)上的简易部署。-谷歌还对Gemma进行了跨平台优化,确保了它在NVIDIAGPU和GoogleCloudTPU等多种AI硬件上的卓越性能。并且,使用条款为所有组织提供了负责任的商业使用和分发权限,不受组织规模的限制。不过,Gemma并没有能够在所有的榜单中,都拿下SOTA。在官方放出的评测中,Gemma7B在MMLU、HellaSwag、SIQA、CQA、ARC-e、HumanEval、MBPP、GSM8K、MATH和AGIEval中,成功击败了Llama27B和13B模型。相比之下,Gemma7B在Boolq测试中,只与Mistral7B打了个平手。而在PIQA、ARC-c、Winogrande和BBH中,则不敌Mistral7B。在OBQA和trivalentQA中,更是同时被7B和13B规模的Llama27B斩于马下。谷歌这次发布的两个版本的Gemma模型,70亿参数的模型用于GPU和TPU上的高效部署和开发,20亿参数的模型用于CPU和端侧应用程序。在18个基于文本的任务中的11个中,Gemma都优于相似参数规模的开源模型,例如问答、常识推理、数学和科学、编码等任务。模型架构方面,Gemma在Transformer的基础上进行了几项改进,从而在处理复杂任务时能够展现出更加出色的性能和效率。-多查询注意力机制其中,7B模型采用了多头注意力机制,而2B模型则使用了多查询注意力机制。结果显示,这些特定的注意力机制能够在不同的模型规模上提升性能。-RoPE嵌入与传统的绝对位置嵌入不同,模型在每一层都使用了旋转位置嵌入技术,并且在模型的输入和输出之间共享嵌入,这样做可以有效减少模型的大小。-GeGLU激活函数将标准的ReLU激活函数替换成GeGLU激活函数,可以提升模型的表现。-归一化化位置(NormalizerLocation)每个Transformer子层的输入和输出都进行了归一化处理。这里采用的是RMSNorm作为归一化层,以确保模型的稳定性和效率。架构的核心参数如下:两种规模的参数如下:Gemma2B和7B分别针对来自网络文档、数学和代码的主要英语数据的2T和6Ttoken,进行了训练。与Gemini不同,这些模型不是多模态的,也没有针对多语言任务的SOTA进行训练。谷歌使用了Gemini的SentencePiece分词器的子集,来实现兼容性。团队对Gemma2B和7B模型进行了微调,包括有监督的微调(SFT)和基于人类反馈的强化学习(RLHF)。在有监督的微调阶段,研究者使用了一个由纯文本、英文、由人工和机器生成的问题-答案对组成的数据集。在强化学习阶段,则是使用了一个基于英文偏好数据训练出的奖励模型,以及一套精心挑选的高质量提示作为策略。研究者发现,这两个阶段对于提升模型在自动评估和人类偏好评估中的表现,至关重要。研究者根据基于LM的并行评估,选择了数据混合物进行监督微调。给定一组保留prompt,研究者会从测试模型中生成响应,从基准模型中生成对相同提示的响应,随机洗牌,然后要求一个更大、能力更强的模型在两种响应之间表达偏好。研究者构建了不同的提示集,以突出特定的能力,如遵循指令、实事求是、创造性和安全性。我们使用了不同的基于LM的自动评委,采用了一系列技术,如思维链提示、使用评分标准和章程等,以便与人类偏好保持一致。研究者进一步利用来自人类反馈的强化学习(RLHF),对已经进行过有监督微调的模型进行了优化。他们从人类评估者那里收集他们的偏好选择,并在Bradley-Terry模型的基础上,训练了一个奖励函数,这与Gemini项目的做法相似。研究者采用了一个改进版的REINFORCE算法,加入了Kullback–Leibler正则化项,目的是让策略优化这个奖励函数,同时保持与最初调整模型的一致性。与之前的有监督微调阶段相似,为了调整超参数并进一步防止奖励机制被滥用,研究者使用了一个高性能模型作为自动评估工具,并将其与基准模型进行了直接对比。谷歌在多个领域对Gemma进行了性能评估,包括物理和社会推理、问答、编程、数学、常识推理、语言建模、阅读理解等。Gemma2B和7B模型与一系列学术基准测试中的多个外部开源大语言模型进行了比较。在MMLU基准测试中,Gemma7B模型不仅超过了所有规模相同或更小的开源模型,还超过了一些更大的模型,包括Llama213B。然而,基准测试的制定者评估人类专家的表现为89.8%,而GeminiUltra是首个超越此标准的模型,这表明Gemma在达到Gemini和人类水平的性能上,还有很大的提升空间。并且,Gemma模型在数学和编程的基准测试中表现尤为突出。在通常用于评估模型分析能力的数学任务中,Gemma模型在GSM8K和更具挑战性的MATH基准测试上至少领先其他模型10分。同样,在HumanEval上,它们至少领先其他开源模型6分。Gemma甚至在MBPP上超过了专门进行代码微调的CodeLLaMA7B模型的性能(CodeLLaMA得分为41.4%,而Gemma7B得分为44.4%)。近期研究发现,即便是经过精心对齐的人工智能模型,也可能遭受新型对抗攻击,这种攻击能够规避现有的对齐措施。这类攻击有可能使模型行为异常,有时甚至会导致模型重复输出它在训练过程中记住的数据。因此,研究者专注于研究模型的「可检测记忆」能力,这被认为是评估模型记忆能力的一个上限,并已在多项研究中作为通用定义。研究者对Gemma预训练模型进行了记忆测试。具体来说,他们从每个数据集中随机选择了10,000篇文档,并使用文档开头的50个词元作为模型的prompt。测试重点是精确记忆,即如果模型能够基于输入,精确地生成接下来的50token,与原文完全一致,便认为模型「记住了」这段文本。此外,为了探测模型是否能够以改写的形式记忆信息,研究者还测试了模型的「近似记忆」能力,即允许在生成的文本和原文之间存在最多10%的编辑差距。在图2中,是Gemma的测试结果与体量相近的PaLM和PaLM2模型的对比。可以发现,Gemma的记忆率明显更低(见图2左侧)。不过,通过对整个预训练数据集的「总记忆量」进行估算,可得一个更为准确的评估结果(见图2右侧):Gemma在记忆训练数据方面的表现与PaLM相当。个人信息的记忆化问题尤为关键。如图3所示,研究者并未发现有记忆化的敏感信息。虽然确实发现了一些被归类为「个人信息」的数据被记忆,但这种情况发生的频率相对较低。而且这些工具往往会产生许多误报(因为它们仅通过匹配模式而不考虑上下文),这意味着研究者发现的个人信息量可能被高估了。总的来说,Gemma模型在对话、逻辑推理、数学和代码生成等多个领域,都有所提升。在MMLU(64.3%)和MBPP(44.4%)的测试中,Gemma不仅展现了卓越的性能,还显示了开源大语言模型性能进一步提升的空间。除了在标准测试任务上取得的先进性能,谷歌也期待与社区共同推动这一领域的发展。Gemma从Gemini模型计划中学到了很多,包括编码、数据处理、架构设计、指令优化、基于人类反馈的强化学习以及评估方法。同时,谷歌再次强调使用大语言模型时存在的一系列限制。尽管在标准测试任务上表现优异,但要创建出既稳定又安全、能够可靠执行预期任务的模型,还需要进一步的研究,包括确保信息的准确性、模型的目标对齐、处理复杂逻辑推理,以及增强模型对恶意输入的抵抗力。团队表示,正如Gemini所指出的,需要更具挑战性和鲁棒性的测试基准。海量资讯、精准解读,尽在新浪财经APP文章关键词:

"青柠影院免费版在线观看HD",来源:全景财经2月19日,年后首个交易日,10只中证A50ETF正式发行,募集目标200亿元。2024年1月2日,被市场称为中国版“漂亮50”的中证A50指数正式发布,同一日,包括大成、富国、银华基金等在内的10家基金公司集体上报了中证A5--**--  炒股就看,权威,专业,及时,全面,助您挖掘潜力主题机会!  来源:全景财经  2月19日,年后首个交易日,10只中证A50ETF正式发行,募集目标200亿元。  2024年1月2日,被市场称为中国版“漂亮50”的中证A50指数正式发布,同一日,包括大成、富国、银华基金等在内的10家基金公司集体上报了中证A50ETF。指数发布仅一个月时间,首批10只中证A50ETF就已火速获批。目前,首批10只中证A50ETF基金已经正式开售,单只基金封闭期募集规模20亿份。  01  中证A50引入ESG理念  具备行业覆盖均衡、盈利与业绩变现更佳的优势  中证A50指数,作为首个由国内指数公司编制的A50指数,独具匠心地融合了传统市值选样精髓与行业均衡理念,并首次引入ESG可持续投资理念,从中证三级行业龙头公司中选取50只最具代表性且符合互联互通可投资范围的上市公司证券作为指数样本,便利境内外资金配置A股核心资产,持续倡导长期投资、价值投资理念。  图表:中证A50指数编制方法比较  资料来源:WIND,全景网整理  从指数编制方法看,相较于MSCI中国A50、上证50、深证50,中证A50将ESG评价体系作为首要选样标准,首先剔除了ESG评分在C及以下的公司标的,确保入选证券的ESG得分不低,有助于降低样本发生重大负面风险事件概率,顺应碳中和进程和社会责任担当趋势,排除公司治理有问题的企业,保障了指数质量。  且相比较于其他指数而言,中证A50的行业覆盖更为均衡,实现了对30个中证二级行业以及50个中证三级行业的覆盖,且各个行业的集中度相对更低。从申万行业角度看,中证A50共覆盖27个申万一级行业,前5大行业分别为食品饮料、非银金融、医药生物、电力设备、银行,前5大行业合计权重48.61%;同期可比的、、MSCI中国A50指数申万一级行业覆盖数量分别为21/22/20,前5大行业权重合计61.37%/53.76%/57.03%。  同时,按照市值优先的选样方法,使得中证A50指数同样具备较强的大市值属性,成分股总市值高于1000亿元的个股占比达到78%,成分股总市值平均值2803.51亿元,市值中位数1570亿元,介于上证50与深证50之间。截止目前,中证A50指数前5大权重股分别为、、、、,市值均在4000亿元以上。  图表:中证A50行业覆盖情况  资料来源:WIND,全景网整理  此外,相较于其他宽基指数,中证A50还具备长期业绩优势。数据显示,自中证A50指数基日2014年12月31日至今,中证A50年化收益率3.68%,表现优于上证50的-0.52%与MSCI中国A50指数的2.45%,仅次于深证50的5.15%,但中证A50指数的波动性和最大回撤要小于深证50,表现相对更为稳健。  图表:主要宽基指数走势(2014-12-31至2024-02-21)  资料来源:WIND,全景网整理  之所以中证A50指数能取得更好业绩表现,核心原因还是其精选细分行业龙头的选股策略,其成分股企业均具备较强的盈利能力。数据显示,中证A50指数样本股近五年ROE平均值均在16%以上,平均值在大部分时间里明显高于上证50,与深证50指数较为接近。  图表:各指数近5年ROE平均值对比  资料来源:WIND,全景网整理  02  中证A50ETF开路  预计2024年宽基ETF继续保持强势增长  纵观2023年,尽管A股市场受挫,但ETF市场发展仍然如火如荼。从数据上看,以股票型ETF为例,2023年不论基金数量,还是基金份额、基金净资产均出现了较高速的增长,其中基金数量净增加126只,同比实现21.04%增幅;基金份额净增加4737.21亿份,同比增52.77%;基金净资产规模净增加3837.32亿元,同比增35.83%。  值得关注的是,宽基指数ETF的数量和规模在整体股票型ETF基金当中占有绝对地位,且增长速度非常迅猛,明显超越整体股票型ETF增速。尤其2023年12月中央汇金等机构公告增持相关ETF以来,资金明显大幅流入以沪深300、上证50等指数为代表的大盘宽基类ETF。  图表:2023年股票型ETF基金规模及增长  资料来源:WIND,全景网整理  龙年开局,市场经历了2年多的调整之后,当前A股主要指数估值均处于历史低位区间,价值股估值优势则更为明显。且伴随着小微盘抱团的瓦解和逐步出清,当前大盘蓝筹与高红利股具备较高的配置价值。资金层面,2月20日人民银行公布5年期以上LPR下调25个基点至3.95%,成为2019年换锚以来最大降幅,大幅超越市场预期。同时,美国在2024年具备降息预期,都将为市场铺垫一个较为宽松的资金环境。  在这一局势之下,中证A50ETF顺势而生,为投资者增加了一个新的配置工具。10只中证A50ETF基金的发售,成为点燃2024年ETF市场的第一把火,预示着2024年宽基ETF基金市场发展势头将仍然保持强劲。股市回暖,抄底炒股先开户!智能定投、条件单、个股雷达……送给你>>新浪声明:此消息系转载自新浪合作媒体,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。海量资讯、精准解读,尽在新浪财经APP

"青柠影院免费版在线观看HD",
作者:奕思谐



多个西方国家就美枪支暴力发出旅行警告:旅行要小心

"青柠影院免费版在线观看HD",台首艘自造潜艇出厂测试并实施海空管制防泄密,岛内网友:作秀!,贾玲瘦身后第一次见观众,赵明:PC比手机还卷荣耀端侧AI领先所有现有笔记本厂商,长城汽车坦克700Hi4-T发布:3.0TV6发动机,售价42.8万元起,菲律宾总统访美见拜登美官员放风:将达成两项协议

"青柠影院免费版在线观看HD",NCT最后一支分队NCTWISH将出道2月21日在日出道

"青柠影院免费版在线观看HD",
总监制:蒿志旺

监 制:波睿达

主 编:方忆梅

编 审:植忆莲

(文章未经授权不得转载。)

点击收起全文
扫一扫 分享到微信
|
返回顶部
最新推荐
正在阅读:青柠影院免费版在线观看HD:台首艘自造潜艇出厂测试并实施海空管制防泄密,岛内网友:作秀!
扫一扫 分享到微信
手机看
扫一扫 手机继续看
A- A+