沈娜娜和苏语棠合作:中衡设计(603017.SH):拟入伙苏州元创紫御股权投资合伙企业

来源:央视新闻 | 2024-02-26 19:47:17
在线小游戏 | 2024-02-26 19:47:17
原标题:"沈娜娜和苏语棠合作"
"沈娜娜和苏语棠合作",正在加载

"沈娜娜和苏语棠合作",中衡设计(603017.SH):拟入伙苏州元创紫御股权投资合伙企业,多个西方国家就美枪支暴力发出旅行警告:旅行要小心



"沈娜娜和苏语棠合作",富国银行:预计美元将在2024年下半年全面贬值,伊力特(600197.SH):控股股东伊力特集团拟增持1亿元-2亿元回购股份

"沈娜娜和苏语棠合作",深交所对合力泰下发关注函

小小水蜜桃电视剧免费观看动漫

小小水蜜桃8在线看

小小水蜜桃8在线观看

小小水蜜桃高清视频在线播放

暗交小拗女一区二区三

小小水蜜桃8在线看

马红俊2口爆竹竹清



沈娜娜和苏语棠合作:卢伟冰:小米SU7最早Q2开始交付首批用户将与手机用户高度重合,上海到日本0元机票背后,航空公司靠什么赚钱,“脆皮年轻人”花式养生,有人月均账单超千元

"沈娜娜和苏语棠合作",  华福证券指出,无论在视频保真度、分辨率、文字理解等方面,Sora都做到了业内领先水平,此外当Sora训练的数据量足够大时,它也展现出了一种类似于涌现的能力,使视频生成模型具备了类似于物理世界通用模拟器的潜力。  要点:Sora横空出世引领多模态产业革命。美国时间2月15日,文生视频大模型Sora横空出世,能够根据文本指令或静态图像生成1分钟的视频。其中,视频生成包含精细复杂的场景、生动的角色表情以及复杂的镜头运动,同时也接受现有视频扩展或填补缺失的帧。总体而言,不管是在视频的保真度、长度、稳定性、一致性、分辨率、文字理解等方面,Sora都做到了业内领先水平,引领多模态产业革命。此外,当Sora训练的数据量足够大时,它也展现出了一种类似于涌现的能力,从而使得视频生成模型具备了类似于物理世界通用模拟器的潜力。拆解视频生成过程,技术博采众长或奠定了Sora文生视频领军地位。从技术报告中,Sora视频生成过程大致由“视频编码+加噪降噪+视频解码”三个步骤组成,视频压缩网络、时空patches、transformer架构、视频数据集等技术与资源在其中发挥了重要作用。视频压缩网络:过往VAE应用于视频领域通常需插入时间层,Sora从头训练了能直接压缩视频的自编码器,可同时实现时间和空间的压缩,既节省算力资源,又最大程度上保留视频原始信息,或为Sora生成长视频的关键因素,并为后续处理奠定基础。时空patches:1)同时考虑视频中时间和空间关系,能够捕捉到视频中细微的动作和变化,在保证视频内容连贯性和长度的同时,创造出丰富多样的视觉效果;2)突破视频分辨率、长宽比等限制的同时显著提升模型性能,节约训练与推理算力成本。Transformer架构:1)相比于U-Net架构,transformer突显ScalingLaw下的“暴力美学”,即参数规模越大、训练时长越长、训练数据集越大,生成视频的效果更好;2)此外,在transformer大规模训练下,逐步显现出规模效应,迸发了模型的涌现能力。视频数据集:Sora或采用了更丰富的视频数据集,在原生视频的基础上,将DALL?E3的re-captioning技术应用于视频领域,同时利用GPT保障文字-视频数据集质量,使得模型具有强大的语言理解能力。  Sora引领多模态革命,技术与资源突显优势  1.Sora横空出世,引领多模态产业革命  美国时间2月15日,文生视频大模型Sora横空出世,能够根据文本指令或静态图像生成1分钟的视频。其中,视频生成包含精细复杂的场景、生动的角色表情以及复杂的镜头运动,同时也接受现有视频扩展或填补缺失的帧。  总体而言,不管是在视频的保真度、长度、稳定性、一致性、分辨率、文字理解等方面,Sora都做到了业内领先水平,引领多模态产业革命。此外,当Sora训练的数据量足够大时,它也展现出了一种类似于涌现的能力,从而使得视频生成模型具备了类似于物理世界通用模拟器的潜力。  2.Sora视频生成过程:视频编码+加噪降噪+视频解码  从技术报告中,Sora视频生成过程大致由以下三个步骤组成:视频编码:VisualEncoder将原始视频压缩为低维潜在空间,再将视频分解为时空patches后拉平为系列视频token以供transformer处理。加噪降噪:在transfomer架构下的扩散模型中,时空patches融合文本条件化,先后经过加噪和去噪,以达到可解码状态。视频解码:将去噪后的低维潜在表示映射回像素空间。  总体而言,我们认为Sora技术报告虽未能详尽阐述视频生成技术细节,但从参考技术文献中,可初步窥探出时空patches、视频压缩网络、Transformer技术架构、独特文本标注视频数据集等技术与资源优势,这些或为Sora占据业内领先地位的原因。  博采众长,Sora技术开拓创新  3.视频压缩网络实现降维,或为长视频生成基础  OpenAI训练了降低视觉数据维度的网络,该网络接受原始视频作为输入,并输出在时间和空间上都被压缩的潜在表示。Sora在这个压缩的潜在空间上进行训练,并随后生成视频。与之对应,Sora训练了相应的解码器模型,将生成的潜在表示映射回像素空间。  压缩网络本质上是将高维数据映射至低维空间,低维空间中每个点通常对应原始高维数据的潜在表示,在复杂性降低和细节保留之间达到最优平衡点,实现提升视觉保真度的同时降低算力资源消耗的作用。  VAE为图片生成领域的常见图片编码器,应用到视频领域则需要加入时间维度以形成视频框架。例如,2023年发布的VideoLDM通过将视频拆解为每一帧,之后插入时间对齐层,从而实现了视频生成。  Sora从头训练了能直接压缩视频的自编码器,既能实现空间压缩图像,又能在时间上压缩视频。我们认为,在时空维度上压缩视频,既节省了算力资源,又最大程度上保留视频原始信息,或为Sora生成60s长视频的关键因素,并为后续时空patches和transfomer架构处理奠定基础。  4.1时空patches统一视频分割,奠定处理和理解复杂视觉内容的基石  Sora借鉴LLM中将文本信息转化为token的思路,针对视频训练视觉patch,实现视觉数据模型的统一表达,实现对多样化视频和图像内容的有效处理和生成,之后通过视频压缩网络分解为时空patches,允许模型在时间和空间范围内进行信息交换和操作。  从Sora技术报告来看,时空patches或借鉴ViViT操作。  ViViT借鉴ViT在图片分割上的思路,把输入的视频划分成若干个tuplet,每个tuplet会变成一个token,经过spatialtemperalattention进行空间和时间建模获得有效的视频表征token。  传统方法可能将视频简单分解为一系列连续的帧,因而忽略了视频中的空间信息,也就是在每一帧中物体的位置和运动。我们认为,由于连续帧存在时空连续性,Sora的时空patches可同时考虑视频中时间和空间关系,能够更加精准生成视频,捕捉到视频中细微的动作和变化,在保证视频内容连贯性和长度的同时,创造出丰富多样的视觉效果,灵活满足用户的各种需求。  4.2Sora时空patches突破视频长宽比、分辨率等限制  OpenAI表示,过去的图像和视频生成方法通常会将视频调整大小、裁剪或修剪为标准尺寸,而这损耗了视频生成的质量。例如,ViT通常需要将图像调整为固定的分辨率与尺寸进行处理,并仅能分解为固定数量的patches,因而限制了灵活处理不同尺寸、分辨率视频的建模。  Sora或借鉴谷歌NaViT中“Patchn’Pack”的方法,在训练效率、模型适应性和推理灵活性等方面具有显著优势。1)允许从不同图像中提取多个patch打包在一个序列中,从而实现可变分辨率并保持宽高比。2)NaViT相比ViT具有较高计算性能。例如,使用四倍少的计算量,NaViT到达顶级ViT的性能。此外,NaViT可以在训练和微调过程中处理多种分辨率的图像,从而在各种分辨率下都能表现出优秀的性能,在推理成本方面给NaViT带来了显著的优势。  我们认为,经过patch化之后,Sora无需对数据进行裁剪,就能够对不同分辨率、持续时间和长宽比的视频和图像的原始数据进行训练,既极大程度上利用原始信息保障生成高质量图片或视频,又显著提升模型性能,节约训练与推理算力成本。  根据技术报告,Sora在原视频训练有以下优势:采样灵活性:Sora可以采样宽屏1920x1080p视频、竖屏1080x1920视频以及介于两者之间的所有格式。这使得Sora能够直接按照不同设备的原生宽高比创建内容。它还允许在使用同一模型生成全分辨率内容之前,快速原型化较小尺寸的内容。改进的构图和画面组成:将Sora与一个版本的模型进行了比较,该模型将所有训练视频裁剪成正方形。在正方形裁剪上训练的模型有时会生成主体只部分出现在视野中的视频。相比之下,来自Sora的视频具有改善的取景。  4.3Transformer架构突显ScallingLaw的“暴力美学”  扩散模型定义了扩散步骤的马尔科夫链,先通过向真实数据添加随机噪声,后反向学习扩散过程,从噪声中构建所需数据的样本,逐步降噪输出图片或视频。其中,U-Net为扩散模型的重要架构之一,通过训练U-Net预测噪声,逐步去噪后输入结果。  U-Net为卷积神经网络模型(CNN),在视频生成领域存在需裁剪数据与额外引入时间层等缺陷。1)卷积神经网络由于架构限制,存在分辨率与长宽比约束,输入与输出的结果均需调整至标准化大小,可能产生性能损失与效率低下等问题。2)U-Net的去噪模型在处理视频数据时,需额外加入一些和时间维度有关的操作,比如时间维度上的卷积、自注意力。在该过程涉及到时间注意力块嵌入位置问题,因而或较难处理长视频较多帧数的时间嵌入。  OpenAI在2020年首次提出了模型训练的秘诀——ScalingLaw。根据ScalingLaw,模型性能会在大算力、大参数、大数据的基础上像摩尔定律一样持续提升,不仅适用于语言模型,也适用于多模态模型。  Sora替换U-Net为DiT的transformer作为模型架构,具有两大优势:  1)transformer可将输入视频分解为3Dpatch,类似DiT将图片分解为图块,不仅突破了分辨率、尺寸等限制,而且能够同时处理时间和空间多维信息;  2)transformer延续了OpenAI的ScalingLaw,具有较强的可拓展性,即参数规模越大、训练时长越长、训练数据集越大,生成视频的效果更好。例如,Sora随着训练次数的增加,小狗在雪地里的视频质量显著提升。  U-Net为扩散模型主导架构,主要系Transformer中全注意力机制的内存需求会随输入序列长度而二次方增长,高分辨率图像处理能力不足。在处理视频这样的高维信号时,这样的增长模式会让计算成本变得非常高。然而,我们认为,OpenAI背靠云计算资源,具有较强的算力禀赋支持其再次打造“ChatGPT”时刻的Sora,此外通过视频网络空间降维技术可起到节约算力资源的作用,进一步促成Sora的成功与巩固OpenAI的龙头地位。  4.4Sora在Transformer大规模训练下涌现模拟能力  Sora在大规模训练的“暴力美学”下,未经过明确的3D、物体等归纳信息的训练,逐步显现出规模效应,迸发了模型的涌现能力:3D一致性:Sora能够生成具有动态相机运动的视频。随着相机的移动和旋转,人物和场景元素在三维空间中保持一致地移动。长距离连贯性和物体持久性:Sora通常能够有效地建模短距离和长距离依赖关系。例如,即使在人、动物和物体被遮挡或离开画面时,也能持续保持它们的存在;在单个样本中生成同一角色的多个镜头,并在整个视频中保持其外观。与世界互动:Sora有时可以模拟一些简单的动作来影响世界的状态。例如,画家可以在画布上留下随时间持续存在的新笔触,或者一个人可以吃一个汉堡并留下咬痕。模拟数字世界:Sora可以在同时控制《我的世界》中的玩家采用基本策略的同时,还能以高保真度渲染世界及其动态。  4.5数据来源或更为丰富,视频重标注技术展示强大语言理解能力  缺乏丰富的视频数据集以及如何对视频标注文本为文生视频的主要难点之一。从流行的Gen-2、EmuVideo等应用来看,这些模型通常先利用CLIP技术训练生成文本-图像对,之后加入时间层对视频进行标注,因而或许面临视频数据质量保证问题。  Sora训练数据集具有如下特点:数据来源或更为丰富。Sora技术报告未披露训练数据的详细情况,而我们认为从其涌现能力表现来看,Sora在训练数据中或许容纳了众多电影、纪录片、甚至游戏引擎等合成数据。原生视频处理。不对视频/图片进行裁剪等预处理,从而保证Sora生成的灵活性。Sora建立在过去DALL?E3和GPT模型的研究基础之上,构建视频re-captioning,使得模型具有强大的语言理解能力。原始的文本可能并不能很好的描述视频,可以通过re-captioning的方式为视觉训练数据生成高度描述性的字幕。因此,该模型能够在生成的视频中更忠实地遵循用户的文字提示。本文节选自华福证券《Sora技术深度解析》,施晓俊(执业证书编号:S0210522050003)  风险提示及免责条款  市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。股市回暖,抄底炒股先开户!智能定投、条件单、个股雷达……送给你>>海量资讯、精准解读,尽在新浪财经APP

"沈娜娜和苏语棠合作",“恭喜自己还没失业。”这是房企品牌人张良2023年最想对自己说的话。张良是一家TOP20房企的品牌人,在过去一年里,他挥--**--  “恭喜自己还没失业。”  这是房企品牌人张良2023年最想对自己说的话。张良是一家TOP20房企的品牌人,在过去一年里,他挥手告别了很多同事、同行。  张良笑言,现在每次跟同行聊天,都必定会问“你们那边现在有变化吗?”或者“你们团队还有多少人?”  张良经历的或见证的都是2023年房地产行业从业人员的现状缩影。行业仍在出清,房地产市场继续承压,仍处在低位调整期,房企的整体销售业绩也在继续下滑。  在此背景下,降薪裁员、降本增效仍是房企过去和未来必然要进行的动作。德勤发布的《2024年商业地产行业展望》报告显示,多达4成的受访者(全球大型房地产公司和投资公司共计750位首席财务官及其直接下属)表示,将在2024年进一步削减开支,而2023年这一比例仅为6%。用人和办公空间开支缩减是首要举措。  日前,《每日经济新闻》记者采访了部分房企的品牌工作人员,了解过去一年他们的工作状态、变化,以及地产行业调整、出清对他们产生的影响。  整个部门被裁掉  在2022年,行业内还会经常讨论某某离职或被裁员了,但到2023年,一切都习以为常。  张静的品牌团队没能挺过2023年,她所在的房企自2022年出现债务违约后一直在裁员。就在两年前,张静的部门还有10个人。她原本以为2023年还能再坚持一年,但公司没给她这个机会,品牌相关的岗位均被砍掉。  离职后,张静选择去一家国企子公司做品牌工作,“虽然工资没有以前那么多,但至少比较稳定。”  既有人被裁员,也有人选择主动离开。  张聪从业经历丰富,两年前他从一家头部房企跳槽到一家中型房企做品牌负责人,那时候房企还过着不太差的日子。2022年,这家房企爆发流动性问题,张聪的部门接连裁员了好几个人,到2023年仅剩两个。  “人变少了,但是工作没减少,活那么多,还是得干。这些都可以忍受,问题是工资一直很难定时全额发。”张聪说,2023年以来,工资经常两三个月才发一次,发的也不是当初约定的薪资数额,年终奖就更别提了。  思虑再三,张聪还是选择在2023年底离职,他的下一站是自己创业。  在面临可能被裁员、降薪的同时,地产品牌人还必须解决预算下行的问题。  “我们今年品牌预算还要砍,本来就不多了,现在更是雪上加霜,而且现在每一笔费用审核都越来越严格。我想对过去一年的自己说一声‘辛苦了’。”华南某房企中层品牌管理人员李建近期一直在为这件事头疼,市场下行期,项目舆情日渐增多。  “房价涨的时候能抹平一切皱褶,但楼市下行期极大激化了地产行业各产业链的矛盾,比如业主和开发商,承包商和开发商,开发商和政府等等。现在比如因降价、工程质量、延期交付等等引发的舆情越来越多。”  “不想做地产了”  2021年-2022年,对于地产从业者而言,说得最多的祝福和安慰就是——“保住这份工作”。但到2023年,不少人的祝福语已经变成“恭喜上岸(离开房地产行业)”。  据Wind,截至1月31日,A股87家房企中已有54家发布了2023年业绩预告,其中仅6家预计全年净利润实现正增长。49家房企业绩出现同比下降,其中34家净利润预亏。  每经记者了解到,不少房企品牌人在离职后都选择进入了汽车、化妆品、互联网、医药等其他行业,鲜少再跳槽到其他房企的。一方面,几乎所有房企都在降本增效,严格把控招聘,待招的品牌岗位少之又少;另一方面,他们认为房地产已是夕阳行业,不如趁机变道换挡。  陈明就是其中之一,他离职某华南房企后进入了一家化妆品公司。“跳槽的理由很简单,新的工作工资翻了两倍。我离职前一个人做着三个人的工作,工资还是当年进公司时的管培生水平。地产已经待够了,不想做地产了,所以我找新工作的时候,一家相关的地产公司都没投。”  徐磊从一家TOP20房企品牌岗位离职后,在2023年加入了某互联网大厂。互联网的品牌工作与房企大有不同,徐磊也适应了很久。但没想到,2023年这家互联网公司也开启了裁员。  徐磊所在的部门最终优化了大部分人,但他很幸运地被留了下来。尽管如此,徐磊的焦虑仍然没有散去,他一方面尽力做好自己的本职工作,另一方面也在不断寻找更合适的工作机会。  (文中人物均系化名)  记者|黄婉银

"沈娜娜和苏语棠合作",
作者:冯缘



第15届金扫帚奖初选公布《超能一家人》等入围

"沈娜娜和苏语棠合作",中衡设计(603017.SH):拟入伙苏州元创紫御股权投资合伙企业,英特尔首推面向AI时代的系统级代工,美国强烈鼓励邀台湾地区参与世卫大会中方坚决反对,光明地产完成发行6亿元中票,利率为3%,世界钢铁协会:2024年1月全球粗钢产量为1.481亿吨同比下降1.6%

"沈娜娜和苏语棠合作",美NHTSA:特斯拉新款Model3北美零部件比例不到50%

"沈娜娜和苏语棠合作",
总监制:毓煜

监 制:本英才

主 编:浦新凯

编 审:岑怜寒

(文章未经授权不得转载。)

点击收起全文
扫一扫 分享到微信
|
返回顶部
最新推荐
正在阅读:沈娜娜和苏语棠合作:中衡设计(603017.SH):拟入伙苏州元创紫御股权投资合伙企业
扫一扫 分享到微信
手机看
扫一扫 手机继续看
A- A+