服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

【国盛计算机】国产AI算力生态一览

日期: 来源:国盛计算机畅想收集编辑:刘高畅/孙行臻
核心观点



ChatGPT大模型计算量高速扩张,算力需求陡增。1)以ChatGPT为代表的大模型参数量、数据量高度扩张,GPT-3模型参数量高达1750亿,大模型训练需要强大算力支撑。2)当前Google每日搜索量已达到35亿,我们认为Chatgpt日活提升空间广阔,算力需求有望持续释放。3)未来多模态趋势下,更广的数据形态、更多的应用场景、更深的用户体验,亦将大幅提升支撑人工智能的算力需求,算力或迎来高速扩张时代。


人工智能芯片铸就算力底座,龙头破局加速追赶。华为昇腾、海光信息、寒武纪、百度等龙头在AI芯片市场加速布局,产品算力不断提升,部分性能靠近国际先进水平:
  • 华为昇腾910整数精度的算力达到640 TOPS,半精度的算力达到320 TFLOPS,可对标国际行业领先产品,其Atlas 300T训练卡主要应用场景包括运营商、互联网、金融等需要AI训练以及高性能计算的领域;
  • 海光“深算一号”DCU内置60-64个计算单元,最多4096个运算核心,具有较强的并行计算能力和较高的能效比,现已实现规模销售;
  • 寒武纪思元370芯片采用7nm制程工艺和chiplet技术,集成390亿个晶体管,最大算力高达256TOPS(INT8);
  • 百度昆仑芯2代AI芯片通用计算核心算力提升2-3倍,半精度达到128 TFLOPS,可支持训练和推理;
  • 景嘉微GPU可广泛应用于PC、服务器、图形工作站等设备,满足地理信息系统、图像匹配、信号处理、机载车载舰载显控等显示计算需求。

软硬生态构筑壁垒,关注海光、昇腾两大算力领军生态。考虑到除了GPU本身的技术壁垒外,软件生态也成为强化GPU厂商竞争力的重要屏障,建议关注产品性能突出、生态完善、下游应用丰富的海光和鲲鹏及其合作伙伴:
  • 海光生态:海光DCU协处理器能够较好地适配NVIDIA的CUDA生态,减轻开发和迁移难度,也降低了推广压力;构建较为完善的AI工具链生态,可以最大限度利用已有的成熟AI算法和框架;CPU与GPGPU也获得产业链各环主流厂商支持,建议关注的海光信息、中科曙光等。
  • 昇腾生态:昇腾计算产业生态基于昇腾系列处理器和基础软件,构建全栈AI计算基础设施、行业应用及服务。在软硬件体系方面,Atlas硬件、MindSpore框架以及AI开发平台构建起完备的合作体系;在整机方面,神州数码与拓维信息作为华为昇腾算力9家整机合作伙伴,在昇腾算力领域率先落子;在行业应用方面,22年北明软件加入昇腾万里伙伴计划,明确在金融、互联网、电力等领域的全方位合作意向,昇腾计算产业生态日渐完善。建议关注神州数码、拓维信息、常山北明等。

风险提示:AI技术迭代不及预期风险、经济下行超预期风险、行业竞争加剧风险。




报告正文



01


ChatGPT大模型计算量高速扩张,算力需求陡增

ChatGPT以大模型为基础,在翻译、问答、内容生成等领域表现不俗。1)ChatGPT是生成式AI的一种形式,Gartner将其作为《2022年度重要战略技术趋势》的第一位。2)根据腾讯研究院研究,当前的人工智能大多是针对特定的场景应用进行训练,生成的模型难以迁移到其他应用,属于“小模型”的范畴。整个过程不仅需要大量的手工调参,还需要给机器喂养海量的标注数据,这拉低了人工智能的研发效率,且成本较高。而ChatGPT背后的支撑是人工智能大模型。大模型通常是在无标注的大数据集上,采用自监督学习的方法进行训练。之后,在其他场景的应用中,开发者只需要对模型进行微调,或采用少量数据进行二次训练,就可以满足新应用场景的需要。这意味着,对大模型的改进可以让所有的下游小模型受益,大幅提升人工智能的适用场景和研发效率。3)因此大模型成为业界重点投入的方向,OpenAI、谷歌、脸书、微软,国内的百度、阿里、腾讯、华为和智源研究院等纷纷推出超大模型。特别是OpenAI GPT3大模型在翻译、问答、内容生成等领域的不俗表现,让业界看到了达成通用人工智能的希望。当前ChatGPT的版本为GPT3.5,是在GPT3之上的调优,能力进一步增强。

以大模型为基础,参数量、数据量高度扩张,算力需求陡增。在大模型的框架下,每一代GPT模型的参数量均高速扩张;同时,预训练的数据量需求亦快速提升。我们认为,ChatGPT的快速渗透、落地应用,也将大幅提振算力需求。

Chatgpt月活过亿,算力成为衡量投入的关键指标。根据Similarweb的数据,2023年1月,Chatgpt累计用户超1亿,创下了互联网最快破亿应用的记录,超过了之前TikTok9个月破亿的速度。

1)访问阶段:初始投入近十亿美元,单日电费数万美元。
  • 英伟达A100:根据OneFlow报道,目前,NVIDIA A100是AWS最具成本效益的GPU选择。


  • 英伟达DGX A100服务器:单机搭载8片A100 GPU,AI算力性能约为5 PetaFLOP/s,单机最大功率约为6.5kw,售价约为19.9万美元/台。

  • 每日咨询量:根据Similarweb数据,截至2023年1月底,chat.openai.com网站(即ChatGPT官网)在2023/1/27-2023/2/3这一周吸引的每日访客数量高达2500万。假设以目前的稳定状态,每日每用户提问约10个问题,则每日约有2.5亿次咨询量。

  • A100运行小时:假设每个问题平均30字,单个词在A100 GPU上约消耗350ms,则一天共需消耗729,167个A100 GPU运行小时。

  • A100需求量:对应每天需要729,167/24=30,382片英伟达A100 GPU同时计算,才可满足当前ChatGPT的访问量。

  • 初始算力投入:以前述英伟达DGX A100为基础,需要30,382/8=3,798台服务器,对应3,798/7=542个机柜。则,为满足ChatGPT当前千万级用户的咨询量,初始算力投入成本约为542*140=7.59亿美元。

  • 每月电费:用电量而言,542*45.5kw*24h=591,864kwh/日。参考Hashrate Index统计,我们假设美国平均工业电价约为0.08美元/kwh。则,每日电费约为591,864*0.08=4.7万美元/日。

 
另外,考虑Google每日搜索量已达到35亿,我们认为Chatgpt日活提升空间广阔,算力需求有望持续释放。
 
2)训练阶段:公有云下,单次训练约为百万至千万美元
  • 每个token的训练成本通常约为6N(而推理成本约为2N),其中N是LLM的参数数量;
  • 假设在训练过程中,模型的FLOPS利用率为46.2%,与在TPU v4芯片上进行训练的PaLM模型(拥有5400亿参数)一致。

  • 根据OneFlow估算,GPT-3训练一次的成本约为139.8万美元;对于一些更大的LLM模型(如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM),采用同样的计算公式,可得出,训练成本介于200万美元至1200万美元之间。

目前文字交互仅为Chatgpt以及AIGC应用场景的冰山一角,语音、图片、视频等多形式的输入输出,或将为内容创作领域带来革命性变化。而更广的数据形态、更多的应用场景、更深的用户体验,亦将大幅提升支撑人工智能的算力需求,算力或迎来高速扩张时代,服务器、芯片、IDC、光通信等厂商有望核心受益。



02

人工智能芯片铸就算力底座,龙头破局加速追赶

AI芯片优化机器学习和深度学习运算,较传统CPU存在技术变化。在CPU的基础上,AI芯片优化了在机器学习和深度学习中常用的运算,在并行计算、低精度计算、内存优化三个方面存在技术变化,与CPU发挥不同的功能,共同满足新时代计算需求。

根据技术架构分类,AI芯片包括图形处理单元(GPU),现场可编程门阵列(FPGA),以及特定应用集成电路(ASICs)。1)GPU最初是为处理应用并行计算的图像而设计的。2012年起,GPU开始越来越多地被用于训练AI系统;到2017年,GPU已成为主导的AI芯片。根据海光信息招股说明书,目前GPGPU依旧是主流架构选择,占比达到90%。2)然而,GPU仍然采用了通用计算的设计,FPGA和ASIC与之相对,在训练和推理方面变得更加突出。ASIC包括为特定算法定制的硬蚀刻的线路,由于ASIC对特定的算法做了优化,其通常比FPGA有着更高的效能和速度;FPGA的逻辑块使得其可以在制造后由程序员重新配置、适应特定的算法,比ASIC有着更高的通用性可以被二次编程应用与改造。

根据承担的任务分类,AI芯片包括训练芯片和推理芯片。训练芯片通过大量标记或未标记的大数据来学习训练、搭建神经网络模型需要更强的算力、也往往带来更高的功耗;后者则以训练好的模型为蓝本推理出结论。根据SCET的测算,训练芯片和推理芯片在效能和速度上比同等耗能的CPU有着10~1000倍的提升。

华为昇腾、海光信息、寒武纪、百度等龙头在AI芯片市场加速布局,产品算力不断提升,部分性能靠近国际先进水平:
  • 华为昇腾(训练+推理):1)推理卡:昇腾310芯片为华为首款全栈全场景AI芯片,功耗仅为8W,在典型配置下可以输出整数精度(INT8)达到16 TOPS,半精度(FP16)算力达到8 TOPS,其Atlas 300推理卡被广泛应用于智慧城市、智慧交通、智慧金融等场景。2)训练卡:昇腾910功耗310W,整数精度(INT8)的算力达到640 TOPS,半精度(FP16)的算力达到320 TFLOPS,可对标国际行业领先产品,其Atlas 300T训练卡主要应用场景包括运营商、互联网、金融等需要AI训练以及高性能计算的领域。

  • 海光信息(训练):公司主要产品包括通用处理器(CPU)和海光协处理器(DCU)。海光DCU对应海光8000系列,为海光自行研发设计的AI训练芯片。公司于2018年10月启动了“深算一号”的产品设计,现已实现规模销售。该芯片内置60-64个计算单元,最多4096个运算核心,具有较强的并行计算能力和较高的能效比,适用于向量计算和矩阵计算等计算密集型应用。海光DCU兼容“类CUDA”(ROCm)的环境,软硬件生态丰富,可广泛应用于大数据处理、人工智能、商业计算等计算密集类应用领域。2020年1月,公司启动了第二代DCU“深算二号”的产品研发工作。

  • 寒武纪(训练+推理)1)训推一体:思元370芯片是寒武纪公司推出的一款训推一体的AI芯片,采用7nm制程工艺和chiplet技术,集成390亿个晶体管,最大算力高达256TOPS(INT8),是上一代产品思元270算力的2倍,内存带宽的3倍。2)推理卡:寒武纪的思元270是一款推理芯片,可以处理非稀疏的AI模型,峰值性能达到128TOPS(INT8)。思元270还支持包括INT4和INT16的多种精度运算,以及浮点和混合精度运算。它适用于多种人工智能应用,包括视觉、语音、自然语言处理和机器学习。此外,思元290芯片是寒武纪的首款AI训练芯片,集成460亿个晶体管,HBM2内存则提供了AI训练中所需的高内存带宽,vMLU技术则帮助客户实现了云端虚拟化及资源隔离。

  • 百度昆仑芯(训练+推理):1)推理卡:昆仑芯一代和二代AI芯片分别名为K系列和R系列。其中,昆仑芯1代AI芯片为云端推理芯片,支持通用AI算法。该芯片算力强大,整数精度(INT8)达到256 TOPS,半精度(FP16)达到64 TFLOPS,可用于云数据中心和智能边缘,目前已在百度搜索引擎、小度等业务中部署数万片,赋能互联网、工业制造、智慧金融、智慧交通等领域。2)训推一体:相比1代产品,昆仑芯2代AI芯片通用计算核心算力提升2-3倍,半精度(FP16)达到128 TFLOPS,可支持训练和推理,为数据中心的高性能计算提供强劲AI算力,支持虚拟化、芯片间互联和视频编解码。


  • 景嘉微(推理):景嘉微是国产高性能GPU领域的领军企业。公司从2014年开始研发国内首款高可靠、低功耗GPU芯片JM5400,到2018年研制成功第二代高可靠、高性能GPU JM7200并得到市场广泛应用,再到2021年底完成第三代产品JH920的迭代升级。JH920是景嘉微的第三代高性能GPU,性能相比前两代有了大幅度提升,主要应用于中高端图形显示、通用计算、嵌入式等领域。JH920全面支持国产CPU、国产操作系统和国产固件,可广泛应用于PC、服务器、图形工作站等设备,满足地理信息系统、图像匹配、信号处理、机载车载舰载显控等显示计算需求。


03

人工智能芯片铸就算力底座,龙头破局加速追赶

3.1软件强化GPU竞争壁垒,完善生态成为发展关键


英伟达CUDA生态强化芯片高壁垒。CUDA是2006年由NVIDIA推出的通用并行计算架构,包含了应用于NVIDIA GPU的指令集(ISA)以及GPU内部并行计算引擎。CUDA提供了GPU编程的简易接口,程序员可以基于CUDA编译基于GPU的应用程序,利用GPU的并行计算能力更高效的解决复杂计算难题。根据宽泛科技公众号,Cuda推出之前,给GPU编程需要用机器码深入到显卡内核才能完成;Nvidia推出了Cuda以后,把复杂的显卡编程包装成了简单的接口,造福了广大开发人员,因此主流的深度学习框架多基于CUDA进行GPU并行加速。据Jon Peddie Research数据,截止至2022年四季度,Nvidia以82%的市场份额保持着全球领先的独立GPU供应商的地位,Intel和AMD占比均达到9%。

软件生态成为GPU厂商的重要屏障。Nvidia的GPU目前在全球依旧是云端人工智能加速的主流解决方案,究其根本,其他AI芯片公司在生态上难以与Nvidia CUDA生态做竞争:一方面取决于CUDA完整编程和AI工具链,这些完整的工具链需要长时间积累;另一方面取决于其广泛的应用程序和合作伙伴。
 
1)AI工具链生态完善有利于芯片推广。任何新的计算平台推广的初级阶段,都需要开发人员将原有应用程序重新移植到新平台,因此开发人员需要先进的工具链和开发环境;而应用程序扩展后,在数据中心级别也会需要更多工具来进行支持。以CUDA为例,NVIDIA依靠CUDA平台,经过长期积累形成完备的工具链,同时与第三方进行合作,为开发者提供打造了完备的生态组件,而生态组件和硬件深度绑定,也更有利于NVIDIA芯片的拓展。

2)应用程序和合作伙伴影响着芯片的落地。构建在芯片之上的软件生态深刻影响着芯片的可用性,芯片上层应用程序与合作伙伴,直接决定了芯片是否真正落地和值得投资。Nvidia便不断向全新的计算领域发起攻势,计算领域从云计算、医疗,一路扩展到自动驾驶、机器人、语言类大模型,甚至包括NASA火星登陆计划。
 
ROCm对标CUDA,在源码级别上对CUDA程序的支持。2015年AMD公司为了对标CUDA生态而开发的一套用于HPC和超大规模GPU计算提供的开源软件开发平台ROCm,目标是建立可替代CUDA的生态,并在源码级别上对CUDA程序的支持。AMD的生态虽然基于开源生态OpenCL开发,但AMD也制作了HIP的编程模式,几乎全盘拷贝CUDA API,2016年AMD曾展示了从CUDA向HIP移植深度学习框架CAFFE,99.6%都是自动移植完成。

借鉴AMD发展思路,短期内国产GPU若兼容CUDA利于推广,发展自有的核心技术为长期策略。1)短期来看,国产GPU兼容CUDA等国际生态可以借助英伟达打造好的软件生态,减轻开发和迁移难度,也降低了推广压力。2)长期来看,由于CUDA架构会做出部分微调,国产GPU如果完全基于CUDA生态进行开发,硬件更新将绑定英伟达的开发进程,因此,完善自身工具链与下游应用,构建公司生态壁垒,发展自有的核心技术应为长期策略。


3.2海光生态:兼容国际主流计算生态,下游应用丰富


海光DCU产品兼容国际主流生态,有利于快速迁移。跨平台迁移过程中算子缺失和精度下降,会导致迁移成功率低。海光DCU协处理器全面兼容ROCm GPU计算生态,由于ROCm和CUDA在生态、编程环境等方面具有高度的相似性,CUDA用户可以以较低代价快速迁移至ROCm平台,ROCm也被称为“类CUDA”。因此,海光DCU协处理器能够较好地适配、适应NVIDIA商业计算软件和人工智能软件,软硬件生态丰富,可广泛应用于大数据处理、人工智能、商业计算等计算密集类应用领域,主要部署在服务器集群或数据中心,为应用程序提供高性能、高能效比的算力,支撑高复杂度和高吞吐量的数据处理任务。

完善AI工具链生态,最大限度利用已有的成熟AI算法和框架。1)提供统一底层硬件驱动平台,支持常见计算框架、库和编程模型;2)提供层次化软件栈,适配不同API接口和编译器,可最大限度利用已有的成熟AI算法和框架。

与CPU形成协同效应,CPU+GPGPU异构运算架构提高灵活性。1)运算协处理器存在多条技术路线,包括GPGPU、ASIC、FPGA等。其中GPGPU的代表企业包括NVIDIA 和AMD;利用ASIC技术,许多大公司都研发了协处理器产品,包括Intel的Phi和NNP、Google的TPU、华为昇腾、寒武纪思元等;基于Intel、Xilinx的FPGA,出现过很多专用协处理器产品。2)综合考虑性能、能效比和编程灵活性等方面的因素,GPGPU在协处理器应用领域具有非常明显的优势,占据人工智能 90%以上的市场份额,在智能工厂、无人驾驶、智慧城市等领域具有广泛的市场空间。3)海光采用GPGPU路线,CPU+GPGPU 的异构运算架构可以让系统具有更大灵活性,满足复杂场景的不同需求,能够较大幅度地提升单独使用CPU或GPGPU的任务执行效率;CPU和GPGPU之间还可以通过内存共享等方式进行数据交互,发挥异构计算的优势。


CPU与GPGPU获得产业链各环主流厂商支持,合作厂商不断增多。目前公司已具备完善的产业链生态,在操作系统、云计算、数据库、大数据、人工智能、商用计算软件等各环节支持主流厂商产品与服务。
  • 中科曙光:截止至2022年3季报,中科曙光持有海光信息27.96%股份。中科曙光为国产服务器解决方案龙头企业,其服务器解决方案成熟,助力海光拓展行业市场。
  • 其他OEM客户支持:海光产品已经获得新华三、联想等众多OEM客户支持,形成全面完备的整机实例,推进后续客户对公司产品的购买。

  • 支持主流BIOS:目前公司产品支持主流BIOS厂商,如百敖、昆仑、insyde等。

加速以海光为核心的自主化生态,成立“光合组织”,面向产业链生态建设:
  • 2020年4月,公司成立“海光产业生态合作组织”,简称“光合组织”,旨在围绕国内自主通用计算平台,联合产业链上下游企业、高校、科研院所、行业企业等相关创新力量,实现协同技术攻关,共同打造安全、好用、开放的产品与解决方案,并开展测试认证、技术培训、方案孵化、应用示范、推广交流等系列活动,促进合作组织成员的共同发展,共建包容、繁荣的信息技术生态系统。
  • 光合组织推进成果颇丰。目前,光合组织已有成员1000+,适配认证厂商500+,产品适配认证1000+,成立区域分会10个,适配中心15个。


根植国内市场,海量需求将持续积淀Know-how,未来将拓展更多下游领域。目前,海光DCU主要面向大数据处理、商业计算等计算密集型应用领域以及人工智能、泛人工智能应用领域。相比国际芯片领先企业,公司根植于中国本土市场,更了解中国客户的需求,能够提供更为安全可控的产品和更为全面、细致的解决方案和售后服务,具有本土化竞争优势。随着公司产品在上述领域中示范效应的逐步显现,以及公司市场推广力度的不断加强,公司产品将会拓展至更多领域,占据更大的市场份额。

3.2昇腾生态搭建全栈AI计算,生态伙伴深入


昇腾计算产业生态是基于昇腾系列处理器和基础软件构建的全栈AI计算基础设施、行业应用及服务,具体可以分为昇腾计算软硬件体系、合作伙伴、行业应用三层。

1)硬件体系:Atlas系列硬件产品,比如嵌入式模组、板卡、小站、服务器、集群等。Atlas合作伙伴包括神州数码、湘江鲲鹏(拓维信息)、安擎、宝德、华鲲振宇(长虹)、长江计算、黄河科技、新华三、百信、清华同方、广电五舟等。
  • 神州数码:2021年作为华为昇腾算力9家整机合作伙伴之一,公司在昇腾算力领域率先落子。根据公司官方公众号,神州鲲泰KunTai A722推理型服务器以“鲲鹏+昇腾”为核心,在2U紧凑空间内,可提供128个处理核心的算力,同时最大可支持8张华为Atlas 300推理卡,提供256GB推理缓存,以及最大 704 TOPS INT8 的AI算力。
  • 拓维信息:2021年公司成为昇腾首批整机合作伙伴,2022年4月兆瀚推理服务器RA2300-A系列是基于昇腾处理器开发的AI推理服务器,完成与华为Atlas 300I Pro推理卡和Atlas 300V Pro视频解析卡的兼容性测试,最多可搭载8张Atlas 300V Pro 视频解析卡或Atlas 300I Pro 推理卡。

2)基础软件:
  • 异构计算架构CANN以及对应的驱动、运行时、加速库、编译器、调试调优工具、开发工具链MindStudio和各种运维管理工具等,开放给广大的开发者和客户;
  • AI计算框架,包括开源的MindSpore,以及各种业界流行的框架,作为生态的有机组成部分:MindSpore合作伙伴包括鹏城实验室、深圳湾实验室、北京大学、清华大学、哈工大、斗鱼等。

  • AI开发平台ModelArts、HiAI Service等,合作伙伴包括第四范式、依瞳科技、中科弘云等。

 
3)行业应用伙伴:广大合作伙伴与华为一起,已经推出了众多AI解决方案,在运营商、金融、互联网、能源、交通、教育、医疗等各个行业获得广泛应用,并在实践中创造了很好的行业价值。
  • 常山北明:根据全资子公司北明软件官方公众号,2021年北明软件与南京江北新区正式签约,助力华为与江北新区打造南京昇腾人工智能计算中心;2022年4月,北明软件正式加入昇腾万里伙伴计划,成为昇腾应用软件伙伴,明确在金融、互联网、电力等领域的全方位合作意向。在华为的引领与华为生态伙伴的协同下,昇腾行业生态日渐完善。



04

投资标的


以ChatGPT为代表的大模型时代来临,语音、图片、视频等多模态AI技术快速崛起,更广的数据形态、更多的应用场景、更深的用户体验,算力需求陡增。而AI芯片作为算力的核心,目前被海外厂商占据大部分,而国内华为昇腾、海光信息、寒武纪、百度等龙头正在加速布局。考虑到除了GPU本身的技术壁垒外,软件生态也成为强化GPU厂商竞争力的重要屏障,建议关注产品性能突出、生态完善、下游应用丰富的海光和鲲鹏及其合作伙伴:1)海光生态中的海光信息、中科曙光等;2)昇腾生态中的神州数码、拓维信息、常山北明等。



05

风险提示


AI技术迭代不及预期风险:若AI技术迭代不及预期,NLP技术理解人类意图水平未能取得突破,则对产业链相关公司会造成一定不利影响。

经济下行超预期风险:若宏观经济景气度下行,固定资产投资额放缓,影响企业再投资意愿,从而影响消费者消费意愿和产业链生产意愿,对整个行业将会造成不利影响,NLP技术应用落地将会受限。
行业竞争加剧风险:若相关企业加快技术迭代和应用布局,整体行业竞争程度加剧,将会对目前行业内企业的增长产生威胁。

具体分析详见2023年3月5日发布的报告《国产AI算力生态一览》

分析师 刘高畅 分析师执业编号S0680518090001

研究助理 孙行臻 分析师执业编号S0680122020018

特别声明:《证券期货投资者适当性管理办法》于2017年7月1日起正式实施。通过微信形式制作的本资料仅面向国盛证券客户中的专业投资者。请勿对本资料进行任何形式的转发。若您非国盛证券客户中的专业投资者,为保证服务质量、控制投资风险,请取消关注,请勿订阅、接受或使用本资料中的任何信息。因本订阅号难以设置访问权限,若给您造成不便,烦请谅解!感谢您给予的理解和配合。

 

重要声明:本订阅号是国盛证券计算机团队设立的。本订阅号不是国盛计算机团队研究报告的发布平台。本订阅号所载的信息仅面向专业投资机构,仅供在新媒体背景下研究观点的及时交流。本订阅号所载的信息均摘编自国盛证券研究所已经发布的研究报告或者系对已发布报告的后续解读,若因对报告的摘编而产生歧义,应以报告发布当日的完整内容为准。本资料仅代表报告发布当日的判断,相关的分析意见及推测可在不发出通知的情形下做出更改,读者参考时还须及时跟踪后续最新的研究进展。


本资料不构成对具体证券在具体价位、具体时点、具体市场表现的判断或投资建议,不能够等同于指导具体投资的操作性意见,普通的个人投资者若使用本资料,有可能会因缺乏解读服务而对报告中的关键假设、评级、目标价等内容产生理解上的歧义,进而造成投资损失。因此个人投资者还须寻求专业投资顾问的指导。本资料仅供参考之用,接收人不应单纯依靠本资料的信息而取代自身的独立判断,应自主作出投资决策并自行承担投资风险。

 

版权所有,未经许可禁止转载或传播。




 

相关阅读

  • AI芯片专家会议纪要

  • 公众号改了规则,推送不按时间顺序,若不想错过文章,请设置“星标”,顺手点下“再看”,下次更新优先推送消息;欢迎点赞、在看;内容来源于网络,若不便发表,请联系后台删除;文章仅用于研究
  • CTA何时让媒体人省省心!

  • 量化投资与机器学习微信公众号,是业内垂直于量化投资、对冲基金、Fintech、人工智能、大数据等领域的主流自媒体。公众号拥有来自公募、私募、券商、期货、银行、保险、高校
  • 第一批因ChatGPT坐牢的人,已经上路了

  • 潘多拉魔盒一旦被打开,想要关上就没那么容易了。作者 | 涂明编辑 | 栗子就在由ChatGPT引发的AI革命席卷全球之际,第一批利用ChatGPT犯罪的人已经悄然出现了。前不久,外国网络安
  • 百亿市值的拓维信息,能再次大爆发吗?

  • 作者 | 潇湘今天大盘爆发,最强势的板块,还是老相识,跟人工智能和数字经济有关系的,基本都有不错的表现。之前我就说了,人工智能会成为2月主线(2月1日潇湘的研判:《人工智能为何会成
  • 亮了!关于6G、ChatGPT,信息量很大!

  • 3月5日,十四届全国人大一次会议的首场“部长通道”开启。工业和信息化部部长金壮龙、科技部部长王志刚、生态环境部部长黄润秋接受了媒体采访。工业和信息化部部长金壮龙:保持

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 【国盛计算机】多模态GPT,比我们想象的更近

  • 核心观点微软推出多模态大语言模型KOSMOS-1,印证大语言模型能力可延伸至NLP外领域。该模型采用多模态数据训练,可感知图片、文字等不同模态输入,并学习上下文,根据给出的指令生
  • 【国盛计算机】国产AI算力生态一览

  • 核心观点ChatGPT大模型计算量高速扩张,算力需求陡增。1)以ChatGPT为代表的大模型参数量、数据量高度扩张,GPT-3模型参数量高达1750亿,大模型训练需要强大算力支撑。2)当前Google
  • 国信研究 | 研究周刊(02.27-03.05)

  • No.1宏观从一般公共预算来看,大部分地区在预算报告中提高了 2023 年一般公共预算收入预计增速。不少省份判断今年经济运行有望总体回升,叠加各地产业等优势,预计带动财政收入出