一种演示文稿生成方法及装置与流程

未命名 08-14 阅读:80 评论:0
1.本发明属于自然语言处理和多模态领域,尤其涉及一种演示文稿生成方法及装置。
背景技术
::2.随着人工智能的发展,越来越多的领域开始使用ai技术来提高工作效率和减轻人力成本。其中,演示文稿是一种常见的商务工具,被广泛应用于演示、会议、报告等场合,但制作演示文稿需要耗费大量时间和精力,而且还需要对演示文稿进行设计和排版。针对这一问题,使用ai技术生成演示文稿已经成为了一种趋势。3.ai生成演示文稿的技术核心在于使用深度学习算法来学习和模拟人类的设计思维和排版技巧,从而实现自动化生成演示文稿的目的。具体来说,这种技术通常包括以下几个方面:自然语言处理,通过对输入的主题文本进行分析和处理,根据主题内容生成演示文稿的文字内容;文本图像生成,基于文本生成演示文稿配图;自动排版,基于生成的文本和图像,进行演示文稿的排版和布局。要想演示文稿的生成效果较好,主要会依赖于自然语言处理部分能够生成准确的演示文稿的文字内容,文本生成图像部分能够准确的生成演示文稿配图。4.近期,聊天机器人chatgpt,基于公开的api接口,产生了各式各样的应用。两位学生利用chatgpt和dall-e2研发的一款实现自动制作演示文稿的应用chatbcg。由于chatbcg公开的技术细节非常少,根据chatbcg的简介和官网展示的算例,推测chatbcg主要包含三项任务,其一是文本生成任务,用chatgpt生成演示文稿所需的文本;其二是图片生成,用dall-e2生成配图,其三是演示文稿布局和主题设计;chatgpt和dall-e2分别是聊天机器人和文本生成图像大模型,其中,chatgpt具有强大的文本生成能力,dall-e2可以根据文字描述生成对应的图片,完全依赖对于大模型的训练成果,对于大部分研究学者来说,很难有用于训练大模型的强大算力和人员配备,使得大模型的训练完全成为一个黑盒,无法对模型内部进行持续性的修改和优化。5.另外,国外对于类似于chatgpt的大模型训练细节公布较少,其api对于国内也是不公开状态。因此,对于这种情况来说,无法直接调用接口生成演示文稿文本。如果选择重新预训练文本生成大模型和文本生成图像大模型,就会面临两个主要问题:1、中文的演示文稿数据集公开的非常少,需要重新收集大量的演示文稿数据集,同样会面临着大量的数据预处理工作,浪费时间和人力成本。2、生成演示文稿的训练细节公开较少,虽然整体的链路模式已经固定,但是如何使文本生成模型生成演示文稿的文本内容,基于文本内容如何生成对应的演示文稿配图的技术细节均无详细描述。技术实现要素:6.针对现有技术的缺陷,本技术实施例的目的是提供一种演示文稿生成方法及装置,旨在使用aigc技术生成演示文稿,大大提高工作中制作演示文稿的效率,缩小时间成逆向文件频率值,将所述词频-逆向文件频率值最大的若干个词作为关键词。27.根据本技术实施例的第二方面,提供一种演示文稿生成装置,包括:28.获取模块,用于获取生成演示文稿的主题,基于预先构建并训练完成的文本生成模块,得到演示文稿的所有文字内容;29.关键词提取模块,用于将所述演示文稿的主题、二级标题和每个二级标题下的文字内容结构化得到若干部分,将每个部分作为一页演示文稿,对除了首页和目录页以外的其他页进行关键词提取;30.图像生成模块,用于基于提取出的关键词,通过文本生成图像模块生成各页演示文稿对应的配图图像;31.排版模块,用于把划分后的文字内容和对应页的配图图像进行自动排版,得到完整的演示文稿。32.根据本技术实施例的第三方面,提供一种电子设备,包括:33.一个或多个处理器;34.存储器,用于存储一个或多个程序;35.当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的方法。36.根据本技术实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如第一方面所述方法的步骤。37.本技术的实施例提供的技术方案可以包括以下有益效果:38.由上述实施例可知,本技术提供基于aigc(artificialintelligencegeneratedcontent)的演示文稿生成方法及装置,基于现有的链路模式开发了新的方案,提供了整体的链路模式细节,能够基于一个主题生成整个演示文稿,可以实现高效、准确、个性化的演示文稿制作,不仅可以为用户节省时间和精力,还可以大大提高演示文稿的质量和效果,让用户更好地展示自己的思想和想法;对于自然语言处理领域文本生成任务和多模态领域文本生成图像任务的结合,可以形成很好的落地应用,也对两个领域的快速发展具有重要的理论意义和实用价值。39.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本技术。附图说明40.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本技术的实施例,并与说明书一起用于解释本技术的原理。41.图1是根据一示例性实施例示出的一种演示文稿生成方法的整体技术路线图。42.图2是根据一示例性实施例示出的一种演示文稿生成方法的流程图。43.图3是根据一示例性实施例示出的一种演示文稿生成装置的框图。44.图4是根据一示例性实施例示出的一种电子设备的示意图。具体实施方式45.这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本技术相一致的所有实施方式。46.在本技术使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本技术。在本技术和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。47.以下首先就本发明的技术术语进行解释和说明:48.文本生成预训练模型:文本生成预训练模型主流解决方案是自回归(autoregressive,ar)模型。为提升文本生成效果,ar改进分为2个方向:(1)gpt系列模型,该类模型通过提升参数,增大语料,效果提升比较明显,但成本确实不低。(2)在ar基础上融合自编码(autoencoder,ae)技术,自回归生成文字的时候,能够看到上下文。ae和ar融合分成了2部分,第一部分是基于bert框架下的改进,第二部分是基于seq2seq框架下的改进。总之,ar和ae的融合更符合人类语言习惯,表面上表达是逐字的(从左到右,依赖上文),实际上是有了整体构思和组织后(从左到右,依赖上下文)才逐字表达。49.文本生成图像模型:文本生成图像模型是一种用于将给定的文本描述转换为对应图像的模型。这些模型通常基于卷积神经网络(cnn)和递归神经网络(rnn),并使用生成对抗网络(gan)或变分自编码器(vae)等生成模型。工作原理是将文本描述编码为一个向量或矩阵,并将其输入到图像生成器中,以生成对应的图像。通常情况下,这个过程被分为两个部分:第一部分是文本到图像的转换,第二部分是对生成的图像进行优化,以确保它们符合给定的文本描述。其中,gan模型通过训练一个生成器网络和一个判别器网络,使得生成器可以生成尽可能接近真实图像的图像,而判别器则判断生成器生成的图像是否与真实图像相似。vae模型则利用编码器将输入的文本描述转化为潜在空间中的向量,然后使用解码器将潜在空间向量解码为对应的图像。50.aigc:aigc(artificialintelligencegeneratedcontent)是指利用人工智能技术生成各种形式的内容,如文章、图片、视频、音频等。aigc技术利用人工智能算法进行数据分析、学习和生成,从而实现快速、自动、高效地生成大量的数字内容。51.本技术提供一种演示文稿生成方法,如图1和图2所示,该方法应用于终端中,可以包括以下步骤:52.s11:获取生成演示文稿的主题,基于预先构建并训练完成的文本生成模块,得到演示文稿的所有文字内容;53.s12:将所述演示文稿的主题、二级标题和每个二级标题下的文字内容结构化得到若干部分,将每个部分作为一页演示文稿,对除了首页和目录页以外的其他页进行关键词提取;54.s13:基于提取出的关键词,通过文本生成图像模块生成各页演示文稿对应的配图图像;55.s14:把划分后的文字内容和对应页的配图图像进行自动排版,得到完整的演示文稿。56.以下结合“安全用电”的主题进行描述。57.在s11的具体实施中,获取生成演示文稿的主题,基于预先构建并训练完成的文本生成模块,得到演示文稿的所有文字内容;58.具体地,所述文本生成模块包括标题生成模型和内容生成模型。59.所述标题生成模块用于根据演示文稿的主题生成演示文稿的二级标题,该部分分为三种情况,(1)如果用户可以提供自设的演示文稿二级标题则直接引用;(2)若用户未提供自设的演示文稿二级标题且对于预设的演示文稿二级标题较为满意,则用户可以选择基于预设的演示文稿模板,直接将主题加入到各级标题中;需要说明的是,预设的标题格式比较固定,适用于较固定的领域,比如论文答辩,基本标题是“主题背景、主要创新点、展望与总结”等;(3)若用户未提供自设的演示文稿二级标题且对于预设的演示文稿二级标题不满意,则构建标题生成模型,获取生成演示文稿的主题,将该主题输入到标题生成模型中,生成演示文稿的二级标题,需要说明的是,模型生成的标题比较开放,适用于较通用的情况。60.具体来说,对于第(1)种情况,直接获取用户输入的演示文稿各级标题,无需做任何处理。在本实施例中,基于“安全用电”这一主题,预设“安全用电的重要性”,“触电事故的分类”,“安全用电的预防措施”,“安全用电的八大原则”这四个二级标题。61.对于第(2)种情况,在一实施例中,预设的演示文稿模板有:62.模板一:科普宣传,包含【主题】基本介绍、【主题】发展趋势、【主题】优劣势、【主题】关键意义、【主题】案例;63.模板二:科研汇报,包含【主题】的研究背景、【主题】的研究方案、【主题】的研究成果、【主题】的研究总结;64.模板三:销售营销,包含【主题】背景概述、【主题】当前市场分析、【主题】市场营销方案、【主题】预期营销效果。65.在具体实施中,可以根据实际情况新增演示文稿模板。66.在本实施例中,选择模板一科普宣传,构建标题“安全用电的基本介绍”,“安全用电原则的发展趋势”、“安全用电的重要性”、“安全用电的关键意义”、“安全用电的案例”。67.对于第(3)种情况,需要设计标题生成模型,可以选用一个文本生成预训练模型,在一实施例中可以选用gpt(generativepre-trainedtransformer,生成式预训练transfomer)模型并对其进行预训练和微调。在模型的预训练部分,用表示每一个token(指对一条文本样本进行分词后得到的单元,在本技术中指一个中文单词),当设置窗口大小为,预测句中的第个词时,则使用第个词之前的个词,同时也根据超参数来预测第个词可能是什么。总而言之,用前面的词预测后面的词。构建语言模型gpt,其损失函数定义如下:[0068][0069]其中为上下文窗口的大小,为条件概率,为模型的超参数,是一个无监督的语料库;[0070]该语言模型使用多层transformer解码器,模型对输入上下文标记应用多头注意力机制,然后连接位置前馈网络,使得在目标tokens上产生一个输出分布:[0071][0072][0073][0074]其中是token的上下文向量,是transformer解码器的层数,是token的嵌入矩阵,是位置嵌入矩阵。[0075]此时的数据集可以使用大量中文数据集(可通过自行搜集数据构建或下载开源数据集得到),处理成{“text”:ꢀ“主题\n\n主题内容”}的格式。然后输入到gpt模型中进行充分的预训练,直到模型损失曲线收敛则停止模型的预训练。[0076]接下来基于训练充分的预训练模型进行模型有监督的微调,假设一个带标签的数据,其中每一条样本都由和标签组成,其中x为一条中文样本中的中文单词。通过预训练模型经过充分训练得到的transformer块的激活值,将其输入到一个参数为的全连接层中来预测:[0077][0078]因此,最大化的目标函数为:[0079][0080]结合和,加入权重参数控制其比例,得到微调阶段最终的目标函数:[0081][0082]微调部分需要将数据集进行特殊的预处理,最终处理的结构为{“主题”:“标题1”\n\n“标题2”\n\n“标题3”…“标题n”}其中标题n表示演示文稿第n个部分的标题。[0083]将微调部分的模型训练收敛后,基于模型进行推理,获取一个文字主题,将其输入到训练充分的微调模型中,最终得到的输出为演示文稿的标题文本。[0084]在本实施例中,基于gpt模型进行预训练和微调。此时,模型尺寸选择15亿参数,利用megatron-lm的实现分布式的训练模型。数据集可以选用中文数据集,比如webqa、wiki、xquad、dureaderdataset等数据集,数据集的大小在20g以上。之后将每一个样本处理成{“text”:ꢀ“主题\n\n主题内容”}的格式。然后输入到gpt模型中进行充分的预训练,直到loss曲线收敛到1以下则停止模型的预训练。接下来基于训练充分的预训练模型进行模型有监督的微调,微调部分也同样选择megatron-lm的实现方式,只不过数据集要处理为{“主题”:“标题1”\n\n“标题2”\n\n“标题3”…“标题n”}其中标题n表示演示文稿第n个部分的标题。当微调部分的模型loss曲线收敛后,将“安全用电”主题输入到标题微调模块中,最终输出演示文稿的标题文本为“安全用电的重要意义”,“触电事故的案例及分类”,“安全用电有效的预防措施”,“安全用电的宣传”。[0085]在具体实施中,对于所述标题生成模型,同样也可以选用llama,chatglm,bert,firefly等语言大模型,不同开源大模型的预训练和微调方式会有所不同,可依据对应的任务选择不同的微调和预训练方式。比如对于chatglm,可以借鉴开源项目中githubꢀ‑ꢀthudm/chatglm-6b:chatglm-6b:anopenbilingualdialoguelanguagemodel|开源双语对话语言模型提到的模型微调方式,chatglm模型基于p-tuningv2的微调。p-tuningv2将需要微调的参数量减少到原来的0.1%,再通过模型量化、显存优化等方法对模型进行微调。如果需要进行全参数的微调,需要安装deepspeed工具进行模型的微调。[0086]所述内容生成模型用于根据所述二级标题,生成每个二级标题下对应的内容文本。[0087]具体地,基于标题生成模型中已经预训练充分的模型进行进一步微调。微调的步骤和标题生成模块中的微调方案一致,不过需要对数据集进行替换,在该部分选用问答数据集(可通过自行搜集数据构建或下载开源数据集得到),格式为{“标题1”:“标题1的内容”},{“标题2”:“标题2的内容”}…{“标题n”:“标题n的内容”}。将此作为输入,以训练充分的预训练模型为底座进行微调,直至模型收敛,输出标题微调模型。[0088]依次将标题生成模块中,推理生成的标题输入到训练充分的微调模型中进行推理,生成各个标题下的文字内容。[0089]在本实施例中,基于已经训练充分的15亿参数的gpt模型进行进一步微调。微调的步骤和标题生成模块中的微调方案一致,不过需要对数据集进行替换,在该部分选用问答数据集,该部分数据集可以选用演示文稿中提取的数据集,处理成数据格式为{“标题1”:“标题1的内容”},{“标题2”:“标题2的内容”}…{“标题n”:“标题n的内容”}。将此作为输入,以训练充分的预训练模型为底座进行微调,直至模型收敛,输出标题微调模型。依次将“安全用电的重要性”、“触电事故的分类”、“安全用电的预防措施”、“安全用电的八大原则”输入到训练充分的微调模型中进行推理,生成各个标题下的文字内容:[0090]{“安全用电的重要性”:“安全用电是指在使用电器时,要遵守安全用电的规定,以防止触电、短路、火灾等事故的发生。安全用电不仅可以保护人们的生命安全,还可以保护财产安全,减少不必要的损失。”}[0091]{“触电事故的分类”:“轻度触电事故:触电电流小于10ma;可能有感知和不自主的肌肉收缩,手摆脱电极已感到困难,人体各个关节有疼痛感,可以自行摆脱带电体。\n\n中度触电事故:触电电流在50毫安以下,达到人体的忍耐极限,如不及时抢救有生命危险。\n\n重度触电事故:大于等于100ma;可能发生病理生理学效应,心搏停止、呼吸停止以及烧伤和其他细胞损坏,三秒钟后心脏开始麻痹,停止跳动。”}[0092]{“安全用电的预防措施”:“宿舍内不私拉电线,不将插排放到床头或者固定到床架上。\n\n不购买使用廉价劣质插排,学会区分辨别优质劣质区别。\n\n不私自使用电热锅、热得快、电磁炉等大功率用电器。\n\n不经常使用的电器要及时断电。\n\n定期断电清理插排上灰尘,切记不要使用湿抹布擦拭,可使用干抹布或者蘸酒精擦拭晾干后使用。\n\n定期断电清理插排上灰尘,切记不要使用湿抹布擦拭,可使用干抹布或者蘸酒精擦拭晾干后使用”}[0093]{“安全用电的八大原则”:“一是牢固掌握安全用电常识。\n\n二是严格遵守用电设备操作规程。\n\n三是搞好安全用电的隐患排查。\n\n四是建立健全安全用电责任制。\n\n五是建立有效的管理体系。\n\n六是组织安全用电检查。\n\n七是组织安全用电教育。\n\n八是组织安全用电经验交流”}[0094]在s12的具体实施中,将所述文字内容划分成不同部分,将每个部分作为一页演示文稿,对除了首页和目录页以外的其他页进行关键词提取;[0095]步骤s121:整合文本生成模块的输出,将用户输入的主题作为演示文稿的标题,对每个二级标题按顺序排列作为演示文稿的目录,生成的二级标题作为演示文稿每页的标题;[0096]具体地,按照该划分规则对文本内容进行划分后得到的数据为以下形式:frequency),tf-idf使用词频和逆文档频率来建模文本。tf表示词条在文本中出现的频率:[0113][0114]其中是该词在文件中出现的次数,分母则是文件中所有词汇出现的次数总和。[0115]某一特定词语的idf,可以由总文件数数目除以包含该词语的文件的数目,在将得到的商取对数。表达式为:[0116][0117]其中,为语料库中的文件总数。表示包含词语的文件数目。[0118]tf-idf的表达式为:[0119][0120]基于以上规则,计算每个词的tf-idf值,可以选取tf-idf值排名最大的前2-3个关键词作为提取的关键词。[0121]在本实施例中,依次读取{“标题”:“基于标题生成的内容”}部分,以第一个标题为例,输入{“安全用电的重要性”:“安全用电是指在使用电器时,要遵守安全用电的规定,以防止触电、短路、火灾等事故的发生。安全用电不仅可以保护人们的生命安全,还可以保护财产安全,减少不必要的损失。”},基于tf-tdf关键字提取模型,计算词汇的tf-idf值。最终选择最大的3个关键词为“电器”、“触电”、“火灾”。[0122]在具体实施中,提取关键字的方法还可以利用开源的语言大模型提供的api,比如使用chatgpt、chatglm、firefly、llama均可。调用api的输入为“鱼香肉丝选料精细,成菜色泽红润、富鱼香味,吃起来具有咸甜酸辣兼备的特点,肉丝质地柔滑软嫩。提取这段话的关键字”,api的输出为“鱼香肉丝、色泽红润、质地柔滑”。[0123]在s13的具体实施中,基于提取出的关键词,通过文本生成图像模块生成各页演示文稿对应的配图图像;[0124]具体地,所述文本生成图像模型可以选择调用目前开源的api,比如stable-diffusion,dall-e2等文生图模型。也可以在开源的预训练模型的基础上进行微调训练。该部分,我们只需要将演示文稿中的主题图像对整理成相应模型的输入格式,然后对开源预训练模型进行微调直至模型收敛。然后基于关键词提取模块提取出的2-3关键词依次输入到文生图微调模型中,生成2-3张图像。将生成的图像作为该页演示文稿的配图。至此,演示文稿的配图和文字部分均生成完成。[0125]在本实施例中,同样以第一个标题为例,将关键词“电器”、“触电”、“火灾”输入到stable-diffusion模型的开源api中生成对应的3张图片。[0126]在s14的具体实施中,把划分后的文字内容和对应页的配图图像进行自动排版,得到完整的演示文稿;[0127]具体地,基于生成的文本和图像,使用python-pptx对每一页演示文稿进行排版,最终输出演示文稿。python-pptx是用于创建和更新powerpoint文件的python库。从数据库内容生成自定义的ppt的演示文稿,可以结合web使用,通过单击web应用程序中的链接下载文稿,对演示文稿库进行批量更新。可以用于添加幻灯片,填充文本占位符,添加图像、文本框,添加操作图形、标题、主题属性,流程图等以及在表格中添加幻灯片等等。[0128]由上述实施例可知,本技术基于现有的链路模式开发了新的方案,一方面将文本生成模型生成演示文稿文字内容部分拆成两个部分:演示文稿标题生成模块和演示文稿内容生成模块。对于第一个模块,我们只需要一级主题和二级标题的结构,对于这种结构的数据集均可以利用。第二个模块,可以使用现在开源的问答数据集;另一方面提供了整体的链路模式细节,能够基于一个主题生成整个演示文稿,可以实现高效、准确、个性化的演示文稿制作,不仅可以为用户节省时间和精力,还可以大大提高演示文稿的质量和效果,让用户更好地展示自己的思想和想法;对于自然语言处理领域文本生成任务和多模态领域文本生成图像任务的结合,可以形成很好的落地应用,也对两个领域的快速发展具有重要的理论意义和实用价值。[0129]与前述的演示文稿生成方法的实施例相对应,本技术还提供了演示文稿生成装置的实施例。[0130]图3是根据一示例性实施例示出的一种演示文稿生成装置框图。参照图3,该装置可以包括:[0131]获取模块21,用于获取生成演示文稿的主题,基于预先构建并训练完成的文本生成模块,得到演示文稿的所有文字内容;[0132]关键词提取模块22,用于将所述文字内容划分成不同部分,将每个部分作为一页演示文稿,对除了首页和目录页以外的其他页进行关键词提取;[0133]图像生成模块23,用于基于提取出的关键词,通过文本生成图像模块生成各页演示文稿对应的配图图像;[0134]排版模块24,用于把划分后的文字内容和对应页的配图图像进行自动排版,得到完整的演示文稿。[0135]关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。[0136]对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本技术方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。[0137]相应的,本技术还提供一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述的演示文稿生成方法。如图4所示,为本发明实施例提供的一种演示文稿生成方法所在任意具备数据处理能力的设备的一种硬件结构图,除了图4所示的处理器、内存以及网络接口之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。[0138]相应的,本技术还提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如上述的演示文稿生成方法。所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(smartmediacard,smc)、sd卡、闪存卡(flashcard)等。进一步的,所述计算机可读存储介还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。[0139]本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本技术的其它实施方案。本技术旨在涵盖本技术的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本技术的一般性原理并包括本技术未公开的本
技术领域
:中的公知常识或惯用技术手段。[0140]应当理解的是,本技术并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。当前第1页12当前第1页12
技术特征:
1.一种演示文稿生成方法,其特征在于,包括:获取生成演示文稿的主题,基于预先构建并训练完成的文本生成模块,得到演示文稿的二级标题和每个二级标题下的文字内容;将所述演示文稿的主题、二级标题和每个二级标题下的文字内容结构化得到若干部分,将每个部分作为一页演示文稿,对除了首页和目录页以外的其他页进行关键词提取;基于提取出的关键词,通过文本生成图像模块生成各页演示文稿对应的配图图像;把划分后的文字内容和对应页的配图图像进行自动排版,得到完整的演示文稿。2.根据权利要求1所述的方法,其特征在于,所述文本生成模块包括标题生成模型和内容生成模型,所述标题生成模型用于根据演示文稿的主题生成演示文稿的二级标题,所述内容生成模型用于根据所述二级标题,生成每个二级标题下对应的文字内容。3.根据权利要求2所述的方法,其特征在于,根据用户的实际情况,选择如下方式中的一种来得到演示文稿的二级标题:(1)直接引用用户提供的自设的演示文稿二级标题;(2)基于预设的演示文稿模板,直接将主题加入到各级标题中;(3)获取生成演示文稿的主题,将该主题输入到标题生成模型中,生成演示文稿的二级标题。4.根据权利要求2所述的方法,其特征在于,所述标题生成模型的训练包括预训练阶段和微调阶段:所述预训练阶段的损失函数为,其中为上下文窗口的大小,为条件概率,为模型的超参数,是一个无监督的语料库;所述微调阶段的损失函数为,其中,为带标签的中文样本,由和标签组成,x
i
为c中的中文单词,m为c中的中文单词数量,为权重参数。5.根据权利要求4所述的方法,其特征在于,所述内容生成模型通过对所述预训练阶段后的标题生成模型进行微调得到。6.根据权利要求1所述的方法,其特征在于,将所述演示文稿的主题、二级标题和每个二级标题下的文字内容结构化得到若干部分,将每个部分作为一页演示文稿,对除了首页和目录页以外的其他页进行关键词提取,包括:将所述演示文稿的主题作为演示文稿的标题,对每个二级标题按顺序排列作为演示文稿的目录,生成的二级标题作为演示文稿每页的标题,每个二级标题下的文字内容作为基于对应页的标题生成的内容;构建关键字提取模块,对演示文稿每页的标题和基于该标题生成的内容,进行关键词提取。7.根据权利要求6所述的方法,其特征在于,对演示文稿每页的标题和基于该标题生成的内容,计算每个词的词频-逆向文件频率值,将所述词频-逆向文件频率值最大的若干个
词作为关键词。8.一种演示文稿生成装置,其特征在于,包括:获取模块,用于获取生成演示文稿的主题,基于预先构建并训练完成的文本生成模块,得到演示文稿的所有文字内容;关键词提取模块,用于将所述演示文稿的主题、二级标题和每个二级标题下的文字内容结构化得到若干部分,将每个部分作为一页演示文稿,对除了首页和目录页以外的其他页进行关键词提取;图像生成模块,用于基于提取出的关键词,通过文本生成图像模块生成各页演示文稿对应的配图图像;排版模块,用于把划分后的文字内容和对应页的配图图像进行自动排版,得到完整的演示文稿。9.一种电子设备,其特征在于,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7任一项所述的方法。10.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现如权利要求1-7中任一项所述方法的步骤。

技术总结
本发明公开了一种演示文稿生成方法及装置,该方法包括:获取生成演示文稿的主题,基于预先构建并训练完成的文本生成模块,得到演示文稿的二级标题和每个二级标题下的文字内容;将所述演示文稿的主题、二级标题和每个二级标题下的文字内容结构化得到若干部分,将每个部分作为一页演示文稿,对除了首页和目录页以外的其他页进行关键词提取;基于提取出的关键词,通过文本生成图像模块生成各页演示文稿对应的配图图像;把划分后的文字内容和对应页的配图图像进行自动排版,得到完整的演示文稿。得到完整的演示文稿。得到完整的演示文稿。


技术研发人员:张丽颖 费军波 张云云 张莹 程稳 李勇 陈光 曾令仿
受保护的技术使用者:之江实验室
技术研发日:2023.07.06
技术公布日:2023/8/13
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐