一、数据字典描述语言的研究与设计(论文文献综述)
罗薇[1](2021)在《《汉语官话语法试编》研究》文中研究表明《汉语官话语法试编》是俄国历史上第一部正式出版的、专为高等教育编写的汉语语法教科书。在当时的社会背景下,该书既是一部实用的汉语教材,也是一部传承俄罗斯汉学研究传统、充分吸收以往欧洲人汉语学习与研究成就的集大成之作,同时也是较早以普通语言学理论解释汉语的学术着作。本文将以1902年首版为基础,结合施密特个人档案、拉脱维亚大学所藏施密特个人藏书中的相关资料,从成书的历史背景、俄罗斯人的汉语学习与研究传统、欧洲人学习汉语的历史、世界语言学史以及俄罗斯汉语教育史的角度挖掘该书的特点和价值。该书写作的主要基础来源于俄罗斯人研究与学习汉语的传统。得益于作者施密特在彼得堡大学所受的东方学专业训练,俄国汉学、尤其是彼得堡大学汉学学派汉语教学的传统、以及俄国人的语言研究传统对施密特写作《汉语官话语法试编》产生了深刻影响。首先,在俄国汉语研究的强项方面,如语法分析系统、汉字分析法等方面,施密特广泛采纳了前辈学者的观点,并且在传统汉学的基础上提出适应新局势的新的教学思路和方法。此外,对俄国人学习汉语的继承还表现在另一些方面,如:延续俄国汉学研究的传统项目,同时关注汉、满、蒙三语,又根据海参崴东方学院对学生掌握东亚语言的要求增添了日语、朝鲜语以及越南语等语言材料。其次,继承彼得堡学派对中国历史语言文化的基本观点,认为包括汉语在内的中国文化与世界其他地区文化一样,可以通过一般方法被科学地认识、研究,汉语并非是某些欧洲汉学家认为的“停滞不前”的、处于其原始状态的一种低级语言,而是具有与其文化相关的理据性,需要理性地认识。再次,彼得堡汉学学派注重积累史实材料,在研究汉语时,施密特大量收集、引用丰富的语言材料和例证,这也是施密特作为瓦西里耶夫弟子最突出的传承特点之一。俄罗斯人早期对汉语的认识主要来源于驻北京东正教使团成员论着和西方人的汉语教材,另外还有大量从中国运回的中文原典。俄罗斯人对汉语的认知从一开始就具有三方面的视野,他们既传承本国人的研究,又善于参考西方、中国的研究和学习资料。一方面,该书吸收了当时欧洲和中国学术界对汉语的最新研究成果,是一部在系统、科学的文献综述基础之上的学术着作,对欧洲其他汉学家的观点、成果和语言材料进行整合,从中得出更进一步的观点,从而成为外国人汉语教材编着史发展到19、20世纪之交时具有综述性、整合性的一部着作。另一方面,《汉语官话语法试编》中对欧洲人汉语学习资料的运用还在于对其中收集的语言材料进行分类、精选,找到最适合编入该书的范例。最后,《汉语官话语法试编》的特点还在于将以往欧洲汉学家、语言学家的资料,利用科学的分析方法将之整合纳入他的语法系统中—一汉语实用语法系统是作者要着重教授的内容,也是这部教材相比于一些欧洲汉学家语料搜集式的汉语教科书更具优势之处。《汉语官话语法试编》一书并非只有零散的语法点汇集,而是强调汉语语法规则的整合归纳,并且首次在俄语语境下构建一套新的汉语实用语法体系。是明清时期以来外国人对汉语语法科学研究史的发展到一定程度的继往开来之作,也是20世纪以后国际学界的现代汉语研究往纵深方向开拓的重要前提,具有较高的研究意义。从欧洲语言学史和俄罗斯语言学史的发展脉络来看,到19世纪末,欧洲和俄国语言学经过了多年的方法和材料积累,在历史比较语言学领域取得了重大突破,同时,普通语言学的观念已经为学界所接受,这些思想对这一时期包括施密特在内的俄国语言工作者也产生了深远影响,普通语言学的新思想在外语教材编纂方面的应用也具有重大意义。从语言学研究的角度看,《汉语官话语法试编》是俄国汉学史上第一次尝试运用现代语言学理论研究汉语的语法着作。一方面来说,以汉语为参照、拓宽了普通语言学和历史语言学的研究路径和研究范围,反过来说,也从西方语言学的新成果出发丰富了汉语研究的方法论。从语言本身的发展来看,这一时期的汉语内部也发生了重要变化,随着清末社会大变革,越来越多的新词日渐成为时尚,北方官话口语日益成为最重要的中外交往标准语,白话文运动已在酝酿之中;另一股不可忽视的影响因素来自西欧语言学的发展——经过19世纪的发展,欧洲历史比较语言学和普通语言学的观念已深入人心。该书可以看作是一部汉语史研究与汉语实践语法研究相结合的产物,书中证实了运用产生于印欧诸语言框架下的历史比较语言学、普通语言学方法在汉语研究中的可能性与可行性。通过对本书的研究,可以从“他者”的角度审视汉语对普通语言学理论和方法论的贡献,挖掘汉语对历史语言学及普通语言学研究的补充意义,加深历史语言学和普通语言学观念下对汉语及其历史演变的认识。最后,《汉语官话语法试编》的出版使用对19、20世纪之交俄国以培养实用人才为目的的汉语教育具有重要意义。作为语言实践教材,为了使学生便于理解规则、掌握用法,作者不仅善于描写语法规则时在抽象化的基础上进行具体化表述,注重使用条件、搭配对象、适用范围、特例等方面的考察,力求使语法规则呈现出严谨、易懂、实用的特色,同时还配有大量精选范例。此外,教材的内容还间接地反映了俄国的教育政策、教育历史,海参崴东方学院的教育目的、教育制度、汉语课程大纲、教学目标,施密特本人的教学思想等。因此,教材的内容折射出这一时期俄国汉语教育史的特征,在一定程度上反映了发生在特定历史时期内(即19、20世纪之交)、特定教育场所中(即海参崴东方学院)、特定教育者(即施密特)主导下、针对特定学习者群体(即就读于海参崴东方学院的大学生、军官和少量其他社会人士)的教育活动的历史进程。总之,俄国汉学家施密特专为海参崴东方学院的汉语学习者编写、并于1902年出版的《汉语官话语法试编》一书,既继承了俄罗斯汉学、尤其是彼得堡大学学派既往的已有研究成果和研究传统,采用了俄国人头脑中相对成熟的俄语语法框架基础,又能放眼世界,有所取舍地借鉴当时流传范围较广、影响较大的其他国家汉学家所着的汉语教材,另外还成功运用最新的俄国和欧洲历史比较语言学、普通语言学研究方法论,以及截止到清末时期的中国传统语言学成就来科学地描写汉语,是俄国汉语教育史上具有转折意义的一部语法教科书。本文将结合教材原着及其他相关文献资料,梳理本书的编写特点及研究成果,全面考察这部着作的重要作用及价值。
郑欣[2](2021)在《基于图卷积网络的片上系统软硬件协同设计研究》文中研究表明随着嵌入式系统的规模越来越大,片上系统(SoC)的设计复杂度也越来越高。自20世纪80年代以来,软硬件协同设计已经发展成为一种新的SoC设计方法学,经过几代的发展,SoC设计逐步向全自动化流程方向发展。软硬件划分是软硬件协同设计中的关键步骤,它可以显着缩短SoC设计的时间,提高嵌入式系统的性能。但对于大规模系统来说,大多数相关研究提出的软硬件划分方案具有搜索时间长、划分结果质量不高等问题。在信息安全领域,数字签名SoC系统在保障用户数据安全方面起着重要的作用,数字签名系统软硬件划分的实现仍依赖于工程师的经验,且硬件设计完成后才开始软件设计,这将使得系统开发周期变长,设计效率低。现有的SoC软硬件协同设计没有形成完备统一的验证流程,使得验证过程繁琐,验证效率低。针对以上问题,本文首先研究了基于迁移学习和字典学习的任务分类问题,从图分类的角度作为切入点,再扩展到结点分类,最后到软硬件划分问题的研究,设计了两种不同的分类模型。其次,根据设计需求搭建SoC系统架构,并提出了一种基于图卷积网络的高效软硬件划分和调度方法—GCPS,在满足系统硬件约束的前提下,最大化资源利用率,寻找最优的软硬件划分方案,并进行系统的快速软硬件划分。在此基础上,基于任务静态优先级设计任务调度算法完成系统的调度并回馈给划分模型,进一步提高系统的效率和并行性。最终将GCPS模型应用于数字签名系统中,实现数字签名系统的SoC软硬件协同设计和验证。本文的创新点和主要研究工作包括以下几个方面:(1)针对传统机器学习方法在大规模系统中分类效率低的问题,本文首先研究了基于迁移学习的任务分类问题,并设计基于迁移学习和字典学习的DMTTL模型,通过迁移学习和并行执行的特性,提升了系统的分类性能和运行效率。另一方面,进一步对具有图结构数据的任务进行分类,设计了一种基于多视角字典学习的图模型,其分类效果优于大部分最新的图分类模型。通过引入多视角,GMADL模型扩展性强,可以将GMADL模型应用于结点分类问题,故本文对GMADL模型进行了改进,提出了 NMADL结点分类模型,并进行了验证与分析,研究该模型在软硬件划分问题上的可行性,同时为后续工作提供了必要的理论和实验支撑。(2)针对大规模系统设计复杂度高,软硬件划分速度慢等问题,本文基于图卷积网络(GCN),设计了一种适用于大规模系统的快速软硬件划分方法——GCPS。GCN可以有效地处理图结构数据,并聚合邻居结点的特征来生成新的结点表示。该算法能够快速收敛,有效地实现结点分类。本文研究的划分问题可以描述为在硬件面积约束下最小化所有任务的执行时间的优化问题。可以利用GCN和梯度下降的方法来求解该优化问题,实现高效的系统软硬件划分,尤其针对于大规模系统而言,该方法与传统启发式算法相比效率更高。(3)为了进一步提高软硬件划分的性能和通过并行化减少系统的执行时间,在实现软硬件划分后对系统进行任务调度,设计任务调度算法。通过计算每个结点的静态优先级,设计基于静态优先级的表调度算法实现任务调度和量化软硬件划分的质量,进一步缩短执行时间。从而在满足系统约束条件下最小化任务调度时间和最大化硬件资源利用率,对系统任务图实现最优的调度。(4)为了进一步增强数字签名系统的安全性,本文针对ECDSA算法进行改进,在明文的预处理阶段设计防护手段,实现了高安全的数字签名片上系统的软硬件协同设计。在完成系统任务图的构建、系统软硬件划分和调度后,针对数字签名系统应用,本文采用了 SoC软硬件协同设计技术。首先,将GCPS模型应用于数字签名系统的软硬件划分过程。其次,实现系统的软件设计、硬件设计和接口设计,并通过软硬件协同设计方法进行软硬件综合,采用C/C++和Verilog编程语言实现ECDSA数字签名验签。(5)针对SoC软硬件协同验证效率低、流程不统一等问题,构建协同仿真验证平台,通过设计PLI/VPI共享接口实现测试向量和输入数据的共享,并且由高级语言模型随机产生测试向量,提高系统验证效率。研究完备统一的SoC软硬件协同验证流程,对系统设计的验证可以达到实时比特级验证,并实时反馈软硬件协同设计过程中存在的问题,一体化的验证平台提高了系统的验证效率。
路丽[3](2021)在《基于云服务平台的数据知识资源管理系统的设计与开发》文中进行了进一步梳理当今时代,以信息技术为核心的数字化工作模式日益盛行,各企业单位也紧随潮流不断创新,而传统资源管理方式具有不便共享、不便查阅、不便管理及易丢失等问题,所以线上智能知识资源管理需求应运而生。本文设计的基于云服务平台的数据知识资源管理系统,不仅解决了传统方式存在的问题,而且保障了企业知识的内部共享,提供了一个便捷、有效的资源管理平台。本文主要研究内容分为资源推荐、搜索引擎实现、手写笔记识别以及同步消息反馈四个方面:(1)针对不便共享问题,本文将基于用户的协同过滤推荐算法和基于内容的推荐算法相结合,实现兴趣资源的推荐。先根据系统用户的日志记录和对应记录的关注度,计算用户可能感兴趣的资源信息,再结合基于内容的推荐算法,补全推荐。其中基于用户的协同过滤推荐算法采用皮尔逊(Pearson)相似度计算方法,使预测结果比传统计算方法更加准确,基于内容的推荐算法采用同类型资源相关度更高的推荐原则。采用上传资源占据资源关注度的方式,可有效解决“物品冷启动”问题。此外,根据基于流行度的推荐算法,提供热度资源推荐服务。(2)针对不便查阅问题,本文以系统知识资源为数据源,基于云服务平台实现搜索引擎。通过数据处理和分发系统Apache Ni Fi获取数据库资源信息及对应文档,转码后推送至云服务平台。在云平台利用搜索服务器Elasticsearch建立索引,配合文档抽取插件Ingest-Attachment实现文本预处理,并配合分词器IK Analyzer指定搜索字段的分词类型。使用汉语言处理(Han Language Processing,Han LP)包对用户输入的内容做去停用词处理,最终实现全文检索。(3)针对管理困难问题,本文加入手写笔记识别,以协助用户管理个人资源。本文采用了百度文字识别处理技术,其中,首先使用百度试卷与分析接口定位笔记图中的表格区域并裁剪保存,记录表格相关信息,之后使用百度手写文字识别接口识别笔记图并处理识别结果。当处理的结果信息在表格区域外时,直接将文字识别结果写入结果文档,在表格区域内时,使用百度表格文字识别接口识别表格并将识别结果写入文档。多图识别利用模板记录历史内容的方式实现,文档处理采用文档处理接口Apache POI实现。(4)针对管理者无法及时传达指令问题,本文采用通信协议WebSocket实现公告消息的实时提醒,即同步消息反馈,便于客户端和服务器之间的无障碍消息互传。使用心跳检测及重连机制可以确保客户端和服务器处于及时通信状态,能够将公告通知数据及时推送给在线用户。通过对以上重点内容的研究,本文实现了一个智能知识资源管理系统,可有效避免资源易丢失的问题。
张骁[4](2021)在《基于胶囊网络的文本摘要生成技术研究》文中研究说明在深度学习技术快速发展的今天,现有的文本摘要技术也因此受益,处于蓬勃发展期。但是生成式文本摘要技术发展至今,依旧存在着句子冗余/错漏,内容覆盖主题不足,句子流畅度不高以及训练效率低下且难以部署的问题。本文根据对生成式文本摘要技术的研究,结合现有前沿技术,由此分析、设计并实现了胶囊-注意力指针模型,在该算法的基础之上,完成了相应的文本摘要高并发微服务复合架构的设计与实现。本文的结构以及具体工作如下:(1)针对于内容覆盖主题不足以及句子流畅度不高的问题,本文基于注意力机制从字的角度出发,更细粒度的结合注意力机制研究海量文本的语法以及语义结构。针对算法的语义结构部分,引入胶囊网络,通过对单字文本标量进行重组组成向量,采用胶囊跃迁的形式,从而概括一个字的表征。此外,本文提出了全新的路由函数π-Squash,从而能够更好的从稀疏矩阵中更好的学习到关键的文本信息。(2)对于句子冗余或者错漏,本文所述算法还引入了指针机制以及覆盖机制,从而能够有效去除重复信息,从源文本进行摘要数据的学习。结合了注意力胶囊网络后的算法不仅考虑了不同语种之间的语法语义的区别,还根据原文含义从而生成全新的句子,此外结合相应的同义词、近义词场景,也能够驾轻就熟的进行摘要输出,解决了注意力机制下由于词场景变换,所造成的注意力偏移。(3)对于训练效率部分,此外本文也设计并实现了基于参数共享概念的注意力胶囊网络,从而减少模型的训练参数。结合胶囊机制的向量特征,进一步压缩字的表征空间,减少计算空间的浪费,从而提高训练效率。本文基于现有的中英文数据集进行了相应的对比实验,结合ROUGE评分结果可知,本算法所生成的摘要内容更符合人类的语言描述习惯。整个算法在现有的数据集上都有相对不错的表现。从训练效率来看,该算法虽然需要大量的参数进行训练,但是相应的本算法的总训练时长远远短于RNN类算法,参数数量也远远小于BERT。从实验结果来看,结合多方面来考虑,本文所提出的胶囊-注意力指针模型具有一定的先进性,本文的工作具有一定的实践意义以及设计意义。最后,本文基于CAP理论,设计并实现了相应算法的微服务复合架构,考虑在并发场景下,提供服务接口的同步调用和异步调用,保障服务的高可用和强一致性,完成了相应的设计思路陈述以及实验过程,并且对相应的成果进行功能展示。
鲍阳,杨志斌,杨永强,谢健,周勇,岳涛,黄志球,郭鹏[5](2021)在《基于限定中文自然语言需求的SysML模型自动生成方法》文中研究指明模型驱动开发方法逐渐成为安全关键信息物理融合系统(safety-critical cyber-physical system, SC-CPS)设计与开发的重要手段.然而,安全关键信息物理融合系统需求往往是通过自然语言描述的,如何自动化或半自动化链接自然语言需求和基于模型驱动的系统设计与开发过程是目前面临的重要挑战.面向安全关键信息物理融合系统,提出基于限定中文自然语言需求的SysML模型自动生成方法RNL2SysML.首先,为了降低自然语言需求表达的二义性,提出一种结构化的限定自然语言需求模板进行需求规约,并通过基于人工智能的(AI)安全关键信息物理融合系统术语提取和推荐方法,对系统需求中的领域术语和数据字典加以自动提取,提高限定自然语言需求规约工作的自动化程度.然后,给出限定自然语言需求规约到SysML系统设计模型的转换方法.最后,基于开源工具Papyrus对所提方法进行了原型工具实现,并通过航空领域的飞机空气增压系统(airplane air compressor system)案例验证了方法的有效性和实用性.
闫倩倩[6](2021)在《轨道交通控制软件的基于场景的需求分析方法》文中认为城市轨道交通在人们的日常生活中扮演着越来越重要的角色,人们对它的安全性和可靠性要求也越来越严格。列车自动防护系统ATP(Automatic Train Protection)在整个城市轨道交通系统中负责保证系统的安全,在列车运行过程中,ATP通过和轨旁设备、车载设备交互信息,监控列车速度,确定列车是否超能,并决定是否对列车进行制动处理,如果处理不当,可能会危及生命。对这类安全攸关软件来说,如果能在需求分析阶段从源头保证系统的正确性,则会节省大量时间和资源。对车辆工程师来说,他们更关心需求有没有正确的描述所期望的场景。因此,本文提出了一种基于物理场景的需求分析方法,该方法通过在需求模型中执行列车场景,动态检查ATP系统的需求正确性。本文的主要内容如下:演化式需求建模:本文首先根据ATP系统需求的特点,使用演化式建模方法构建形式化的需求规范。首先确定需求非形式化的自然语言描述;然后确定每条需求的数据结构、输入输出等信息,即半形式化描述语言;最后把半形式化语言中的“前置-后置”条件转化为形式化描述,得到最终的形式化描述即需求规范。解决了由于领域专家缺乏形式化方法的相关技术和研究人员缺乏领域专业知识而无法准确的描述系统需求的问题,保证需求规范精确的描述了系统功能。场景描述及分析检查:为了能在需求分析阶段动态监测系统需求,本文使用CASSL(CASco Scenario Language2)描述列车场景。CASSL中共包括场景字典、场景动作和变量赋值三部分。其中场景字典为测试人员撰写场景提供了便利,场景动作描述了列车的运行过程,变量赋值部分表示列车运行过程中的相关变量的取值,为场景执行提供了条件。并且为了保证物理场景本身的合理性,避免出现有违常理的错误,我们对场景进行了分析检查。场景的优化生成:确定场景描述规则后,测试人员可以根据语法规则手动书写列车场景和预期输出,通过比较预期输出和场景执行结果验证需求正确性。但手动书写场景效率低下,覆盖率也较低,因此针对这些问题我们对场景进行了优化。本文从特殊变量场景、效率、场景质量三方面优化列车场景,更充分、严格的验证需求正确性,提高了测试效率。
薛翌[7](2020)在《智能对话式软件帮助系统的开发平台研究及在设计中应用》文中进行了进一步梳理随着人工智能理论和技术的飞速进步,各界对人工智能的关注度持续提升。同时,软件技术也在驱动着包括仪器仪表在内的各领域的进步,软件系统已成为大多数产品不可或缺的一部分。但软件系统功能的逐渐增多,引发了软件使用难、使用率低等问题,因此,将人工智能技术融合在软件使用帮助过程中不仅提升软件帮助水平,而且助力行业快速发展。本文在分析软件帮助系统、人机对话系统的研究现状之后,提出了一种基于软件实景的省略歧义处理模型,进而构建了实景智能对话式软件帮助系统的开发平台。主要包括基于软件实景的开发和对话帮助两个过程。首先,针对开发过程,结合HOOK技术设计并实现了软件实景获取的方法;生成了软件实景字典,包括建立了基于树形结构的软件功能按钮位置关系的描述形式;为自动生成“问题-答案对”定义了软件实景互动的生成模板;构建了相关知识的概念从属树,从而初步建立领域知识库,以便在对话帮助过程中准确理解意图。其次,对于对话帮助过程,结合知识库以及基于深度学习的BERT语言模型,建立了基于软件实景的对话省略歧义处理模型,其中,实景包括软件实际运行环境、对话上下文和知识。在此过程中,定义了特征重要度、语义映射权重、实景映射权重;提出了适合本研究的文本相似度计算方法,以便计算用户输入自然语言与软件实景字典中对应特征组合的匹配程度;接着,提出了对语义解析及排序的方法,从而确定出相对最优的自然语言理解结果,为用户提供相应帮助。最后,将实景智能对话式软件帮助系统的开发平台应用于虚拟仪器设计中,针对LabVIEW软件开发出一个实景智能对话式帮助原型系统,使其在准确理解用户需求的基础上提供有关该软件功能按钮查找、了解、操作意图对应的帮助,提升用户体验及满意度。
能飏[8](2020)在《基于XML的通用通信协议测试工具的开发与实现》文中研究指明通信协议是通信系统中各通信终端实体之间进行信息交流时应遵循的基本准则。通信协议标准的规范化,以及各种业务基于规范化协议的正确实施,是互联网通信发展的基本条件。通信设备商也需要在准确理解各种通信协议的基础上,正确实现满足相应协议标准的通信实体,并进一步实现不同厂商通信设备的互连互通。协议一致性测试用于验证同一协议的不同厂商通信设备之间是否能够正确交互通信。现有的协议一致性测试系统要么只能对某种具体协议进行一致性测试,要么因为操作困难、价格昂贵且不开源而难以流行。本文基于XML语言,设计出操作简单且通用的通信协议一致性测试系统。在深入学习和归纳总结不同类型通信协议基本特点的基础上,本文首先设计了通信协议数据报文格式的一般描述方法,其由主体描述文件和Note注释文件两部分组成。主体描述文件和Note注释文件可以完整地描述通信协议数据报文格式的一般特征,且其结构清晰易懂。然后设计了同步交互逻辑的一般描述方法,采用层次化结构描述一致性测试集合。一致性测试集合分为3个层次,每一层都对应一个拥有不同通用属性和元素的XML文件。通过对协议进行状态迁移提取和功能划分,将三层XML描述文件整合成完整的一致性测试集合,且其结构清晰,便于测试人员掌握。最后完成对通用通信协议一致性测试系统的整体组织架构设计和实现,并使用本系统对BGP4协议和FTP协议进行了一致性测试。
徐流畅[9](2020)在《预训练深度学习架构下的语义地址匹配与语义空间融合模型研究》文中提出随着我国数字城市与智慧城市建设的不断开展,地址信息作为战略性的基础地理信息及空间数据资源,在人们日常生活中的作用愈发重要,而且在国家的经济建设、文化发展和社会管理等多方面也起到相当关键的作用。在各行各业的基于位置服务的大数据应用需求驱动下,我国各相关部门采集和积累了海量异构的地址数据。然而由于我国地址规范标准不统一以及人工采集与管理秩序的混乱,导致地址信息的解析和理解成为一大难题,也极大地限制了其在各个领域内的应用。因此,有必要从认知地址文本信息和理解地址语义知识的角度出发以形成地址语义模型,让其深入挖掘地址信息的语义特征内涵并适用于计算机的高性能运算。此外,地址特有的寻址属性使得理解和融合其语义与空间信息具有重要的理论价值和实践意义,也是当前的学术热点。针对现有的地址模型研究中所存在的语义信息表达不完善、信息智能化应用不充分以及相关任务场景泛化性弱的困境,本文利用了深度神经网络中的注意力机制及“预训练-微调”模式,将地址语义理解、语义地址匹配和空间语义融合等关联度较大的任务转为可计算的深度神经网络模型的搭建和优化问题。针对地址文本语料的特性,采用自监督学习构建深度学习架构以形成地址语义模型来支持各地址相关任务。在此基础上,通过生成有监督的匹配数据集对模型进行微调,让模型针对性地识别地址间的语义相似性并实现高精度的地址匹配任务。同时考虑到地址特有的空间属性,设计了一套遵循空间相似度规则的数据集并通过对地址语义模型的微调将空间距离与地址语义进行深度关联融合。本研究系统性地构建了语义认知理解-地址高效精确匹配-空间语义深度融合-下游应用任务验证评价的中文地址理论体系和方法架构,以百万量级的位于浙江省杭州市上城区的地址语料库为实验数据对设计的方法架构进行测试、验证和应用。本文的研究内容概况如下:(1)构建了一套以广义的自回归预训练方法为核心的深度神经网络结构下的地址语义模型来实现地址语义信息的自动获取,并将“预训练-微调”模式引入地址研究中。考虑到地址中每个字符间的相互影响和双向上下文语序关系,提出了一套以排列组合式未知字符预测为目标的地址语义模型,并利用目标位置感知的双轨自注意力结构解决建模中的目标位置信息缺失问题,最终设计了具有自学习能力并且能够提供各相关应用迁移学习能力的新型深度神经网络。实验结果表明其实现了海量多源异构地址数据集的语义信息理解和表征,为基于该模型的后续应用任务研究的优秀表现夯实了基础。(2)设计并实现了基于地址语义模型微调后的语义地址匹配建模方法。受文本蕴含及文本复述理论启发,以空间位置信息为推理条件构建带标签的有监督地址对数据集,建立了一种用于有效地址匹配任务的深度神经网络架构和训练框架。以构建的语义地址匹配数据集为对象开展实验,其结果证明了该工作能有效地解决地址匹配中存在的冗余,不完整或异常表达等情况,具有“高精度轻流程”的表现。证明了所设计模型可在弱监督训练数据下维持高水准表现。论证了“先自监督预训练-后有监督微调”的两阶段范式能极大地提高任务的准确率和有效性。(3)提出了新颖的地址语义-空间深度融合理论设计,对地址的语义-空间特征研究实现了从过去的“物理结合”到本研究中的“深度融合”的转变。构建了将空间位置信息与地址语义信息相融合的训练数据集,并在地址语义模型的基础上,通过对回归任务的微调训练搭建了语义-空间融合模型。实现了可被计算机理解的包含地址特有的寻址属性的地址表征,并设置了地址空间位置预测的下游任务以评价深度融合效果。该实验数据为地址语料及其对应的空间坐标,实验结果表明本研究设计的模型在该下游任务中相比前人的模型总有最佳表现,极大地提高了空间位置预测任务的精度。证明了所设计模型能够深度融合地址的语义和空间信息,并支持地址数据空间关联的应用任务。本研究在地址信息智能化、结构化和数值化方面,实现了其理论与建模方法上的创新及突破,解决了由大数据驱动下的地址数据质量低下及数量泛滥问题,提高了地址信息解析和挖掘的操作效率以及迁移学习能力,以推动关于城市地址模型的研究,促进智慧城市空间信息建设和大众化服务体系方法的研究与发展。
邹书怡[10](2020)在《开放政府数据背景下我国政府预算公开的数据标准研究》文中指出随着大数据时代的来临,各个国家的政府相继提出了大数据发展的战略与目标,“开放政府数据”成为各国政府实践和学术研究的热点。在这个用“数据说话”、“数据上网”的信息化时代,标准化数据存在的意义变得十分重要。目前,我国政府预算数据的发布和开放发展较快,但是在已发布的预算数据中存在诸多问题,包括开放的程度没有完全透明化、发布格式为非机器可读、发布的数据缺乏标准规范性等,使得开放出来的政府预算数据多源异构,没有可比较性,降低了开放政府数据的使用率。在此背景下,本文的主要工作有:(1)分析和比较国际上的开放政府预算数据标准方案和应用实践,包括美国政府的DAIMS数据支出标准与XBRL机器可读格式,欧盟的预算词汇表与RDF机器可读格式,巴西的预算本体模型与N-Triples机器可读格式。介绍其数据模型和预算词汇表等要素,分析机器可读格式等开放特点,提炼出我国可以借鉴的经验和做法。(2)调查我国政府预算数据的发布情况,评估其开放程度。为了解决原始预算数据存在的诸多问题,设计一套符合我国国情的政府预算数据标准方案。在此过程中,定义了政府预算专有的词汇,即数据字典;遵循本体的可复用原则,引入了本体机制并构建了预算本体,给出RDF形式化编码,充分发挥了本体特有的领域性、规范性、形式化和互操作性等优势特性。(3)根据制定的预算数据标准框架完成关联预算数据的构建与发布,实现了原始预算数据向关联预算转换的进阶过程。除了实现Tim Berners-Lee提出的关联预算5星标准模型推荐的步骤外,还将原始预算数据与实践了数据标准的预算数据进行对比分析,验证了政府预算数据标准构建的意义。(4)以贵阳市为例,选取政府预算的原始数据,构建关联预算数据实例。建立数据到本体模型中类和属性的映射,采用Protege工具生成RDF/XML格式实例数据并对其进行验证,使用SPARQL语言查询预算数据,为关联预算数据的发布打下基础。本文的研究工作旨在设计一套符合我国国情的标准化开放政府预算数据并应用关联数据技术,为我国政府进一步推进开放政府预算数据的行动提供切实可行的方案,也为其他领域的开放政府数据实践提供了借鉴和参考。
二、数据字典描述语言的研究与设计(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、数据字典描述语言的研究与设计(论文提纲范文)
(1)《汉语官话语法试编》研究(论文提纲范文)
摘要 |
Abstract |
绪论 |
一、选题缘起及意义 |
二、相关研究综述 |
三、研究方法与思路 |
第一章 《汉语官话语法试编》的历史背景及其作者 |
1.1 海参崴东方学院及其培养目标 |
1.1.1 办学背景 |
1.1.2 学院设置 |
1.2 《汉语官话语法试编》的作者施密特 |
1.2.1 施密特的早年求学、实习生涯 |
1.2.2 赴海参崴东方学院任教后的汉学研究 |
1.3 教材的学习者与使用情况 |
1.3.1 教材的出版、使用、影响 |
1.3.2 学员的汉语学习情况 |
1.4 本章小结 |
第二章 俄国传统汉学背景下的《汉语官话语法试编》 |
2.1 《汉语官话语法试编》的汉语语音系统考辨 |
2.1.1 南北官话的语音系统、汉语音韵研究 |
2.1.2 《汉语官话语法试编》的注音方案 |
2.1.3 《汉语官话语法试编》的汉语发音规则 |
2.2 《汉语官话语法试编》对比丘林汉语语法体系的突破 |
2.2.1 《汉语官话语法试编》的词法体系 |
2.2.2 《汉语官话语法试编》的句法体系 |
2.3 施密特对比丘林、瓦西里耶夫等人汉字理论的发展 |
2.3.1 汉字的起源问题 |
2.3.2 关于汉语口语、书面语的讨论 |
2.3.3 汉字的“六书” |
2.3.4 施密特对瓦西里耶夫汉字体系的增补 |
2.4 《汉语官话语法试编》对满、蒙、日、朝、越等语言的关注 |
2.5 本章小结 |
第三章 世界汉语研究史框架下的《汉语官话语法试编》 |
3.1 例析《汉语官话语法试编》对欧美汉学的反思 |
3.2 以“声调”为例谈施密特对欧美汉语语音研究的整合 |
3.2.1 声调的本质 |
3.2.2 汉语声调的发音特点 |
3.2.3 汉语声调的标调系统 |
3.2.4 汉语方言的声调语音规律 |
3.2.5 中外学者论“汉语声调的演变” |
3.2.6 “入声”之争 |
3.3 施密特对欧美汉语语法研究成果的整理 |
3.3.1 某些语法形式在各地的使用差异 |
3.3.2 各国汉学家对若干语法规则的不同观点 |
3.3.3 欧洲汉学家普遍忽略的汉语语法知识 |
3.4 选编欧美、日本汉语教材及中文原典的书面官话范例 |
3.4.1 筛选范围:标准北方书面官话材料 |
3.4.2 筛选入编:符合语法规范、排列顺序合理 |
3.5 个案研究:德国汉学家阿恩德对施密特的影响 |
3.5.1 阿恩德及其《官话手册》 |
3.5.2 两部教材的总体设计 |
3.5.3 以重音理论为例讨论施密特对阿恩德的取舍 |
3.6 个案研究:《汉语官话语法试编》对中国传统文献的改编 |
3.7 本章小结 |
第四章 世界语言学发展进程中的《汉语官话语法试编》 |
4.1 施密特的汉语观 |
4.1.1 对汉语的两种定位 |
4.1.2 静态与动态、共时与历时 |
4.2 汉语语音史的构建:历史比较语言学与语言类型学的结合 |
4.2.1 汉语语音史研究的基础材料 |
4.2.2 “语音规律无例外”之汉语辅音音变考察 |
4.2.3 “语音规律无例外”之汉语元音音变考察 |
4.2.4 语言史的社会性——汉语官话的形成 |
4.2.5 语言现象的“类推作用”:汉语词根溯源问题 |
4.3 俄国语言学成果在汉语语法研究中的应用 |
4.3.1 用“形式语法”思想分析汉语的词法 |
4.3.2 语言与思维的联系——汉语与中国人的心理 |
4.3.3 波捷布尼亚及其弟子的句法思想 |
4.4 本章小结 |
第五章 从语言教育及应用视角看《汉语官话语法试编》 |
5.1 一部“研究—学习—教学”三位一体的汉语教科书 |
5.2 从课程理论分析《汉语官话语法试编》的材料建构 |
5.2.1 横向组织:课程教学板块的功能分析 |
5.2.2 纵向组织:螺旋渐进的主题序列性 |
5.3 从应用语言学看《汉语官话语法试编》的教学大纲 |
5.3.1 字词大纲及词汇控制 |
5.3.2 语法大纲及翻译训练 |
5.4 本章小结 |
余论 施密特《汉语官话语法试编》的价值和局限性 |
参考文献 |
附录1 《汉语官话语法试编》书影及相关影像资料 |
附录2 《汉语官话语法试编》序言及目录 |
附录3 《汉语官话语法试编》俄语字母注音表(含例字) |
附录4 阿恩德《官话手册》序言及目录 |
致谢 |
(2)基于图卷积网络的片上系统软硬件协同设计研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外相关研究现状 |
1.2.1 SoC软硬件协同设计 |
1.2.2 图卷积网络 |
1.2.3 数字签名密码算法 |
1.3 研究内容与技术路线 |
1.3.1 研究内容 |
1.3.2 技术路线 |
1.4 章节安排 |
1.5 研究创新点 |
第二章 SoC软硬件协同设计和图神经网络 |
2.1 片上系统的组成与设计方法学 |
2.1.1 SoC集成模型 |
2.1.2 SoC设计方法学 |
2.2 软硬件协同设计流程 |
2.3 软硬件划分技术研究 |
2.3.1 问题描述及优化目标 |
2.3.2 基于精确算法的软硬件划分技术 |
2.3.3 基于启发式算法的软硬件划分技术 |
2.4 图神经网络架构研究 |
2.4.1 图卷积网络模型 |
2.4.2 GraphSage网络模型 |
2.4.3 图注意力网络模型 |
2.4.4 图神经网络模型对比及分析 |
2.5 本章小结 |
第三章 基于迁移学习和字典学习的任务分类研究 |
3.1 迁移学习与字典学习 |
3.1.1 迁移学习 |
3.1.2 字典学习 |
3.2 基于多任务迁移学习的字典学习模型 |
3.2.1 DMTTL模型描述与设计 |
3.2.2 DMTTL模型优化 |
3.2.3 多线程并行优化学习低维表示 |
3.3 实验结果及分析 |
3.3.1 数据集与对比方法 |
3.3.2 评估指标与参数设定 |
3.3.3 实验结果分析 |
3.4 特征提取与分析字典 |
3.4.1 子图特征提取 |
3.4.2 多视角分析字典 |
3.5 多视角字典学习的分类模型 |
3.5.1 基于PCA和LDA的图数据预处理 |
3.5.2 基于分析字典的特征提取 |
3.5.3 多视角SVM图分类模型构建与优化 |
3.5.4 软硬件划分结点分类模型构建 |
3.6 实验结果及分析 |
3.6.1 数据集与对比方法 |
3.6.2 评估指标与参数设定 |
3.6.3 实验结果与分析 |
3.7 本章小结 |
第四章 基于图卷积网络的软硬件划分模型研究 |
4.1 基于TGFF构建系统任务图 |
4.1.1 系统任务图的存储与表示 |
4.1.2 具有物理意义的任务图属性设定 |
4.1.3 基于TGFF的系统任务图生成 |
4.2 GCN软硬件划分模型设计 |
4.2.1 数据预处理与输入层设计 |
4.2.2 图卷积层设计 |
4.2.3 输出层设计 |
4.3 LSSP任务调度算法设计 |
4.3.1 静态优先级计算 |
4.3.2 任务分配规则设计 |
4.4 GCPS软硬件划分、调度模型设计与优化 |
4.4.1 GCPS模型优化与改进策略 |
4.4.2 预训练及GCPS算法实现 |
4.4.3 GCPS算法应用 |
4.5 实验结果及分析 |
4.5.1 实验平台及设定 |
4.5.2 实验评估指标 |
4.5.3 实验结果与分析 |
4.6 本章小结 |
第五章 数字签名系统的软硬件协同设计研究 |
5.1 基于椭圆曲线的数字签名算法 |
5.1.1 ECC密码算法 |
5.1.2 ECDSA数字签名算法 |
5.2 ECDSA任务模型与系统框架构建分析 |
5.2.1 软硬件划分粒度选择 |
5.2.2 目标体系架构与任务模型设定 |
5.2.3 确定SoC系统架构 |
5.3 数字签名系统的软硬件划分 |
5.3.1 数字签名系统的任务图构建 |
5.3.2 ECDSA软硬件划分与调度 |
5.4 ECDSA SoC软硬件协同设计 |
5.4.1 ECDSA软件设计与优化 |
5.4.2 ECDSA核心硬件设计与优化 |
5.4.3 AHB-Lite总线接口设计 |
5.5 数字签名系统的软硬件协同验证 |
5.5.1 协同仿真验证流程设计 |
5.5.2 仿真工具与数字签名系统协同验证 |
5.6 实验结果及分析 |
5.6.1 实验平台及设定 |
5.6.2 实验评估指标 |
5.6.3 实验结果与分析 |
5.7 本章小结 |
结论与展望 |
参考文献 |
攻读学位期间取得与学位论文相关的成果 |
致谢 |
(3)基于云服务平台的数据知识资源管理系统的设计与开发(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 研究现状及优势 |
1.3 重点研究内容 |
1.4 章节安排 |
第二章 背景知识介绍 |
2.1 推荐算法服务 |
2.1.1 个性化推荐服务工作原理 |
2.1.2 基于用户的协同过滤推荐算法 |
2.1.3 基于内容的推荐算法 |
2.1.4 基于流行度的推荐算法 |
2.2 搜索引擎相关知识 |
2.2.1 云服务平台 |
2.2.2 Elasticsearch特点 |
2.2.3 Apache Ni Fi介绍 |
2.3 文字识别及结果处理技术 |
2.3.1 百度文字识别技术 |
2.3.2 Apache POI特点及优势 |
2.4 同步消息反馈 |
2.4.1 Web Socket通信协议工作原理 |
2.4.2 心跳检测及重连机制 |
第三章 系统需求分析 |
3.1 研究目标 |
3.2 可行性分析 |
3.2.1 技术可行性 |
3.2.2 经济可行性 |
3.3 功能需求分析 |
3.3.1 系统功能需求 |
3.3.2 用户功能需求 |
3.4 非功能性需求分析 |
3.5 本章小结 |
第四章 系统详细设计 |
4.1 系统架构设计 |
4.1.1 研发技术架构 |
4.1.2 系统服务架构 |
4.2 数据库设计 |
4.2.1 用户信息表 |
4.2.2 注销用户表 |
4.2.3 职工信息表 |
4.2.4 资源信息表 |
4.2.5 公告信息表 |
4.2.6 已读公告表 |
4.2.7 日志信息表 |
4.2.8 字典信息表 |
4.2.9 字典项信息表 |
4.2.10 可编辑字典表 |
4.2.11 问题反馈表 |
4.2.12 新闻信息表 |
4.3 功能模块设计 |
4.3.1 权限管控设计 |
4.3.2 用户管理模块设计 |
4.3.3 资源管理模块设计 |
4.3.4 消息通知模块设计 |
4.3.5 系统管理模块设计 |
4.3.6 辅助功能模块设计 |
4.4 本章小结 |
第五章 系统实施及测试 |
5.1 环境搭建及配置 |
5.1.1 研发环境 |
5.1.2 系统服务环境 |
5.2 各模块功能实现 |
5.2.1 权限管控实现 |
5.2.2 用户管理模块实现 |
5.2.3 资源管理模块实现 |
5.2.4 消息通知模块实现 |
5.2.5 系统管理模块实现 |
5.2.6 辅助功能模块实现 |
5.3 主要功能测试 |
5.3.1 用户身份审核测试 |
5.3.2 资源上传测试 |
5.3.3 资源审核测试 |
5.3.4 资源搜索测试 |
5.3.5 资源推荐测试 |
5.3.6 消息通知测试 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
攻读硕士学位期间学术成果 |
攻读硕士学位期间参加的科研项目 |
致谢 |
(4)基于胶囊网络的文本摘要生成技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 国内外研究现状 |
1.2.1 文本摘要技术发展现状 |
1.2.2 胶囊网络技术发展现状 |
1.2.3 注意力机制发展现状 |
1.3 本文的研究内容以及具体工作 |
1.4 本论文的结构安排 |
第二章 理论基础分析与总体设计 |
2.1 文本预处理 |
2.1.1 分句处理 |
2.1.2 语句切割处理 |
2.1.3 字过滤 |
2.1.4 文本表示 |
2.2 编码器-解码器架构 |
2.2.1 注意力机制 |
2.2.2 指针机制 |
2.2.3 胶囊网络 |
2.3 评价指标 |
2.4 本章小结 |
第三章 生成式文本摘要技术研究 |
3.1 符号说明 |
3.2 语料库的分析和预处理 |
3.2.1 数据集选取 |
3.2.2 数据集预处理 |
3.2.3 数据集分析 |
3.3 胶囊-注意力指针模型 |
3.3.1 文本表示 |
3.3.2 编码器 |
3.3.3 解码器 |
3.3.4 指针机制 |
3.4 本章小结 |
第四章 模型仿真结果与分析 |
4.1 实验说明 |
4.2 模型参数 |
4.3 实验结果与分析 |
4.4 本章小结 |
第五章 摘要生成微服务架构的设计与实现 |
5.1 系统架构设计 |
5.1.1 微服务系统架构设计原理 |
5.1.2 系统模块设计 |
5.2 系统架构实现 |
5.2.1 系统实现 |
5.2.2 调用实现 |
5.3 本章小结 |
第六章 全文总结与展望 |
6.1 全文总结 |
6.2 后续工作展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(5)基于限定中文自然语言需求的SysML模型自动生成方法(论文提纲范文)
1 研究背景 |
1.1 SysML概述 |
1.2 自然语言处理 |
1) 分词 |
2) 词性标注 |
3) 句法分析 |
2 研究框架 |
3 基于限定中文自然语言模板的需求规约方法 |
3.1 领域词库与数据字典 |
1) 领域词库 |
2) 数据字典 |
3.2 基于自然语言处理的术语推荐方法 |
1) 分词、词性标注、依存句法分析 |
2) 规则提取 |
3) 领域度过滤 |
3.3 限定中文自然语言需求模板 |
1) 通用约束规则 |
2) 功能需求约束规则 |
3) 非功能需求约束规则 |
3.4 限定自然语言需求模板元模型 |
4 SysML设计模型自动生成方法 |
4.1 SysML子集 |
1) 层次结构视图 |
2) 内部交互视图 |
3) 行为视图 |
4) 非功能属性视图 |
4.2 转换规则 |
1) 需求结构到层次结构视图和内部交互视图的转换,具体的转换规则为: |
2) 功能需求到行为视图的转换,具体的转换规则为: |
3) 非功能属性需求到非功能属性视图的转换,具体的转换规则为: |
5 工具实现与案例分析 |
5.1 RNL2SysML原型工具实现 |
5.2 案例分析 |
5.3适用范围与局限性分析 |
6 相关工作 |
6.1 需求工程中的AI方法应用 |
6.2 限定自然语言需求建模 |
6.3 需求表达到设计模型的转换与生成 |
1) 基于自由文本 |
2) 基于限定文本(restricted text) |
7 结束语 |
(6)轨道交通控制软件的基于场景的需求分析方法(论文提纲范文)
摘要 |
abstract |
第一章 引言 |
1.1 研究背景 |
1.2 相关工作 |
1.3 研究内容 |
1.4 本文结构 |
第二章 方法概述 |
2.1 基于场景的需求分析方法概述 |
2.2 技术难点 |
2.3 本章小结 |
第三章 建模方法 |
3.1 需求规范 |
3.2 演化式建模方法 |
3.2.1 需求模板 |
3.2.2 非形式化需求规范构建 |
3.2.3 半形式化需求规范构建 |
3.2.4 形式化需求规范构建 |
3.3 构建需求模型 |
3.4 本章小结 |
第四章 场景描述和场景的分析检查 |
4.1 场景描述语言CASSL |
4.2 场景描述语言优化 |
4.2.1 场景字典 |
4.2.2 场景定义 |
4.3 脚本检查 |
4.4 本章小结 |
第五章 场景的优化生成 |
5.1 状态转化场景优化 |
5.1.1 状态转化图生成 |
5.1.2 状态转化条件 |
5.2 场景自动生成 |
5.2.1 生成场景动作序列 |
5.2.2 生成变量赋值部分 |
5.3 未覆盖路径及对应测试用例生成 |
5.3.1 求解未覆盖路径 |
5.3.2 测试用例生成 |
第六章 工具实现与实验结果分析 |
6.1 场景执行 |
6.1.1 测试数据 |
6.1.2 执行需求模型 |
6.1.3 执行规则 |
6.1.4 一致性比较 |
6.1.5 执行结果 |
6.2 工具实现 |
6.2.1 需求模型模块 |
6.2.2 场景和需求确认和验证模块 |
6.3 实验结果及分析 |
6.3.1 实验结果 |
6.3.2 实验结果统计 |
6.4 本章小结 |
第七章 总结与展望 |
7.1 本文总结 |
7.2 研究展望 |
参考文献 |
致谢 |
攻读硕士学位期间发表论文和科研情况 |
(7)智能对话式软件帮助系统的开发平台研究及在设计中应用(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 研究现状 |
1.2.1 软件帮助系统研究现状 |
1.2.2 智能对话系统研究现状 |
1.2.3 自然语言理解研究现状 |
1.2.4 省略研究现状 |
1.3 本文研究内容及结构安排 |
1.3.1 研究内容 |
1.3.2 章节安排 |
第二章 相关理论背景 |
2.1 BERT语言模型 |
2.1.1 BERT语言模型介绍 |
2.1.2 BERT在分词任务上的应用 |
2.2 文本相似度处理方法 |
2.3 HOOK技术 |
2.4 知识的表示 |
2.5 概念从属树 |
2.6 本章小结 |
第三章 智能对话式软件帮助系统的开发平台的建模 |
3.1 省略现象分析 |
3.2 省略引起的歧义 |
3.3 实景在对话中的作用 |
3.3.1 实际场景对省略歧义处理的重要性 |
3.3.2 上下文对省略歧义处理的重要性 |
3.3.3 背景知识在省略歧义处理中的作用 |
3.4 智能对话式软件帮助系统的开发平台建模 |
3.4.1 软件系统信息管理模块 |
3.4.2 软件实景获取模块 |
3.4.3 基于软件实景的省略歧义处理模块 |
3.4.4 领域知识库 |
3.4.5 软件实景对话帮助测试模块 |
3.5 本章小结 |
第四章 智能对话式软件帮助系统的开发平台的实现 |
4.1 开发平台总体实现概述 |
4.2 软件实景对话帮助开发中各主要模块实现 |
4.2.1 软件实景获取模块实现 |
4.2.2 软件实景字典生成模块实现 |
4.2.3 软件实景互动生成模块实现 |
4.2.4 领域知识库构建 |
4.3 软件实景对话帮助测试模块实现 |
4.3.1 软件实际运行环境获取 |
4.3.2 基于软件实景的省略恢复处理 |
4.3.3 语义解析及排序处理 |
4.3.4 对话与上下文处理 |
4.4 本章小结 |
第五章 智能对话式软件帮助系统的开发平台在虚拟仪器设计中应用 |
5.1 智能对话式软件帮助系统在虚拟仪器设计中的需求 |
5.2 LabVIEW软件智能对话式帮助原型系统的开发 |
5.2.1 LbVIEW软件智能对话式帮助原型系统开发过程 |
5.2.2 LabVIEW软件智能对话式帮助原型系统测试 |
5.3 本章小结 |
第六章 总结与展望 |
6.1 本文工作总结 |
6.2 未来工作展望 |
参考文献 |
致谢 |
作者简介 |
(8)基于XML的通用通信协议测试工具的开发与实现(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景和意义 |
1.2 协议一致性测试的研究现状 |
1.3 论文的主要研究内容 |
1.4 论文的组织结构和创新点 |
第二章 协议一致性测试和BGP协议以及FTP协议 |
2.1 协议一致性测试 |
2.1.1 一致性测试的基本概念 |
2.1.2 一致性测试原理 |
2.1.3 一致性测试过程 |
2.1.4 一致性测试方法 |
2.2 BGP协议 |
2.2.1 BGP协议的特性 |
2.2.2 BGP的路径属性 |
2.2.3 BGP的报文格式 |
2.3 FTP协议 |
2.3.1 FTP协议的特性 |
2.3.2 FTP协议的报文格式 |
2.4 本章小结 |
第三章 基于XML语言的协议描述 |
3.1 XML语言介绍和选择依据 |
3.1.1 XML语言简介 |
3.1.2 XML语言的语法格式 |
3.1.3 XML文档解析 |
3.1.4 XML作为测试套描述语言的优势 |
3.2 抽象测试套的描述 |
3.2.1 测试套的结构 |
3.2.2 测试套的具体描述形式 |
3.3 协议数据报文格式的XML描述 |
3.3.1 主体描述XML文件的设计 |
3.3.2 Note注释XML文件的设计 |
3.3.3 BGP协议数据报文格式描述文件的设计 |
3.3.4 解析引导XML文件的设计 |
3.4 本章小结 |
第四章 协议一致性测试系统的设计 |
4.1 系统的设计目标 |
4.1.1 设计需求与功能需求 |
4.1.2 设计目标 |
4.2 系统的设计方案 |
4.3 一致性测试系统的设计 |
4.3.1 用户界面的设计 |
4.3.2 测试序列生成模块的设计 |
4.3.3 测试用例编辑模块的设计 |
4.3.4 测试用例保存模块 |
4.3.5 测试执行模块 |
4.3.6 底层通信模块 |
4.3.7 测试结果判决模块 |
4.4 本章小结 |
第五章 协议一致性测试系统的实现 |
5.1 用户界面实现 |
5.2 测试序列生成模块的实现 |
5.3 测试用例编辑模块的实现 |
5.3.1 数据报文格式解构子模块的实现 |
5.3.2 测试例及测试步编辑子模块的实现 |
5.4 测试执行模块的实现 |
5.5 底层通信模块的实现 |
5.6 测试结果判决模块的实现 |
5.7 BGP4协议的一致性测试 |
5.7.1 BGP4协议一致性测试环境的搭建 |
5.7.2 BGP4协议一致性测试的测试项目 |
5.7.3 BGP4协议一致性测试的测试结果 |
5.8 FTP协议的一致性测试 |
5.8.1 FTP协议一致性测试环境的搭建 |
5.8.2 FTP协议一致性测试的测试项目 |
5.8.3 FTP协议一致性测试的测试结果 |
5.9 本章小结 |
第六章 总结与展望 |
参考文献 |
致谢 |
(9)预训练深度学习架构下的语义地址匹配与语义空间融合模型研究(论文提纲范文)
致谢 |
摘要 |
Abstract |
术语缩写表 |
1 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 地名地址匹配方法研究 |
1.2.2 自然语言建模方法研究 |
1.2.3 自然语言模型方法下的位置语义融合研究 |
1.2.4 存在问题与不足 |
1.3 研究目的 |
1.4 研究内容 |
1.5 章节安排 |
2 自监督预训练式的地址语义建模研究 |
2.1 中文地址数据结构及预处理 |
2.1.1 中文地址数据现状及特点 |
2.1.2 自监督语义表征学习的优势 |
2.1.3 实验数据及地址清洗预处理 |
2.2 深度学习架构下的语义表征方法 |
2.2.1 深度学习架构相关理论 |
2.2.2 自然语言自注意力机制理论 |
2.2.3 神经网络语言模型通用结构 |
2.2.4 自监督预训练语言模型理论 |
2.3 地址语义模型设计 |
2.3.1 基于多头自注意力的语义特征提取 |
2.3.2 克服地址长距离依赖的循环机制 |
2.3.3 排列组合式未知字符预测的目标 |
2.3.4 目标位置感知的双轨自注意力结构 |
2.3.5 局部预测优化设计 |
2.3.6 整体模型结构 |
2.4 地址语义模型训练框架 |
2.4.1 模型输入与超参数 |
2.4.2 目标函数 |
2.4.3 神经网络优化器设计 |
2.5 实验设计与模型验证 |
2.5.1 实验设计 |
2.5.2 实验结果分析 |
2.6 本章小结 |
3 基于地址语义模型微调的地址匹配研究 |
3.1 地址匹配相关理论 |
3.1.1 地址匹配相关概念 |
3.1.2 地址匹配原理 |
3.1.3 语义地址匹配定义 |
3.2 基于空间推理的等价地址语义数据集构建 |
3.2.1 文本蕴含及文本复述理论 |
3.2.2 带标签的地址匹配数据集重构设计 |
3.2.3 语义地址匹配数据集增强 |
3.3 语义地址匹配任务建模 |
3.3.1 深度神经网络模型微调理论 |
3.3.2 基于地址匹配分类任务的模型微调与训练 |
3.4 实验设计与分析 |
3.4.1 实验设计 |
3.4.2 实验结果分析 |
3.5 本章小结 |
4 地址语义-空间信息融合研究 |
4.1 地址语义-空间信息融合设计 |
4.1.1 文本语义相似度理论 |
4.1.2 地址间空间相似度设计 |
4.1.3 地址文本空间相似融合数据集构建 |
4.2 地址语义-空间信息融合任务建模 |
4.2.1 基于地址语义空间相似融合回归任务的模型微调与训练 |
4.3 空间坐标预测的下游验证评价任务 |
4.4 实验设计与分析 |
4.4.1 实验设计 |
4.4.2 实验结果分析 |
4.5 本章小结 |
5 总结与展望 |
5.1 研究总结 |
5.2 研究特色与创新 |
5.3 研究展望 |
参考文献 |
作者简历 |
(10)开放政府数据背景下我国政府预算公开的数据标准研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景及意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 国内外研究及发展现状 |
1.2.1 国外研究与发展现状 |
1.2.2 国内研究与发展现状 |
1.3 研究内容及技术路线 |
2 相关概念 |
2.1 开放政府数据 |
2.1.1 开放数据 |
2.1.2 开放政府数据 |
2.1.3 开放数据原则 |
2.2 反腐败的开放数据 |
2.3 开放预算数据标准 |
2.3.1 预算数据 |
2.3.2 开放预算数据标准 |
2.4 本体及本体描述语言 |
2.4.1 本体 |
2.4.2 本体描述语言 |
2.5 本章小结 |
3 国际上的开放预算数据标准 |
3.1 美国的《数据法案》及支出数据标准 |
3.1.1 DAIMS标准架构 |
3.1.2 信息提交流程 |
3.1.3 报告提交规范 |
3.1.4 接口定义文档 |
3.1.5 机器可读格式 |
3.1.6 标准化数据制定过程 |
3.2 欧盟的预算词汇表 |
3.2.1 预算数据概况 |
3.2.2 关联开放预算数据 |
3.2.3 概念数据模型 |
3.2.4 预算词汇本体 |
3.2.5 关联预算规划 |
3.3 巴西的预算本体 |
3.3.1 支出分类的本体模型 |
3.3.2 机器可读格式 |
3.4 对我国预算开放数据标准建立的启示 |
3.5 本章小结 |
4 我国政府开放预算数据的数据标准方案设计 |
4.1 预算数据标准框架的制定 |
4.2 国内开放预算数据调查与评估分析 |
4.2.1 中央部门预算数据 |
4.2.2 地方政府预算数据 |
4.2.3 评估预算数据的维度与指标 |
4.2.4 数据开放程度的计算维度 |
4.2.5 评估数据采集与过程 |
4.2.6 调查结果分析 |
4.3 定义数据字典 |
4.4 构建预算数据本体 |
4.4.1 类 |
4.4.2 对象属性 |
4.4.3 数据类型属性 |
4.4.4 预算本体模型 |
4.5 本体形式化表示 |
4.5.1 命名空间 |
4.5.2 机器可读格式 |
4.6 本章小结 |
5 预算数据标准的应用 |
5.1 关联数据技术体系 |
5.1.1 关联数据 |
5.1.2 语义Web与RDF |
5.1.3 SPARQL查询 |
5.2 关联预算数据的构建与发布-以贵阳市为例 |
5.2.1 数据采集与映射 |
5.2.2 设计URI |
5.2.3 RDF实例文档 |
5.2.4 验证 |
5.2.5 关联预算数据发布流程 |
5.3 对比分析 |
5.3.1 预算标准应用前后的比较 |
5.3.2 预算标准应用的意义 |
5.4 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
附录A 地方政府开放数据平台详细信息 |
附录B 国内政府预算数据字典 |
致谢 |
作者简介及攻读硕士学位期间的科研成果 |
四、数据字典描述语言的研究与设计(论文参考文献)
- [1]《汉语官话语法试编》研究[D]. 罗薇. 北京外国语大学, 2021(09)
- [2]基于图卷积网络的片上系统软硬件协同设计研究[D]. 郑欣. 广东工业大学, 2021(08)
- [3]基于云服务平台的数据知识资源管理系统的设计与开发[D]. 路丽. 内蒙古大学, 2021(12)
- [4]基于胶囊网络的文本摘要生成技术研究[D]. 张骁. 电子科技大学, 2021(01)
- [5]基于限定中文自然语言需求的SysML模型自动生成方法[J]. 鲍阳,杨志斌,杨永强,谢健,周勇,岳涛,黄志球,郭鹏. 计算机研究与发展, 2021(04)
- [6]轨道交通控制软件的基于场景的需求分析方法[D]. 闫倩倩. 华东师范大学, 2021(05)
- [7]智能对话式软件帮助系统的开发平台研究及在设计中应用[D]. 薛翌. 西安电子科技大学, 2020(02)
- [8]基于XML的通用通信协议测试工具的开发与实现[D]. 能飏. 北京邮电大学, 2020(05)
- [9]预训练深度学习架构下的语义地址匹配与语义空间融合模型研究[D]. 徐流畅. 浙江大学, 2020(01)
- [10]开放政府数据背景下我国政府预算公开的数据标准研究[D]. 邹书怡. 大连海事大学, 2020(01)