自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

BoCong-Deng的博客

青春都一饷,怎忍把浮名,换了浅斟低唱。

  • 博客(211)
  • 资源 (23)
  • 问答 (1)
  • 收藏
  • 关注

原创 深度学习中眼花缭乱的Normalization学习总结

对于深度学习而言,正则化方法就是“通过把一部分不重要的复杂信息损失掉,以此来降低拟合难度以及过拟合的风险,从而加速了模型的收敛”,而本篇文章我们要讲的Normalization方法的目的就是让分布稳定下来(降低各维度数据的方差),不同的正则化方法的区别只是操作的信息维度不同,即选择损失信息的维度不同。

2021-01-16 23:50:47 14

原创 论文阅读笔记:看完也许能进一步了解Batch Normalization

训练深度神经网络非常复杂,因为在训练过程中,随着先前各层的参数发生变化,各层输入的分布也会发生变化,导致调参工作要做的很小心,训练更加困难,论文中将这种现象称为“internal covariate shift”,而Batch Normalization正式用来解决深度神经网络中internal covariate shift现象的方法。

2021-01-07 21:51:27 38

原创 论文阅读笔记:Covariate Shift: A Review and Analysis on Classifiers

我们都知道在机器学习模型中,训练数据和测试数据是不同的阶段,并且,通常是是假定训练数据和测试数据点遵循相同的分布。但是实际上,模型的输入和输出的联合分布在训练数据和测试数据之间是不同的,这称为dataset shift。dataset shift的一种简单情况就是covariate shift,covariate shift仅输入分布发生变化,而在给定输入的输出条件分布保持不变。本文主要概述了现有covariate shift检测和自适应方法及其应用,同时基于包含合成数据和真实数据的四种数据集,提供了各种c

2020-12-29 10:39:38 43

原创 NLP中遇到的各类Attention结构汇总以及代码复现

我们所熟知的encoder和decoder结构中,通常采用RNN结构如GRU或LSTM等,在encoder RNN中将输入语句信息总结到最后一个hidden vector中,并将其作为decoder的初始hidden vector,从而利用decoder的解码成对应的其他语言中的文字。但是这样的结构会出现一些问题,比如老生常谈的长程梯度消失的问题,对于较长的句子很难寄希望于将输入的序列转化为定长的向量而保存所有的有效的信息,所以随着输入序列的长度增加,这种结构的效果就会显著下降。因此这个时候就是Attent

2020-12-26 15:19:33 566

原创 论文阅读笔记:Tacotron和Tacotron2

本文主要是对Tacotron和Tacotron2论文中的关键部分进行阐述和总结,之所以两篇论文放在一起,是因为方便比较模型结构上的不同点,更清晰的了解Tacotron2因为改进了哪些部分,在性能上表现的比Tacotron更好。

2020-12-17 10:20:54 546

原创 利器:TTS Frontend 中英Text-to-Phoneme Converter,附代码

NLP的语音合成中,有一种关键技术是将文字拆解成音素,再去语音库里匹配相同音素的语音片段,来实现文字转换语音。音素是给定语言的语音,如果与另一个音素交换,则会改变单词的含义,同时,音素是绝对的,并不是特定于任何语言,但只能参考特定语言讨论音素。由于音素的特性,非常适合用于语音合成领域。

2020-12-15 16:31:59 62

原创 关于RNN理论和实践的一些总结

本篇文章主要总结我在学习过程中遇到的RNN、其相关变种,并对相关结构进行说明和结构图展示。内容包括RNN、RecNN、多层、双向、RNNCell等等,同时包括在计算框架(TensorFlow及PyTorch)API层面的一些理解记录。本篇文章不进行深入推导和底层原理介绍,仅做总结记录,感兴趣者可自行根据内容详细查阅资料。

2020-12-14 10:40:20 58

原创 论文阅读笔记:Neural Speech Synthesis with Transformer Network

提示:阅读论文时进行相关思想、结构、优缺点,内容进行提炼和记录,论文和相关引用会标明出处。文章目录前言介绍这里科普一下TTS及语音方面的相关知识模型结构前言标题:Neural Speech Synthesis with Transformer Network原文链接:LinkGithub:NLP相关Paper笔记和代码复现说明:阅读论文时进行相关思想、结构、优缺点,内容进行提炼和记录,论文和相关引用会标明出处,引用之处如有侵权,烦请告知删除。转载请注明:DengBoCong介绍虽然像

2020-12-08 17:47:30 39

原创 有必要了解的Subword算法模型

在NLP领域,对语料进行预处理的过程中,我们需要进行分词和生成词典。很多时候用多了框架的API,觉得分词和生成字典就是调用的事情,不过事情并没有那么简单,比如其中涉及到的未登录词的问题,就对任务性能影响很大。一种很朴素的做法就是将未见过的词编码成#UNK ,有时为了不让字典太大,只会把出现频次大于某个阈值的词丢到字典里边,剩下所有的词都统一编码成#UNK 。

2020-12-05 19:48:49 75

原创 论文阅读笔记:Massive Exploration of Neural Machine Translation Architectures

在计算机视觉中通常会在大型超参数空间中进行扫描,但对于NMT模型而言,这样的探索成本过高,从而限制了研究人员完善的架构和超参数选择。更改超参数成本很大,在这篇论文中,展示了以NMT架构超参数为例的首次大规模分析,实验为构建和扩展NMT体系结构带来了新颖的见解和实用建议。本文工作探索NMT架构的常见变体,并了解哪些架构选择最重要,同时展示所有实验的BLEU分数,perplexities,模型大小和收敛时间,包括每个实验多次运行中计算出的方差数。

2020-12-04 23:38:07 32

原创 论文阅读笔记:A Comparative Study on Transformer vs RNN in Speech Applications

序列到序列模型已广泛用于端到端语音处理中,例如自动语音识别(ASR),语音翻译(ST)和文本到语音(TTS)。本文着重介绍把Transformer应用在语音领域上并与RNN进行对比。与传统的基于RNN的模型相比,将Transformer应用于语音的主要困难之一是,它需要更复杂的配置(例如优化器,网络结构,数据增强)。在语音应用实验中,论文研究了基于Transformer和RNN的系统的几个方面,例如,根据所有标注数据、训练曲线和多个GPU的可伸缩性来计算单词/字符/回归错误。

2020-11-24 16:54:00 60

原创 论文阅读笔记:Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network

本文在一个统一的神经网络中介绍了这两种注意力,网络命名为Deep Attention Matching Network(DAM),用于多回合响应选择。在实践中,DAM将上下文或响应中的语句的每个词作为抽象语义段的中心含义,并通过堆叠式的自注意力丰富其表示,从而逐渐围绕中心词生成越来越复杂的段表示 。考虑到文本相关性和依存性信息,上下文和响应中的每个语句都基于不同粒度的句段对进行匹配。这样,DAM通常会捕获上下文之间的匹配信息以及从单词级到句子级的响应,然后使用卷积和最大池化操作提取重要的匹配特征,最后通过单

2020-11-23 00:24:48 560

原创 搞定检索式对话系统的候选response检索--使用pysolr调用Solr

模型结构和训练至关重要,但是检索候选回复也是使得整个对话流程实现闭环的关键。我们了解了检索的目的和整体流程,那我们从何实现?方式有很多,可以自行编写一个脚本从数据集中生成一个索引候选数据集(这个是我最开始用的方法,但毕竟没专门研究过检索,所以写的很粗糙,勉强验证功能可以,用作正式使用就不行了),还有一种就是使用现有的检索工具,比如Lucene、Solr、ElasticSearch等等。所以这篇文章就是来讲解部署solr和使用python实现检索

2020-11-19 00:19:41 512

原创 论文阅读笔记:ProjectionNet: Learning Efficient On-Device Deep Networks Using Neural Projections

论文中介绍了一种叫ProjectionNet的联合框架,可以为不同机器学习模型架构训练轻量的设备端模型。其使用复杂的前馈/循环架构(就像 LSTM)作为训练模型,联合一个简单的投影(projection)架构——其中包含动态投影操作以及一些窄带全连接层。整个架构使用反向传播在 TensorFlow 上进行端到端训练,在训练完成后,我们就可以直接使用紧凑的 ProjectionNet 进行推理了。通过这种方法,我们可以训练尺寸很小的 ProjectionNet 模型,兼顾小尺寸(比常规模型小几个数量级)与高性

2020-11-16 00:15:28 66

原创 论文阅读笔记:MuTual: A Dataset for Multi-Turn Dialogue Reasoning

面向非任务的对话系统在给定上下文的情况下,当前系统能够产生相关且流畅的回复,但是由于推理能力较弱,有时会出现逻辑错误。为了促进对话推理研究,发布了多轮对话推理数据集 MuTual,针对性地评测模型在多轮对话中的推理能力。它由基于中国学生英语听力理解考试的8,860个手动注释的对话组成

2020-11-10 11:17:14 138

原创 深度学习矩阵乘法的终极奥义einsum,结合多个计算框架上的使用

einsum以一种优雅的方式,表示各种矩阵运算,好处在于你不需要去记和使用计算框架中(TensorFlow|PyTorch|Numpy)点积、外积、转置、矩阵-向量乘法、矩阵-矩阵乘法的函数名字和签名。从某种程度上解决引入不必要的张量变形或转置运算,以及可以省略的中间张量的现象。不仅如此,einsum有时可以编译到高性能代码,事实上,PyTorch最近引入的能够自动生成GPU代码并为特定输入尺寸自动调整代码的张量理解(Tensor Comprehensions)就基于类似einsum的领域特定语言。此外,可

2020-11-09 21:09:43 215

原创 好好琢磨一下TF-IDF,结合Sklearn

TF-IDF(Term Frequency-Inverse Document Frequency)是一种针对关键词的统计分析方法,用于评估一个词对一个文件集或者一个语料库的重要程度。一个词的重要程度跟它在文章中出现的次数成正比,跟它在语料库出现的次数成反比。这种计算方式能有效避免常用词对关键词的影响,提高了关键词与文章之间的相关性。原理说简单点,不难理解。

2020-11-08 17:08:28 124

原创 损失函数理解汇总,结合PyTorch和TensorFlow2

本文打算讨论在深度学习中常用的十余种损失函数,结合PyTorch和TensorFlow2对其概念、公式及用途进行阐述,希望能达到看过的伙伴对各种损失函数有个大致的了解以及使用。本文对原理只是浅尝辄止,不进行深挖,感兴趣的伙伴可以针对每个部分深入翻阅资料。

2020-11-02 15:30:14 633

原创 论文阅读笔记:Sequential Matching Network: A New Architecture for Multi-turn Response Selection in Retrieva

本文的SMN模型结构可以说影响了很多后续相关的论文,所解决的是基于检索的聊天机器人中多回合对话的回复选择。在之前的工作,基于检索的聊天机器人的做法是将context里所有的utterances都连接在一起,将这个长长的context做处理然后和response作匹配,这样做可能会丢失语句间的关系或重要的上下文信息。Sequential Matching Network(SMN)模型就是为了解决这些问题而来的。

2020-10-31 11:14:47 95

原创 论文阅读笔记:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

本文介绍的language representation model就是大名鼎鼎的BERT,其模型结构是利用Transformer的双向Encoder表示。BERT有个明显的特点就是,它通过在所有层的左侧和右侧上下文中共同进行条件预处理,从而在未标记的文本中预训练深层双向表示。

2020-10-29 21:33:21 112

原创 Embedding和Word2vec的理解

Embedding就是用一个低维的向量表示一个物体,这个Embedding向量的性质是能使距离相近的向量对应的物体有相近的含义,正是因为Embedding能够用低维向量对物体进行编码还能保留其含义的特点,所以其非常适合用于深度学习。由于我们熟知的one hot encoding、multi hot encoding是一种稀疏向量的编码方式,所以不适合用来深度学习进行特征表示,相反Embedding概括而言,就是一种高效的低维稠密的操作。

2020-10-28 00:05:46 143 1

原创 论文阅读笔记:Self-Attention with Relative Position Representations

了解Transformer的都知道,与递归和卷积神经网络相反,它没有在其结构中显式地建模相对或绝对位置信息,而是它需要在其输入中添加绝对位置的表示,这是一种完全依赖于注意力机制的方法。在本篇论文中,提出了一种替代方法,扩展了自注意机制,可以有效地考虑相对位置或序列元素之间距离的表示。本文描述了该方法的有效实现,并将其转换为可感知到任意图标记输入的相对位置感知自注意力机制的实例,即提出了一种将相对位置表示形式并入Transformer自注意机制的有效方法,残差连接有助于将位置信息传播到更高的层。

2020-10-24 23:47:35 677

原创 论文阅读笔记:Scheduled Sampling for Transformers

cheduled sampling(计划采样)是一种避免Exposure Bias的技术,它包括向模型喂入Teacher-Forcing的embeddings和训练时间上一步中的模型预测的混合,该技术已用于通过递归神经网络(RNN)改善模型性能。在Transformer模型中,与RNN不同,新单词的生成会涉及到到目前为止生成的完整句子,而不仅是最后一个单词,致使应用Scheduled sampling技术并非易事。文中提出了一些结构上的更改,以允许通过两次遍历解码策略将Scheduled sampling应

2020-10-20 21:33:29 73

原创 论文阅读笔记:Global-Locally Self-Attentive Dialogue State Tracker

对话状态跟踪(在对话上下文中估计用户目标和请求)是面向任务的对话系统的重要组成部分。在本文中,提出了“全局-局部自注意力对话状态追踪”(GLAD),该学习器使用全局本地模块来学习用户话语的表示和以前的系统动作。模型使用全局模块在不同类型(称为插槽)的对话状态的估计量之间共享参数,并使用本地模块学习特定于插槽的特征。DST中的状态(state)通常由一个请求(request)和联合目标(joint goals)的集合组成。请求即请求系统返回所需信息(例如:request(address)),目标即用户想要完成

2020-10-20 11:42:09 76

原创 论文阅读笔记:Latent Intention Dialogue Models

开发能够做出自主决策并通过自然语言进行交流的对话代理是机器学习研究的长期目标之一。传统方法要么依靠手工制作一个小的状态动作集来应用不可扩展的强化学习,要么构建确定性模型来学习无法捕获自然对话可变性的对话语句。论文提出了一种隐意图对话模型(Latent Intention Dialogue Model, LIDM),通过离散的隐变量来学习对话意图,这些隐变量可以看作引导对话生成的动作决策,进而运用强化学习可以提升性能。实际上在任务型对话中,这个隐含的意图可以理解为是action。

2020-10-08 20:12:48 61

原创 论文阅读笔记:Neural Belief Tracker: Data-Driven Dialogue State Tracking

belief tracker是现代口语对话系统的核心组件之一,它可以在对话的每个步骤中估算用户的目标,但是,大多数当前方法很难扩展到更大,更复杂的对话域。这是由于它们对以下方面的依赖:a)需要大量带注释的训练数据的口语理解模型; 或b)手工制作的词典,用于捕获用户语言的某些语言变化。我们提出了一种新颖的Neural Belief Tracking (NBT) 框架,该框架通过基于表示学习的最新进展来克服这些问题。NBT通过推理对预先训练的单词向量进行建模,学习将其组合为用户话语和对话上下文的分布表示形式。我

2020-10-06 23:27:48 141

原创 论文阅读笔记:A Network-based End-to-End Trainable Task-oriented Dialogue System

教会机器完成与人自然交流的任务是充满挑战性的,当前,开发面向任务的对话系统需要创建多个组件,通常这涉及大量的手工制作或获取昂贵的标记数据集以解决每个组件的统计学习问题。在这项工作中,我们介绍了基于神经网络的文本输入,文本输出的端到端可训练的面向目标的对话系统,以及一种基于pipeline的Wizard-of-Oz框架的收集对话数据的新方法。这种方法使我们能够轻松开发对话系统,而无需对手头的任务做太多假设。结果表明,该模型可以自然地与人类交谈,同时帮助他们完成餐馆搜索领域的任务。

2020-10-04 16:30:39 811

原创 论文阅读笔记:An End-to-End Trainable Neural Network Model with Belief Tracking for Task-Oriented Dialog

我们提出了面向任务的对话系统的新型端到端可训练神经网络模型,该模型能够跟踪对话状态,基于知识(KB)的API调用,并将结构化的KB查询结果合并到系统响应中,从而成功完成面向任务的对话。通过在对话历史上的进行belief tracking和KB结果处理,进而模型产生结构良好的系统响应。我们使用从第二个Dialog State Tracking Challenge(DSTC2)语料库转换而来的数据集在饭店搜索域中评估模型。实验结果表明,在给定对话历史记录的情况下,该模型可以很好地跟踪对话状态。此外,我们的模型在

2020-09-29 10:56:50 73

原创 论文阅读笔记:Recent Advances and Challenges in Task-oriented Dialog Systems

由于在人机交互和自然语言处理中的重要性和价值,面向任务的对话系统在学术界和工业界都受到越来越多的关注。在本文中,我们调查了面向任务的对话系统的最新进展和挑战。我们还讨论了面向任务的对话系统的三个关键主题:(1)提高数据效率以促进在资源匮乏的环境中进行对话建模;(2)为对话策略学习建模多回合模型以实现更好的任务完成性能;(3)将领域本体知识整合到对话模型中。此外,我们回顾了对话评估和一些常用语料库的最新进展。我们认为,尽管这项调查不完整,但可以为面向任务的对话系统的未来研究提供启发。

2020-09-28 21:32:19 136

原创 论文阅读笔记:MultiWOZ 2.2 : A Dialogue Dataset with Additional Annotation Corrections and State...

MultiWOZ是一个著名的面向任务的对话数据集,其中包含10,000多个跨越8个域的带注释对话,而被广泛用作对话状态跟踪的基准。但是,最近的工作报告说,对话状态注释中存在大量噪音。MultiWOZ 2.1中识别并修复了许多错误的注释和用户话语,从而改进了该数据集的版本。本篇论文工作介绍了MultiWOZ 2.2,它是该数据集的又一个改进版本。首先,我们在MultiWOZ 2.1之上的17.3%话语中识别并修复对话状态注释错误。其次,我们通过不允许带有大量可能值的槽(例如,餐厅名称,预订时间)来重新定义数据

2020-09-28 15:17:50 120 1

原创 论文阅读笔记:CrossWOZ: A Large-Scale Chinese Cross-Domain Task-Oriented Dialogue Dataset

为了推进多域(跨域)对话建模并缓解中文面向任务的数据集的不足的问题,我们提出了CrossWOZ,这是第一个大规模的中文跨域“人机交互”任务导向的数据集。CrossWOZ包含 6K 个对话,102K 个句子,涉及 5 个领域(景点、酒店、餐馆、地铁、出租)。此外,语料库包含丰富的对话状态注释,以及用户和系统端的对话行为。大约60%的对话具有跨域用户目标,这些目标有利于域间依赖性,并有助于对话中跨域自然过渡。我们还为pipeline的面向任务的对话系统提供了一个用户模拟器和一些基准模型,这将有助于研究人员在该语

2020-09-27 18:29:43 113

原创 论文阅读笔记:Layer Normalization

训练最新的深度神经网络在计算上是昂贵的,减少训练时间的一种方法是归一化神经元,最近引入的一种称为批归一化的技术使用训练案例的小批量上神经元的总输入分布来计算均值和方差,然后使用均值和方差对每个训练案例中该神经元的总输入进行归一化,这大大减少了前馈神经网络的训练时间。但是,批归一化的效果取决于小批量的大小,如何将其应用于递归神经网络尚不明显。在本文中,我们通过在单个训练案例上计算从层的所有总输入到神经元的归一化的均值和方差,将批归一化转换为层归一化。像批归一化一样,我们还为每个神经元提供了自己的自适应

2020-09-24 22:47:03 81

原创 论文阅读笔记:Attention Is All You Need

序列转导模型基于复杂的递归或卷积神经网络,包括编码器和解码器,表现最佳的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单网络架构,即Transformer,它完全基于注意力机制,完全消除了重复和卷积。在两个机器翻译任务上进行的实验表明,这些模型在质量上具有优势,同时具有更高的可并行性,并且所需的训练时间大大减少。我们的模型在WMT 2014英语到德语的翻译任务上达到了28.4 BLEU,比包括集成学习在内的现有最佳结果提高了2 BLEU。在2014年WMT英语到法语翻译任务中,我们的模型在八个

2020-09-17 20:46:39 89

原创 论文阅读笔记:Pretraining Methods for Dialog Context Representation Learning

本文考察了各种用于学习对话上下文表示的无监督预训练目标, 提出了两种新颖的对话上下文编码器预训练方法,并研究了四种方法。使用MultiWoz数据集对每个预训练目标进行了微调,并在一组下游对话任务上进行了评估,并观察到了出色的性能改进。 进一步的评估表明,我们的预训练目标不仅可以带来更好的性能,而且可以带来更好的收敛性,并且模型需要的数据更少,并且具有更好的领域通用性。

2020-09-13 19:57:20 103

原创 搞清楚TensorFlow2--GradientTape

在聊GradientTape之前,我们不得不提一下自动微分技术,要知道在自动微分技术之前,机器学习社区中很少发挥这个利器,一般都是用Backpropagation(反向传播算法)进行梯度求解,然后使用SGD等进行优化更新。梯度下降法(Gradient Descendent)是机器学习的核心算法之一,自动微分则是梯度下降法的核心,梯度下降是通过计算参数与损失函数的梯度并在梯度的方向不断迭代求得极值

2020-08-17 15:36:19 834

原创 搞清楚TensorFlow2--Keras的Tokenizer

Keras的Tokenizer是一个分词器,用于文本预处理,序列化,向量化等。在我们的日常开发中,我们经常会遇到相关的概念,即token-标记、tokenize--标记化以及tokenizer--标记解析器。Tokenizer类允许通过将每个文本转换为整数序列(每个整数是字典中标记的索引)或转换成矢量(其中每个标记的系数可以是二进制的)的矢量化语料库,基于单词数 ,基于TF-IDF等等。形如如下使用创建方式:

2020-08-16 18:17:57 601 1

原创 搞清楚TensorFlow2--Checkpoint

写在前面GitHubTensorFlow原文档TensorFlow版本:2.3引言很多时候,我们希望在模型训练完成后能将训练好的参数(变量)保存起来,在需要使用模型的其他地方载入模型和参数,就能直接得到训练好的模型。而TensorFlow 正好提供了tf.train.Checkpoint这一强大的变量保存与恢复类,可以使用其 save() 和 restore() 方法将 TensorFlow 中所有包含 Checkpointable State 的对象进行保存和恢复。不过有一点要注意的是,Chec

2020-08-15 00:00:37 590 1

原创 提高模型性能的几种值得尝试的方法

在我们进行模型训练时,如果你只是想要让模型具有不错的性能,那么盲目地尝试网络架构足以达到目的。而在本文中, 我们将为你提供一套用于构建最先进深度学习模型的必备技术的快速指南,从而让模型由“具有不错的性能”上升到“性能卓越且满足我们的一些需要”。本文的叙述以及代码的编写时基于TensorFlow中Keras来进行表述的。

2020-07-23 12:44:04 372

原创 处理文本数据的一些思路

文本是最常用的序列数据之一,可以理解为字符序列或单词序列,但最常见的是单词级处理。深度学习序列处理模型都可以根据文本生成基本形式的自然语言理解,并可用于文档分类、情感分析、作者识别甚至问答(QA,在有限的语境下)等应用。当然,目前我所接触的这些深度学习模型都没有像人类一样真正地理解文本,而只是映射出书面语言的统计结构,但这足以解决许多简单的文本任务。

2020-07-21 12:54:17 196

原创 RNN的一些高级用法-以温度预测问题为例

RNN的神奇用的人都说话,不过在使用RNN的时候,还是需要知道一些技巧,有利于我们实现更符合预期的模型,本文将会介绍以下三种技巧。循环dropout(recurrent dropout)。这是一种特殊的内置方法,在循环层中使用dropout 来降低过拟合。堆叠循环层(stacking recurrent layers)。这会提高网络的表示能力(代价是更高的计算负 荷)。双向循环层(bidirectional recurrent layer)。将相同的信息以不同的方式呈现给循环网

2020-07-21 12:33:35 933

学生成绩管理系统(C语言版)

基本的搜索、查找、删除。排序等等的功能齐全,菜单界面设计较为合理......

2017-08-01

SQL Server 2016

SQL Server 2016软件安装程序,直接从官网打包好,为你安装SQL Server省时间......

2018-01-31

1000道 互联网大厂Java工程师面试题(1)(1)(1).pdf

你想要的Java面试题1000道,包括数据库、基础、并发、微服务、Spring、等等面试题,新鲜出炉,请收下。

2020-04-03

JDBC for SQL Server

SQL Server的JDBC驱动,官网下载,用以连接SQL Server.....

2018-02-04

Tomcat 9.0.1

官方打包好的Tomcat 9.0.1绿色版和安装版供你选择,为你安装Tomcat省去时间......

2018-02-04

SQL Server 2017 Dev

SQL Server 2017软件安装程序,直接从官网打包好,为你安装SQL Server省时间......

2018-02-04

JSP应用开发详解第三版源码

JSP应用开发详解第三版源代码,非常适合学习使用,提高了学习效率......

2018-01-29

Eclipse的Properties插件

Eclipse 安装properties 插件是我们常常需要使用的技巧,现实中,很多框架都使用 了properties文件来配置一些常用的程序参数......

2018-01-29

JSTL包和standrad包

在web项目中使用JSTL标签,JSTL 1.0 的声明是 <%@ taglib prefix="c" uri="http://java.sun.com/jstl/core " %> 所使用的web应用服务器resin与tomcat有所区别 resin\lib目录下存在jstl-1.2.jar、jta-101.jar包 而tomcat目录下不存在这两个jar包 结论:在使用tomcat里要在web工程中引入以上两个jar包 以解决http://java.sun.com/jsp/jstl/core cannot be resolved in either web.xml错误

2018-01-29

SQL Server 强力删除工具

本工具可以对已安装的SQL Server系列进行强力卸载,简化了卸载的复杂步骤,使得电脑与未安装之前一样使用......

2018-01-24

五子棋(C语言版)

用C语言编写的一个简单的五子棋小程序,有兴趣的小伙伴可以下载看看哟......

2017-12-19

贪吃蛇(C++版)

用C++编写的一个简单是贪吃蛇小程序,有兴趣的小伙伴可以下载看看......

2017-12-19

JAVA8_API CHM版

最新的Java8_API 中文版,可以帮助你更快地熟悉java,是java日常开发中的好工具,对你java的学习会有帮助

2017-11-29

JAVA_API_1.8 中文版

最新的Java_API_1.8 中文版,可以帮助你更快地熟悉java,是java日常开发中的好工具,对你java的学习会有帮助

2017-09-19

java API 1.8

最新java API,1.8版本,包含java库中的的各种函数的解释与使用,是一款不可多得的工具。java api是一款使用Java编程的使用说明书,里面提供了大量的程序开发分类说明,并提供API函数开发的集体编程方式,可以帮助用户更加了解Java程序的运行模式,增加程序员对开发环境的了解程度,让您在编程中尽量的减少错误,提供开发的精度......

2017-09-19

2017 ICPC实训资料

囊括金牌班、精英班、提高班和基础班的学习资料,对于想要初入还是深入ACM的朋友都挺有用的......

2017-08-27

2017前端面试题整理汇总

Web前端开发,最新的各大公司的面试题,有兴趣的朋友拿去学习......

2017-08-23

C++API中文版

网罗了几乎是C语言、C++以及STL中的所有函数,详细介绍各种函数的所属及用法,不管对于新手还是“老手”,这都是一个不错的帮助工具......

2017-08-22

仓库管理系统(C++版)

除了涉及各项基本的操作之外,包括菜单的登录系统,管理员身份操作,数据文件的保存等等......

2017-08-19

JavaScript权威指南第六版例题源码

JavaScript权威指南第六版源码,官网直接下载的,可靠......

2017-08-19

高校社团助手1.0(QT版)

使用Qt作为界面设计的语言,迎合新手用于研究Qt的运用。内含基础的功能登录、删除、查找、地图导航......

2017-08-06

文件压缩程序(基于哈夫曼C++算法)

该程序能压缩文档、图片、小视频等文件,并且基于C++的算法实现,简单易懂......

2017-08-01

数据结构—高校社团助手源码(C++)

里含有成员数据管理、社团数据管理、活动及校园地图等基本内容。另含有自主设计的数据内部共享的算法等功能......

2017-08-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人 TA的粉丝

提示
确定要删除当前文章?
取消 删除