本文由36大数据编辑“陌上花”收集整理,转载必须标明来源36大数据和作者。
五十一:本地数据库(LDB/Local Data Base)
本地数据库是指驻留于运行客户应用程序的机器的数据库。本地数据库提供最快的响应时间。因为在客户(应用程序和服务器之间没有网络转输。本地数据库的例子有Borland的Paradox.Microsoft的Access和Oracle的Personal Oracle。
本地数据库位于本地磁盘或局域网上。如果有几个用户同时访问数据库.本地数据库采取攘于文件的锁定策略。因此,本地数据库义叫基于文件的数据库。典型的本地数据库有Paradox、dBASE、FoxPro和ACCCSS。
五十二:数据采集(Data Acquisition,DAQ)
数据采集是指将被测对象的各种参量通过各种传感器做适当转换后,再经过信号调理、采样、量化、编码、传输等步骤传递到控制器的过程。
各类数据采集系统的数据采集过程基本相同,一般都包括这样几个步骤:
①用传感器感受各种物理量,并把它们转换成电信号;
②通过A/D转换,模拟量的数据转变成数字量的数据;
③数据的记录,打印输出或存入磁盘文件。
各种数据采集系统所用的数据采集程序有:
①生产厂商为该采集系统编制的专用程序,常用于大型专用系统;
②固化的采集程序,常用于小型专用系统;
③利用生产厂商提供的软件工具,用户自行编制的采集程序,主要用于组合式系统。
五十三:数据模型(data model)
数据模型是现实世界数据特征的抽象,用于描述一组数据的概念和定义。数据模型是数据库中数据的存储方式,是数据库系统的基础。在数据库中,数据的物理结构又称数据的存储结构,就是数据元素在计算机存储器中的表示及其配置;数据的逻辑结构则是指数据元素之间的逻辑关系,它是数据在用户或程序员面前的表现形式,数据的存储结构不一定与逻辑结构一致。
五十四:数据整理(Data Cleansing)
数据整理是对调查、观察、实验等研究活动中所搜集到的资料进行检验、归类编码和数字编码的过程。它是数据统计分析的基础。
在二十世纪90年代中晚期,为了揭示一些隐含数据性质、趋势和模式,很多商家开始探讨把传统的统计和人工智能分析技术应用到大型数据库的可行性问题,这些探讨最终发展成为基于统计分析技术的正规数据整理工具。
五十四:数据处理(Data Handling)
数据处理是指对数据(包括数值的和非数值的)进行分析和加工的技术过程。也就是对数据的采集、存储、检索、加工、变换和传输,将数据转换为信息的过程。数据处理离不开软件的支持,数据处理软件包括:用以书写处理程序的各种程序设计语言及其编译程序,管理数据的文件系统和数据库系统,以及各种数据处理方法的应用软件包。为了保证数据安全可靠,还有一整套数据安全保密的技术。包括对各种原始数据的分析、整理、计算、编辑等的加工和处理。比数据分析含义广。
五十五:范式(数据库术语)
范式是符合某一种级别的关系模式的集合。关系数据库中的关系必须满足一定的要求,满足不同程度要求的为不同范式。
范式(数据库设计范式,数据库的设计范式)是符合某一种级别的关系模式的集合。构造数据库必须遵循一定的规则。在关系数据库中,这种规则就是范式。关系数据库中的关系必须满足一定的要求,即满足不同的范式。
目前关系数据库有六种范式:第一范式(1NF)、第二范式(2NF)、第三范式(3NF)、Boyce-Codd范式(BCNF)、第四范式(4NF)和第五范式(5NF)。