闪耀数据库技术的将来-极光数据库

文章编号:11073 更新时间:2024-03-16 分类:互联网资讯 阅读次数:

资讯内容

在IT圈内,删库跑路曾经成为程序员经常提及的一句玩笑话。只管是玩笑话,但却反映了数据库内数据对企业的关键性。2020年的微盟事情就间接让香港主板上市公司微盟团体的市值一天之内蒸发超10亿元,数百万用户遭到间接影响。

以小编多年的数据库从业阅历而言,删库跑路事情不常有,但因大意造成的误删数据却略见不鲜。要么手误,要么颁布的代码存在bug,造成数据被误删,虽是无意,然而破坏力却也不小。

平均每两个月就会有一个相似上方的用户,向咱们的值班同窗寻求协助,复原误删的数据。

关于这些大意的马大哈,PolarDB-X是如何协助他们极速精准的找回失落数据,挽救他们气味奄奄的上班呢?

首先咱们依照操作类型,将误删数据的Case启动分类:

PolarDB-X针对上方几种不同的数据误删场景,打造了多项数据复原的才干,协助用户极速复原数据:

闪耀数据库技术的将来极光数据库
PolarDB-X才干 应答场景 配置简介
SQL闪回 行级误删 针对误删SQL的准确回滚才干
FlashbackQuery 行级误删 针对短期间内误操作的极速回退才干
RecycleBin 表级误删 针对DDL误操作的极速回滚才干
备份复原(PITR) 行级误删表级误删库级误删 针对各种误删,复原数据库至恣意期间点的必备才干

本文作为数据复原系列的第一篇,将重点引见PolarDB-X针对行级误删场景所打造的SQL闪回配置。其它的才干将在后续的文章中详细引见。

意外现场

首先,咱们以一个实践误删数据的意外收场。

咱们来梳理下意外的期间线:

接上去,围绕这一次性的数据误删意外,看看是PolarDB-X是如何挽救大意的小明的?

现有打算

在引见SQL闪回之前,咱们先方便了解下目前干流的数据库是怎样应答这种行级数据误删的。依照复原形式大抵可以分为如下两类:

复原数据至误删除前的期间

基于PITR

Point-in-timeRecovery(PITR):望文生义就是应用备份文件将数据库复原到过去恣意的期间点。目前干流的数据库都允许该才干。只管各家数据库PITR的成功形式不尽相反,然而全体的思绪还是分歧的,如下图所示:

首先依赖数据库的全量备份集将数据复原到过去备份时的期间点(理论每隔几天备份一次性),再依赖增量的数据变卦记载,复原数据至须要的期间点。PolarDB-X的PITR的成功思绪也是如此,不过由于散布式事务的存在,PolarDB-X还做了更多的上班来保证分片间的数据分歧性,这局部的上班将在后续的文章中详细引见。

有了PITR的才干后,一旦产生数据误删,最间接的想法便是经过PITR将数据库复原到数据被误删前的期间点,这种打算的好处是可以将数据库复原到用户须要的恣意期间点,然而也存在一些疑问

下图针对咱们的意外现场,给出了基于PITR复原到数据误删除前的示例图。从图中可以看出,复原到T2时辰,只管误删的数据找回来了,然而T2~T3范畴内反常的业务改变也失落了。

FlashbackQuery

针对PITR复原期间长的疑问,也有很多提升战略,其中比拟有代表的是Oracle以及PolarDB-X的FlashbackQuery配置。

Oracle的FlashbackQuery基于undo消息,间接从中读取数据的前镜像结构历史快照,将数据复原到误删除前的期间点。PolarDB-X的FlashbackQuery成功相似,也是应用undo表的消息,读取历史期间点的数据,不过相关于单机数据库,咱们在复原到过去期间点的时刻,还须要思考到不同数据分片间的数据分歧性,敬请等候后续的文章,此处就不倒退引见了。

上方咱们以Oracle为例对上方的场景启动说明。假设T2对应的期间点是:2021-04-0619:23:24,那么在Oracle中,经过FlashbackQuery配置,我只有要口头上方的SQL,便能查问到2021-04-0619:23:23时辰Employee表的数据:

基于查问到的误删除前的数据,用户便能极速复原数据。

FlashbackQuery这种基于Undo消息复原的形式,大大提高了数据复原的速度,同时也无需额外的存储空间,相关于PITR,复原效率更高。然而这种形式也存在两个疑问:

回滚误删除操作

既然数据库会经过增量日志来记载数据变卦,那么有没有或许间接经过增量日志来回滚误删除操作呢?答案是必需的,其中比拟有代表性的就是MySQL的BinlogFlashback工具。

当MySQL的binlogformat设置为rowmode的时刻,binlog中会记载数据行的变卦。

关于上图中的employee表,当我口头如下的delete语句删除了两行数据后,对应的binlog中的记载是如下图所示:

从上图中可以看到,binlog会记载下被delete语句删除的每行数据,update也是如此。

binlogflashback工具正式基于这样的消息,依照操作的期间范畴、操作类型将binlog中对应的数据变卦启动逆向,生成对应的回滚SQL,启动数据复原的。

例如关于上方的delete操作,口头的期间是22:21:00,那么咱们只有要在binlog中找到22:20:59~22:21:01之间的delete操作,并将其转换成对应的insert语句,如下所示,即可找回失落的数据。

这种基于增量日志回滚操作的复原形式,复原速度较快,且由于增量日志的保留期间较长,复原数据的时效性相关于Oracle的FlashbackQuery的形式也较长。然而这种形式也存在一些疑问:

从上图中看出,当咱们经常使用flashback工具对T2~T3范畴内的一切DELETE操作启动回滚的后,比实践须要复原的数据多出1行。假设须要复原数据的话,还须要启动人工比对,剔除这局部不须要复原的数据。而这局部人工剔除的上班往往也比拟耗时且容易出错。

主角退场-SQL闪回

PolarDB-XSQL闪回配置,从成功形式上看属于对误操作启动回滚。不过相关于现有的打算,提供了准确到SQL级的回滚才干以及易于上手的操作界面。

SQL级的回滚才干

何为准确到SQL级的回滚才干,即只针对误操作影响的数据前启动回滚,不影响业务反常的数据变卦。

雷同以上方的误删场景为例,咱们看下PolarDB-XSQL闪回是如何对误删操作回滚的?

首先每一条在PolarDB-X中口头的SQL都会调配惟一的身份证号(TraceID),这保证了一切的改变都是可以追溯的。

当咱们发现误删数据后,只有要依据误删除SQL的TraceID,经过SQL闪回即可准确的找到这条SQL误删除数据并启动回滚。如上图所示,咱们误操作的SQL的TraceID是:abcm321,那么依据这个身份证号,SQL闪回便能精准的找到被这条SQL误删除的数据,并生成相应的回滚SQL。

极速上手

说了这么多,SQL闪回在PolarDB-X中详细是如何经常使用的呢?SQL闪回提供了十分方便的操作形式,只有三步即可成功数据复原,充沛关照小明着急的心境。

2.SQL闪回页面填写误操作SQL口头的大抵期间范畴和TraceID,提交SQL闪回义务即可。

3.等候闪回义务成功下载复原文件启动数据复原即可。

总结

本文关键围绕数据误删中的行级误删状况,引见了PolarDB-X的SQL闪回是如何协助用户复原数据的。相关于现有的数据复原打算,SQL闪回的SQL级的回滚才干以及易于上手的操作界面能够协助用户愈加精准、愈加极速地复原误删数据。

当然,数据安保是一个永久的话题,针对不同的数据误删场景,PolarDB-X曾经打造了多项利器来保证用户的数据:PITR、RecycleBin、FlashbackQuery等等。后续的文章将对这些才干逐个引见,敬请等候~

参考资料


数据库未来展望

你也许无法相信未来数据管理产品的功能 因此让我们从目前数据库的一些新特性着手 一位年轻人因患某种相对罕见的流感而到医院就诊 这是检查医师本周遇到的第三个相似的病例 他需要更多的信息 困惑不解的医师取了血样并安排了其他一些程序 然后 他坐在计算机前面 (通过一个简单的图形用户界面)申请了一系列血样分析项目 并将结果与世界各地具有相似症状的患者进行比较 他还请求检索与该年轻人情况相似的患者的诊断 治疗和结果记录 然后 医师向疾病控制与预防中心(CDC)请求获得该病症发展的相关信息 几分钟后 医师就为其他患者找到了这种不寻常流感的治疗方法 该流感近期在污染程度较为严重的一些城市流行 这种情景能在今日成为可能吗?有可能(假如我们已拥有正确的科学分析和仿真工具包) 但要为此支付高级应用发展和系统配置所需的费用 数据管理早已发生变革以使类似情景切实可行 系统在更快 集成度更高 更易使用的同时增强功能 可扩展性和分布性 本文中 我将介绍数据管理行业今后几年酝酿的产品以及推进DB 优先发展的动力 复杂因素 当今的公司正面临不断增加的数据管理工作的挑战 越来越多的商务程序实现了自动化 更多的历史记录和分析工作被捕获并保存下来 新的规章制度正在改变商业模式 简言之 数据量在不断增加 用于处理孤立程序的专用系统必须连接起来以生成报表 例如 兼并和收购迫使商务程序(风险分析)和数据(客户信息)进行集成 不同的商业单位必须共享信息以获得新的收入增长点 而公司也必须与商业伙伴 供应商和客户交流信息 全球商务意味着管理分布式数据库并提供全天候的可用性 成本居高不下 经济停滞 竞争压力增加迫使企业提高运行效率 这通常意味着员工数量减少 同时管理的数据维护及访问任务的复杂性日益增加 当数据管理所带来的挑战日益增加时 信息的重要性就被提升到前所未有的高度 各种形式的信息——数据库 电子数据表 文档管理系统 文本文件 网页 图表和图像——就成为企业共同的财富 因此 对数据库和其他各种来源的数据进行管理的需求 以及为非IT专家的商业用户提供更便捷的方式访问这些数据的需求都在日益增加 更好的引擎 更多的数据需要存储 更多的业务需要处理 更多的分析需要完成 而且没有喘息时间 这些都期待着所有的数据管理要素继续改进 载入和检索速度 研究具有更快的载入和检索速度的存储方法仍将打头阵 快速数据访问研究包括新型索引(例如 能够迅速适应新数据类型的通用索引结构) 采用多维聚簇加速访问多维数据 该技术已在 DB Universal Database (UDB) v 中应用并将在后续的版本中继续使用 IBM 不断研发不同的存储方案以增加数据聚簇速度并加强对大对象的控制能力 对大量数据的高效查询 解决海量业务数据高效处理和复杂查询的工作也正在进行中 例如 IBM Almaden 研究中心开发了一种新方法 它通过采样获得数据的随机子集并根据该样本估计或外推解答 使系统能够更快地为复杂查询提供近似解答 该技术已应用在DB UDB v 测试基础版中 采样将以更快的速度获得更好的统计信息 帮助优化和不同的设计顾问 此外 为提高带有大量子查询和复杂操作内容(例如和外部关联和反关联)的查询性能所做的相关改进工作也在进行中 有望在某些类型的查询上取得重大飞跃 用以储存针对高频次查询的预先计算解答的具体化查询列表(MQT)可能被更广泛地采纳 目前 MQT 已经可用 并且正在扩展以储存更多的一般性查询解答 例如 DB v 能够储存关联结果 即使查询中并无集合体 查询引擎能够更好地自主决定何时使用 MQT 解答当前查询 用于提示系统何时创建 MQT 可能奏效的工具已出现 将来 数据库系统能够自主创建 MQT 并用于索引(如关联检索)和常用结果缓存中 当用于连接远程数据时(v 已采用) MQT 将发挥更大的作用 在大共享内存和非共享多处理器中 你将获得更多的分割数据(分区)选择和处理查询的新算法 提高可用性 业务压力要求适应更多环境的高可用性 热备用系统瞬时切换已成为高端配置的标准 并将更为普及 总之 用户可以从一系列的 服务质量 承诺中选择在性能 可用性以及费用之间所需的权衡 同时 通过使用减少冗余硬件和备份信息 研究和开发人员将使那些权衡更容易实现 IBM 还在研究对存在的问题进行早期探测和自动更正 分布式商务模型 关于电子商务的需要已有很多著述 如今 越来越多的公司使用Web服务器 应用 J EE NET 和 XML 的复杂混合体在网上从事商务活动 在该环境内外获取数据通常需要通过诸如 JDBC 这样的接口实现数据访问 并将结果转换为 XML 然后将 XML 打包作为Web服务响应 目前 可以这种方式转移数据 但这确实有些令人乏味 将来 数据库会被更加直接地植入Web 使其成为Web应用基础架构的无缝元件 数据管理和Web服务 数据库早已成为Web服务供应商 通过Web服务接口应答请求 不久它也将成为Web服务的消费者 也就是说 在查询过程中 它能够调用Web服务以返回所需信息 例如 在一次单步查询中 用户可以查找一个包含本地储存状况描述 首选供应商(从不同的本地列表) 可用性及价格信息的零件(通过Web服务发出向供应商的请求并返回当前信息) DB 早已显示出这种能力 目前 你不得不通过用户定义的函数在 SQL 语句中明确地调用Web服务 照此发展 你甚至可以将Web服务视为列表的别名从而能够透明地访问 应用开发和部署工具将随技术而发展 XML支持 数据及处理集成的基础即是对 XML 的稳定性支持 包括支持 XML 作为基本的数据类型 XML Extender 允许用户保存和检索 XML数据 通过它DB 能够支持 XML 将来 IBM 会在引擎中引入更多的这种支持以优化访问 目前 通过对SQL 语言(SQL/XML) 的标准化扩展 可以将关系数据以 XML 文件的形式返回 由此 可将数据以电子商务业务中数据交换所需的类型返回 所交换的文档可在 RDBMS 中安全储存 双语数据库 尽管 XML 显然将成为电子商务数据交换的标准 关系数据库并不会从此消失 仅支持 XML 的数据库并不能代替无处不在的关系系统 一部分原因是将全部数据进行转换所需的费用 另一部分原因是比 XML 数据库更为成熟的关系技术的出现 相反 未来的数据库能够为 XML 提供全面的关系能力和真正的本地支持 它们将在引擎中构建支持 XML 的存储管理和检索工具 而且既可使用 XML 语言查询即XQuery 又可使用 SQL 这种双语数据库可使用户按需要同时利用关系和 XML 的优势 以实施其最佳应用 IBM Xperanto 团队正在从事此项工作 分布式数据 信息集成 你已经了解到 XML 和 Web 服务是如何帮助你处理复杂的分布式商务模型 它们提供了一种分布式数据的集成方法 在不同的应用或企业之间交换数据 不过 有时却需要更为精细的数据集成 如今的企业通常是高度分布的 某个职能部门可能分散于好几个地点 某大型制药公司可能在几个不同国家都有研究实验室 实验室里的科学家们则需要共享实验和仿真信息 IBM 的数据管理开发团队就分布在四个国家的七个地点 并在世界各地其他一些地方也有相关的研究机构 开发者需要在这些不同工作地点之间共享所需的技术规范 代码 状态和信息 独立的机构会选择不同的基础架构 在某些盛行兼并和收购的行业里 功能相同的部门却拥有完全不同的 IT 基础架构 这并不少见 业务运转通常仍需在这些不同的地区和系统间共享信息 信息集成有多种机制 包括基于应用的集成 最常用的信息集成方法可能是 通过使用专门的应用实现对感兴趣的资源的硬连接访问 然后手动合并查询结果 应用集成框架 业务流程集成工作流程系统以及Web服务都为程序员提供高级提取服务 使其能够方便地从额外的来源获取数据 当然 合并数据(即执行关联)仍需手动编程 集中化的数据仓库对于那些需要复杂分析的应用 许多公司选择将需要的数据 拉入 (从数据来源处复制)单独的数据仓库(数据中心) 这样做可以使SQL 全身心 地投入到分析中 并且也无需通过应用处理分散的数据 数据联合造就虚拟数据库并不是所有的数据都能进入数据仓库 有时数据变化太快 有时该数据不为本企业所有(如归其商业伙伴或某一信息服务机构所有) 有时该数据的格式不对 不能存贮到关系型数据库系统中或被其搜索到 这时 DB 数据仓库和数据中心就可大显其道 IBM 杰出的技术可将那些各自为政的异构型分布数据源联合起来 数据联合让用户查询分布式数据时更为简便 就好像这些数据存贮在单一数据库中 同时应用也变得更简易并且拥有单一数据库的功能 而无需复制与维护成本 通过数据联合 应用可将底层数据存放到查询中 使这些功能不被再次执行(如果数据实际移动 这些功能会执行) 数据联合在客户机应用与数据之间增加了一个部件——层 这个特殊的层使得性能达到平衡 在查询过程中 数据存贮在不同点(没有合并)将可能产生网络延迟 借超级优化功能之东风 数据联合使得多种应用间的数据集成更为高效简捷 未来各种模型的融合信息集成很有可能成为大多数公司追逐的热点 你也许可以看见不同的技术成熟并且融合 某一特定集成问题的解决方案将涉及到数据仓库(用于可以存贮于关系型系统的关键数据)与数据联合(用于集成不适合数据仓库的数据)之间的集成 丰富的元数据设施简化了从不同的数据源中映射 清除数据 同时简化了将数据关联在一起的过程 lishixinzhi/Article/program/Oracle//

学习数据库(sql),将来我可以找到什么样的工作呢?

上网查查不就知道了吗?DBA数据库管理员,数据库开发,PL/SQL工程师,SAP,ERP,数据分析,数据挖掘,数据建模下面是我网上看到的,人家的baidu:粘帖点给你,CSDN论坛上看到的,希望能帮助你。 前面四种: 数据库应用开发 (application development) 除了基本的SQL方面的知识,还要对开发流程,软件工程,各种框架和开发工具等等 数据库应用开发这个方向上的机会最多,职位最多,薪水一般 数据建模专家 (data modeler) 除了基本的SQL方面的知识,非常熟悉数据库原理,数据建模 负责将用户对数据的需求转化为数据库物理设计和物理设计 这个方向上在大公司(金融,保险,研究,软件开发商等)有专门职位, 在中小公司则可能由程序员承担。 商业智能专家 (business intelligence - BI) 主要从商业应用,最终用户的角度去从数据中获得有用的信息, 涉及OLAP (online analytical processing) 需要使用SSRS, cognos, crystal report等报表工具,或者其他一些数据挖掘,统计方面的软件工具 这个方面我不熟悉,不敢乱说(以免被拍砖,呵呵) 数据构架师 (Data Architect) 主要从全局上制定和控制关于数据库在逻辑这一层的大方向, 也包括数据可用性,扩展性等长期性战略, 协调数据库的应用开发,建模,DBA之间的工作。 这个方向上在大公司(金融,保险,研究,软件开发商等)有专门职位, 在中小公司或者没有这个职位,或者由开发人员,DBA负责。 前面五种: 数据库管理员 (database administrator - DBA) 数据库的安装,配置,调优,备份/恢复,监控,自动化等, 协助应用开发(有些职位还要求优化SQL,写存储过程和函数等) 这个方向上的职位相对少一些,但一般有点规模的公司还是会有这样的职位 数据仓库专家 (data warehouse - DW) 应付超大规模的数据,历史数据的存储,管理和使用, 和商业智能关系密切,很多时候BI和DW是放在一个大类里面的, 但是我觉得DW更侧重于硬件和物理层上的管理和优化。 存储工程师 (storage engineer) 专门负责提供数据存储方案,使用各种存储技术满足数据访问和存储需求, 和DBA的工作关系比较密切。 对高可用性有严格要求(比如通信,金融,数据中心等)的公司通常有这种职位, 这种职位也非常少。 性能优化工程师 (performance engineer) 专长数据库的性能调试和优化,为用户提供解决性能瓶颈方面的问题。 我知道至少IBM, 微软和Oracle都有专门的数据库性能实验室(database performance lab), 也有专门的性能优化工程师,负责为其数据库产品和关键应用提供这方面的技术支持。 对数据库性能有严格要求的公司(比如金融行业)可能会有这种职位。 因为针对性很强,甚至要求对多种数据库非常熟悉,所以职位极少。 高级数据库管理员 (senior DBA) 在DBA的基础上,还涉及上面3种职位的部分工作,具体包括下面这些: 对应用系统的数据(布局,访问模式,增长模式,存储要求等)比较熟悉。 对性能优化非常熟悉,可以发现并优化从SQL到硬件I/O,网络等各个层面上的瓶颈 对于存储技术相对熟悉,可能代替存储工程师的一些工作, 对数据库的高可用性技术非常熟悉(比如MSSQL的集群,ORACLE RAC/FailSafe, IBM的DPF, HADR等) 对大规模数据库有效进行物理扩展(比如表分区)或者逻辑扩展(比如数据库分区,联合数据库等) 熟悉各种数据复制技术,比如单向,双向,点对点复制技术,以满足应用要求。 灾难数据恢复过程的建立,测试和执行 这种职位一般只在对数据库要求非常高并且规模非常大(比如金融,电信,数据中心等)的公司需要, 而且这种公司一般有一个专门独立负责数据库的部门或组。 这种职位非常少。

从云原生数据库服务到新型“数联网”基础设施

作者 石默研

新型“数联网”基础设施

2020年4月,《中共中央国务院关于构建更加完善的要素市场化配置体制机制的意见》(下称《2020数据要素意见》)发布以来,数据要素的市场价值日益受到重视。同时,长期的实践证明,数据要素的威力,大多数情况下源于对多源数据的融合分析,单一组织靠自身积累往往难以聚集足够价值的数据,因此,只有通过数据跨域流通与共享开放才能真正发挥大数据的应用价值。如银行、保险、政府、电商等等行行业业,已经有了强烈、广泛的数据跨域集成与融合的市场需求。另一方面,随着数字化的深入发展,信息技术已经开始从助力经济发展的辅助工具向引领经济发展的核心引擎转变,大数据资源应该向资产升级,对“数字经济”新范式产生更加直接的驱动作用。而大数据资源向资产升级的关键则是高效、安全的互联互通、精确的计量计价及数据所有权、使用权的市场化清晰界定。

于是,“数据要素互联互通网络”数联网成为国家乃至国际一项重要的新型互联网基础设施与创新业态诉求,有着重大的 社会 价值与广阔的市场空间。

2. 云原生数据库服务

云原生数据库,是支撑现代数据服务的主体设施,它生于云上,长于云上,对外形成按需获取的DBCloud形态,使用者无需关心数据计算与存储的具体细节,无需为部署、运维、扩缩等工作付出精力,无需对数据计算的模态(AP,TP,流,图等)做出额外的规划与设计,无需区分所选择云计算基础设施IaaS的特性与区别,只需要向云原生数据库DBCloud的运营者申请使用相应的服务即可,这是现代数据库技术与服务发展的必然方向。毫无疑问,在不久的将来,全球越来越多的数据服务将在云上,包括多云、跨云的环境中以平台化的方式实现。由于云计算环境所带来的强大算力与各项能力,数据服务平台化必将极大地推动与加速各行业业务数字化转型升级的进程,而云原生数据库也必将成为新数字化时代一项关键的公共IT基础设施。

3. 从数据库平台服务到新一代互联网基础设施“数联网”

关于数据流通互联基础设施“数联网”,相当长一段时间以来,国内外已经有很多建设与运营的尝试,在我国主要就是各级政府主导的“大数据交易中心”,从2014年起就开始启动,经历了2014-2016年“第一次浪潮”后,于2017-2019年处于“停滞期”,运营实践看,整体成交量远低于预期。原因主要在于数据所有权与使用权属难以界定,隐私、安全与共享之间的矛盾越来越明显。一方面跨域数据共创需求越来越迫切,另一方面,数据的无序流通,又可能导致隐私保护与数据安全的重大风险,必须加以规范与限制。无论是国际还是国内,日趋严格的“数据安全法”“信息保护法案”不断出台,在客观上增加了数据流通的成本,降低了数据综合利用的效率;而大数据价值的精确计量计价也难以实现,不能有效体现数据的资产属性。如何兼顾发展与安全,平衡效率与风险,准确衡量价值,是全世界在大数据治理中一直面临的共同课题,也导致规范高效的数据流通市场始终未能形成。

而中央的《2020数据要素意见》,首次明确了培育数据要素市场的目标和定位,随之有关数据安全、信息保护的法案以及技术系列标准等相继发布,为促进数据流通规范化运作提供了政策制度基础;同时,“数据可用不可见、用途可控可计量”的隐私安全计算技术与创新模式也蓬勃发展并成熟起来,为解决隐私安全问题及数据资产化提供了坚实的技术基础。因此,自2020年至今,以新兴技术驱动“数据使用价值流通”新模式的数据要素流通市场迎来“第二次浪潮”,新一轮建设再次启动,全国一年来共有6家新型数据资产交易中心开始筹备建设,其中北数所等2家新型示范已正式投入运营。隐私安全计算技术采用数据不动、算法流动的策略,在数据不出域的情况下,安全地达到数据跨域联合计算的目的。虽然目前该组技术的成熟度与标准化程度还有待提高,在相当范围内也有炒作的成份,但在强烈需求与趋势的驱动下,发展很快,前景极为可期。

应该可以看到:采用“数据使用权”而不是“所有权”交易实现跨域流通,对数据访问按量计价的新模式同时也给云原生数据库服务带来新的商业发展契机,原因很简单:数据库本身就是以提供数据使用服务为天职的!

仔细调研与分析还会发现,当前政府主导的新型数据资产交易所对“数据使用权”流通模式的尝试,基本还在“雷声大,雨点小”的阶段,至今实效依然甚微!这除了可能还需要一定的市场培育周期以外,本文认为一个最重要的原因是:凭空而生的数据交易所,并没有直接沉淀客户数据的条件,运营只能靠“借鸡生蛋”,而正在发生的事实也正是如此:大都以授权政府数据公开运营为起点,然后大力“邀请”各种数据资源拥有者上平台,培育数据流通生态圈。然而,多数情况下,一是静态政务数据的实用价值很有限(例如对金融风控),二是真正有价值的产业活数据与公民行为数据拥有者(在其自有数据库中)上交易平台的程序非常繁杂,意愿较低......。同时,现阶段在技术体系上,新型交易所主要依赖隐私计算,对数据库总体采用松散繁杂的集成方案对接,就是说,目前还没有系统重视数据库的技术定位。

本文认为,首先,从技术上讲,云原生数据库融入隐私安全计算甚至更广泛的跨域安全计算手段,并没有太大的瓶颈,还可以方便地承担可信安全中介的角色,却会赋予数据资源拥有者最便利的“数据使用权”共享能力。更重要的是,当云计算环境下的数据服务平台化成为全球化趋势后,全 社会 范围内大多数的数据库服务都将由云原生数据库平台运营者所承担,它就自然建立了最广泛丰富的“数据流通生态圈”,天然拥有提供“数据跨域流通互联”服务的各种有利条件。而云原生数据流通显然是目前数据要素市场化领域需求与商业前景最为强烈的可运营业务之一,如果云原生数据库服务运营者借其固有优势,同时运营数据要素流通业务,必将在技术效能与商业模式上超越现存的各种模式,对政府主导、靠“借鸡生蛋”现有市场带来巨大的挑战,甚至是终结。

进一步讲,这种能力的提供,不仅可以最大限度地挖掘与发挥数据要素的价值与红利,还可以极大地加速各行业、各组织对云原生数据库平台服务的消费需求,两种因素又会相互促进,从而使云原生数据库服务成为将来数据要素市场化的新标准,自然进化为新一代互联网基础设施“数联网”本身。

标签: 数据复原数据库SQL

本文地址: https://yihaiquanyi.com/article/6200cdc25b232faef37a.html

上一篇:极地数据库数据存储的新潮选用极地资源共享...
下一篇:跟帖快速了解如何有效参与讨论并建立有意义...

发表评论