Clickhouse-server与MySQL实时复制配置引擎MaterializeMySQL

摘要: 数据复制原理:ClickHouse 可以挂载为 MySQL 的一个从库 ,先全量再增量的实时同步 MySQL 数据,基于它我们可以轻松的打造一套企业级解决方案,让 OLTP 和 OLAP 的融合。目前支持 MySQL 5.6/5.7/8.0 版本,兼容 Delete/Update 语句,及大部分常用的 DDL 操作。安装软件版本:[root@node220 clickhouse-server]# rpm -qa | grep clickhouseclickhouse-server-20.10.3.30-2.

 Redis数据导入导出

摘要:安装redis-dumpredis-dump是基于ruby开发,需要ruby环境,而且新版本的redis-dump要求2.2.2以上的ruby版本,centos中yum只能安装2.0版本的ruby。需要先安装ruby的管理工具rvm安装高版本的ruby安装rvm可参考官网:http://rvm.io/执行下列两个命令安装rvm;# gpg --keyserver hkp://keys.gnupg.net --recv-keys 409B6B1796C275462A1703113804BB82D39DC0E3 7D2BAF1CF37B13E2069D69

 通过Zabbix-5.0.1监控Clickhouse-server配置详解

摘要:一、配置环境:system:[root@clickhouse zabbix_agentd.d]# uname -aLinux clickhouse 3.10.0-957.el7.x86_64 #1 SMP Thu Nov 8 23:39:32 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux[root@clickhouse zabbix_agentd.d]# cat /etc/redhat-releaseCentOS Linux release 7.6.1810 (Core) zabbix-server[agent]: 5.0.1clickhouse-server 20.11.4.13-2.noarch二、前期准备1)xml

 Linux伤不起的OOM,进程避免被OOM的方法

摘要:线上系统CPU,内存,硬件占用都很底,但就是会死机,SSH都无法连接,通过/var/log/messages查看到很多oom-killer的输出,原来单个进程占用太多的内存,被内核无情的KILL掉了,哎...赶紧脑补一下OOM:Linux 内核有个机制叫OOM killer(Out-Of-Memory killer),该机制会监控那些占用内存过大,尤其是瞬间很快消耗大量内存的进程,为了防止内存耗尽而内核会把该进程杀掉。典型的情况

 战斗民族开源OLAP利器-ClickHouse列式数据库安装配置

摘要:安装前准备:单机版和集群版都需要配置:在/etc/security/limits.conf,/etc/security/limits.d/90-nproc.conf,在2个文件的末尾加入以下内容:vim  /etc/security/limits.conf* soft nofile 65535* hard nofile 65535* soft nproc  131072* hard nproc 131072vim /etc/security/limits.d/90-nproc.conf* soft nofile 65535* hard nofile 65535* soft nproc  1310

 MongoDBv4.0.18 Sharding 高可用集群搭建 (CentOS7.2)全网独有

摘要:从图中可以看到有四个组件:mongos、config server、shard、replica set。mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作。config se

 MongoDBv4.0.18 replica set 高可用集群搭建 (CentOS7.6)全网独有

摘要:单节点mongodb软件安装配置:配置环境: [root@node250 ~]# uname -a Linux node250 3.10.0-957.el7.x86_64 #1 SMP Thu Nov 8 23:39:32 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux [root@node250 ~]# cat /etc/redhat-release CentOS Linux release 7.6.1810 (Core) 节点功能清单: 功能节点       主机名:    &n

 CentOS6,CentOS7 源码编译安装svn-1.6.11

摘要:参考文档:官方安装文档,安装方法已经制作成一键安装脚本位于码云。git clone https://gitee.com/vazd/subversion-installer.git运行install_svn.sh即可完成安装。一、安装必备组件依赖项:yum install autoconf libtool expat-devel -y1.1 安装apr和apr-utilapr全名Apache Portable Runtime,必需的依赖项。下载地址:apr和apr-util下载地址# 安装aprwget http://mirrors.tun

 MongoDB分库分集合备份SHELL脚本全解

摘要:运行环境:[root@node10 ~]# uname -aLinux node10 2.6.32-696.el6.x86_64 #1 SMP Tue Mar 21 19:29:05 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux[root@node10 ~]# cat /etc/redhat-release CentOS release 6.9 (Final)1.多个数据库备份脚本[root@node10 Mongodb_shell_scripts]# cat get_mongodb_dbs.sh#!/bin/bash/usr/bin/mongo  127.0.0.1:27017/admin -u admin&

 gitlab项目URL点击报错404的解决方法

摘要:之前创建了项目之后,今天重启了服务器,点击项目URL报错404谷歌了很多资料,最后觉得靠谱的还是缓存问题,按照下面小哥的方法清了下缓存,就可以了A gitlab-rake cache:clear solves this issue immediately, so the problem is apparently an incoherent cache.It is reproducible, a formerly renamed or deleted project triggers the cached 404.原文的连接如下:https://
分页:« 1 2 3 4 5 6 7 8 9 10 »
Powered by AKCMS