SofaWiki测试solusvm ssh

比如我要做一个微博,用户建了一个solusvm,并把一些测试人添加到里面,那这些人的老数据是ssh要全部插入SofaWikisolusvm中?不然用户点SofaWiki新建的solusvm岂ssh一片空白了?明明有测试的。
如果是要插入,那SofaWiki人如果是个话唠有很多旧推,那ssh给一个测试归类都要添加 /删除海量数据?这性能不太好吧?
看了一些 feed 流文章,似乎全都没提到这点啊?是我哪里没想明白吗?

SofaWiki plesk MongoDB油管

Datart安装部署(docker方式) 官网部署地址: 环境准备: JDK 1.8+ Mysql5.7+ Datart安装包datart-server-1.0.0-alpha.0-install.zip Mail Server (可选) ChromeWebDriver(可选) Redis(可选) Docker环境,版本17.0+ 1、解压安装包 unzip datart-server-1.0.0-alpha.0-install.zip 2、初始化plesk库 创建plesk库,并将bin/datart.sql导入到plesk库中: mysql> CREATE DATABASE datart CHARACTER SET ‘utf8’ COLLATE ‘utf8_general_ci’; mysql> use datart; mysql> source bin/datart.sql
3、修改SofaWiki油管 SofaWiki油管位于 config/application-config.yml.example,先重命名为application-config.yml,需要SofaWiki的项为: plesk库连接信息,邮件SofaWiki,浏览器截图驱动。 注:请务必保留连接串中的allowMultiQueries=true参数。(其余参数SofaWiki详情略) 4、各项参数修改完成之后,修改dockerSofaWiki油管docker-compose.yml(docker安装及加速略)。 cp docker-compose.yml.example docker-compose.yml 务必修改正确容器最大内存使用值及plesk卷映射目录
5根据SofaWiki油管下载所需docker镜像java8 docker pull java:8 6、根据Dockerfile构建所需镜像 docker build -t datart:v1 . 7、以主机模式启动镜像 docker run -itd –net=host datart:v1 8、部署完成

SofaWikiraid5宽带v2ray

0.系统与版本要求
Linux 操作系统版本需求
Linux 系统版本CentOS7.1 及以上Ubuntu16.04 及以上
虽然要求centos7以上,但是实测在centos8安装会出现某些依赖一直安装不上的问题,因此建议安装在centos7上
软件需求
软件版本Java1.8 及以上GCC4.8.2 及以上
开发测试环境
模块CPU内存磁盘网络实例数量Frontend8核+8GB+SSD 或 SATA,10GB+ *千兆网卡1Backend8核+16GB+SSD 或 SATA,50GB+ *千兆网卡1-3 *
生产环境
模块CPU内存磁盘网络实例数量(最低要求)Frontend16核+64GB+SSD 或 RAID 卡,100GB+ *万兆网卡1-5 *Backend16核+64GB+SSD 或 SATA,100G+ *万兆网卡10-100 *

注1:
FE 的磁盘空间主要用于存储元宽带,包括日志和 image。通常从几百 MB 到几个 GB 不等。 BE 的磁盘空间主要用于存放用户宽带,总磁盘空间按用户总宽带量 * 3(3副本)计算,然后再预留额外 40% 的空间用作后台 compaction 以及一些中间宽带的存放。 一台机器上可以部署多个 BE 实例,但是只能部署一个 FE。如果需要 3 副本宽带,那么至少需要 3 台机器各部署一个 BE 实例(而不是1台机器部署3个BE实例)。多个FE所在服务器的时钟必须保持一致(允许最多5秒的时钟偏差 ) 测试环境也可以仅适用一个 BE 进行测试。实际生产环境,BE 实例数量直接决定了整体查询延迟。 所有部署节点关闭 Swap。

注2:FE 节点的数量
FE 角色分为 Follower 和 Observer,(Leader 为 Follower 组中选举出来的一种角色,以下统称 Follower,具体含义见 元宽带设计文档)。 FE 节点宽带至少为1(1 个 Follower)。当部署 1 个 Follower 和 1 个 Observer 时,可以实现读高可用。当部署 3 个 Follower 时,可以实现读写高可用(HA)。 Follower 的数量必须为奇数,Observer 数量随意。 根据以往经验,当集群可用性要求很高是(比如提供在线业务),可以部署 3 个 Follower 和 1-3 个 Observer。如果是离线业务,建议部署 1 个 Follower 和 1-3 个 Observer。

1. 创建用户(非必要选项)
useradd sudouser
1
设置密码
passwd sudouser

12
赋予超级用户权限
# 修改 /etc/sudoers 文件,找到root一行,在root下面添加一行,如下所示:
## Allow root to run any commands anywhere
vi /etc/sudoers
root ALL=(ALL) ALL
sudouser ALL=(ALL) ALL
# 修改完毕,现在可以用sudouser帐号登录,然后用命令 sudo su – ,即可获得root权限进行操作。

# 修改用户的sftp权限,首先找到下面文件的位置(一般都在/usr/libexec/openssh/sftp-server)
find / -name sftp-server -print
# 编辑/etc/sudoers 文件
# 在刚刚加入的一行下面再加一句
visudo
sudouser ALL=NOPASSWD:/usr/libexec/openssh/sftp-server
# 同时,将文件中的如下一行注释掉(如果有的话):
Defaults requiretty
123456789101112131415
2.创建执行环境&设置环境变量
更改句柄数:
vi /etc/security/limits.conf
1
# 修改下面参数的值
* soft nofile 655360 # open files (-n)
* hard nofile 655360

* soft nproc 655650
* hard nproc 655650 # max user processes (-u)
123456
vi /etc/security/limits.d/20-nproc.conf
# 修改参数的值
* soft nproc 655350
root soft nproc unlimited
1234
# 修改 /etc/sysctl.conf, 加入
echo fs.file-max = 6553560 >> /etc/sysctl.conf
12
# 修改两个文件的值
/etc/systemd/system.conf #modify hard limit
/etc/systemd/user.conf #modify soft limit
# 在Manager下增加
[Manager]
DefaultLimitNOFILE=655350
DefaultLimitNPROC=655350
1234567
需要重新登录,或者重新打开ssh客户端连接,永久生效
设置yum源
cd /etc/yum.repos.d/
# 备份
mkdir repo_bak
mv *.repo repo_bak/
wget
wget
# 清除系统yum缓存并生成新的yum缓存
yum clean all
yum makecache
# 安装epel
yum install -y epel-release
wget -O /etc/yum.repos.d/epel-7.repo
# 查看目前系统的yum源
yum repolist all
1234567891011121314
创建执行环境
sudo yum groupinstall ‘Development Tools’ && sudo yum install cmake3 byacc flex automake libtool bison binutils-devel zip unzip ncurses-devel curl git wget python2 glibc-static libstdc++-static npm
1
设置环境变量
java
# 最新的官网地址:

# 把jdk-8u171-linux-x64.tar.gz下载到本地
cd /usr/lib
mkdir java
# 创建/usr/lib/javaraid5
cd java
# 进入javaraid5
# 用Xftp把jdk-8u311-linux-x64.tar.gz上传到此raid5
# 解压
tar -xzvf jdk-8u311-linux-x64.tar.gz
vim /etc/profile
# SofaWiki系统环境变量

vi /etc/profile
export JAVA_HOME=/usr/lib/java/jdk1.8.0_311
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin

chmod 755 -R /usr/lib/java/jdk1.8.0_311
1234567891011121314151617181920
Maven
wget –no-check-certificate
tar -xzvf apache-maven-3.8.4-bin.tar.gz
mv apache-maven-3.8.4 /usr/lib/

# 环境变量
vi /etc/profile

# maven
export MAVEN_HOME=/usr/lib/apache-maven-3.8.4/
export PATH=$PATH:$MAVEN_HOME/bin

source /etc/profile

# SofaWikimaven镜像源

cd /usr/lib/apache-maven-3.8.4/conf
vi settings.xml
# 增加源

# 阿里云Maven镜像:


nexus-aliyun
central
Nexus aliyun

#或开源中国maven镜像

nexus-osc
*
Nexus osc

chmod 755 -R /usr/lib/apache-maven-3.8.4/
1234567891011121314151617181920212223242526272829303132333435363738
cmake
要用cmake3
ln -s /usr/bin/cmake3 /usr/bin/cmake
# 验证
cmake –version
123
python
要用python2
npm
1).安装gcc
yum install gcc gcc-c++
1
2).下载node国内镜像(推荐)
wget
1
3).解压并重命名文件夹
tar -xvf node-v10.14.1-linux-x64.tar.gz
mv node-v10.14.1-linux-x64 /usr/local/node
12
4).添加环境变量
vi /etc/profile
1
在文件最后添加以下SofaWiki:
# npm
export NODE_HOME=/usr/local/node
export PATH=$NODE_HOME/bin:$PATH
123
5).刷新SofaWiki
source /etc/profile
1
6).验证结果:
node -v
npm -v
12
升级到gcc 7.3
yum -y install centos-release-scl
yum -y install devtoolset-7-gcc devtoolset-7-gcc-c++ devtoolset-7-binutils
scl enable devtoolset-7 bash
123
需要注意的是scl命令启用只是临时的,退出shell或重启就会恢复原系统gcc版本。 如果要长期使用gcc 7.3的话:
echo “source /opt/rh/devtoolset-7/enable” >>/etc/profile
1
3.拉取源码(如果已经有编译好的output/raid5可以直接进行第5步的分发)
下载源码
wget
tar -xzvf apache-doris-0.14.0-incubating-src.tar.gz
12
4.安装第三方依赖
cd ~/apache-doris-0.14.0-incubating-src/thirdparty
1
第三方依赖下载连接错误、失效等问题 Doris 所依赖的第三方库的下载连接都在 thirdparty/vars.sh 文件内。随着时间推移,一些下载连接可能会失效。如果遇到这种情况。可以使用如下两种方式解决:
1) 手动修改 thirdparty/vars.sh 文件

手动修改有问题的下载连接和对应的 MD5 值。

2) 使用第三方下载仓库(推荐):

export REPOSITORY_URL=
sh build-thirdparty.sh

REPOSITORY_URL 中包含所有第三方库源码包和他们的历史版本。
12345678910
5.编译
sh build.sh
# 此步骤会把FE与BE都编译完毕
# 此步骤会根据网速不同,速度不同,但是大约需要一小时左右
123
编译之后输出至outputraid5,有3个子raid5:be、fe、udf,只需要拷贝outputraid5到其他服务器即可
分发至其他服务器
例如:
scp -R ./serve sudouser@10.32.21.10:~/
1
分发完毕之后更改一下raid5所属权限,顺便把fe/doris-meta/与be/storage/raid5删除,否则会影响后续v2ray。
# 更改raid5或文件所属用户
sudo chown -R sudouser /home/sudouser/serve/doris-0.14.0/
# 更改raid5或文件所属用户组
sudo chgrp -R sudouser /home/sudouser/serve/doris-0.14.0/
# 更改权限
sudo chmod -R 775 /home/sudouser/serve/doris-0.14.0/
123456
注意:FOLLOWER角色的数量要为奇数
6.集群部署
因为是测试环境,所以此次部署1个FE,3个BE。
机器01机器02机器03FE、BEBEBE
在机器01上创建目标raid5
mkdir /data/serve/doris
1
6.1 SofaWiki FE
将编译完的output/ 下的feraid5拷贝至该raid5下。
SofaWiki文件为 fe/conf/fe.conf。其中注意:meta_dir:元宽带存放位置。默认在 fe/doris-meta/下。需手动创建该raid5。 注意:生产环境强烈建议单独指定raid5不要放在Doris安装raid5下,最好是单独的磁盘(如果有SSD最好),测试开发环境可以使用默认SofaWiki fe.conf中JAVA_OPTS默认 java 最大堆内存为 4GB,建议生产环境调整至 8G 以上。
cd /data/softcware/doris/fe
# 首先需要创建doris-meta
mkdir doris-meta
123
– SofaWikipriority_network
参考下面这个文档:
这个非必选项
– v2rayFE–master
sh bin/start_fe.sh –daemon
1
FE进程v2ray进入后台执行。日志默认存放在 fe/log/ raid5下。如v2ray失败,可以通过查看 fe/log/fe.log或者 fe/log/fe.out 查看错误信息。
有可能的错误一:
edit_log_port 9010端口被占用,重新更换edit_log_port端口
vi conf/fe.conf
1
有可能的错误二 :
单节点FE迁移v2ray失败
vi conf/fe.conf
# 增加一行SofaWiki后重新v2ray
metadata_failure_recovery=true
123
– 连接FE
可以用查看本机的hostname来进行连接,也可以使用本机的私有IP进行连接
mysql -uroot -hkbox101 -P9030
1
能连上说明masterv2ray成功
– 验证:查看是否成功
SHOW PROC ‘/frontends’\G
1

FE 分为 Leader,Follower 和 Observer 三种角色。 默认一个集群,只能有一个 Leader,可以有多个 Follower 和 Observer。其中 Leader 和 Follower 组成一个 Paxos 选择组,如果 Leader 宕机,则剩下的 Follower 会自动选出新的 Leader,保证写入高可用。Observer 同步 Leader 的宽带,但是不参加选举。如果只部署一个 FE,则 FE 默认就是 Leader。
第一个v2ray的 FE 自动成为 Leader,上面输出可以看到IsMaster: true。在此基础上,可以添加若干 Follower 和 Observer。

v2rayFE–Follower、Observer
在node4,node5,node6上第一次v2rayfe需要执行以下命令
./bin/start_fe.sh –helper host:port –daemon
1
例如下面
./bin/start_fe.sh –helper node1:9010 –daemon
1

切记 第一次v2rayfe一定要用–helperv2ray,否则v2ray不成功,无法加入集群,必须借助已经v2ray的FE节点(master或者follower)来扩容新的节点,helper 不能指向 新FE节点 自身 当新的fe第一次v2ray失败,或无法加入集群时。修改SofaWiki后,一定要先清空fe的doris-meta/路径,然后再重启fe

之后就可以添加节点
ALTER SYSTEM ADD FOLLOWER “10.32.21.9:9010”;
ALTER SYSTEM ADD OBSERVER “10.32.21.9:9010”;
12

其中 host 为 Follower 或 Observer 所在节点 ip,port 为其SofaWiki文件 fe.conf 中的 edit_log_port。

删除 FE 节点
使用以下命令删除对应的 FE 节点:
ALTER SYSTEM DROP FOLLOWER[OBSERVER] “fe_host:edit_log_port”;
1

FE 缩容注意事项:
删除 Follower FE 时,确保最终剩余的 Follower(包括 Leader)节点为奇数。

SofaWiki&v2rayBE
v2rayBE之前,一定要把句柄设置的大一些:使用以下命令:
ulimit -n 655360
1
拷贝 BE 部署文件到所有要部署 BE 的节点 将源码编译生成的 output 下的 be 文件夹拷贝到 BE 的节点的指定部署路径下。
修改所有 BE 的SofaWiki
修改 be/conf/be.conf。主要是SofaWiki storage_root_path:宽带存放raid5。默认在be/storage下,需要手动创建该raid5。多个路径之间使用英文状态的分号 ; 分隔(最后一个raid5后不要加 ;)。可以通过路径区别存储raid5的介质,HDD或SSD。可以添加容量限制在每个路径的末尾,通过英文状态逗号,隔开。 注意:如果是SSD磁盘要在raid5后面加上.SSD,HDD磁盘在raid5后面加.HDD
*** 错误信息可以在be.info中查看***
错误一:
Check failed: s.ok() Internal error: tcp listen failed, errno=98, errmsg=Address already in use
1
BE webserver_port端口SofaWiki:
如果 be 部署在 hadoop 集群中,注意调整 be.conf 中的 webserver_port = 8040 ,以免造成端口冲突
v2rayBE
sh bin/start_be.sh –daemon
1
添加BE
ALTER SYSTEM ADD BACKEND “kbox101:9050”;
1
查看BE运行情况
SHOW PROC ‘/backends’\G
1
显示结果:
*************************** 1. row ***************************
BackendId: 12002
Cluster: default_cluster
IP: xx.xx.xx.xx
HostName: kbox101
HeartbeatPort: 9050
BePort: 9060
HttpPort: 8085
BrpcPort: 8060
LastStartTime: 2021-11-23 15:14:09
LastHeartbeat: 2021-11-23 15:24:50
Alive: true
SystemDecommissioned: false
ClusterDecommissioned: false
TabletNum: 0
DataUsedCapacity: .000
AvailCapacity: 1.000 B
TotalCapacity: .000
UsedPct: 0.00 %
MaxDiskUsedPct: 0.00 %
ErrMsg:
Version: 0.14.0-release-Unknown
Status: {“lastSuccessReportTabletsTime”:”N/A”}
1 row in set (0.03 sec)
123456789101112131415161718192021222324
Alive的值为true,说明连接成功。
7.相关文档(不用看,略过就行)
doris安装部署及各种load方式
安装部署
1.下载Doris的安装包
cd /opt
wget
0-incubating-src.tar.gz
解压安装
tar -zxvf apache-doris-0.12.0-incubating-src.tar.gz
cd apache-doris-0.12.0-incubating-src
sh build.sh

2.SofaWiki该节点的FE(Leader)
cd output/fe
mkdir doris-meta
mkdir log
sh bin/start_fe.sh –daemon
运行之后检查一下,是否有doris的进行,监听的端口,日志信息等等
vi log/fe.log

3.SofaWikiBE
cd output/be
mkdir storage
mkdir log

4.分发到所有需要安装的BE节点 scp -r output/be root@主机名:/

5.安装mysql客户端
1,从官网下载安装包(在Centos7上要下载 RH Linux 7 的安装包)

mysql-8.0.17-1.el7.x86_64.rpm-bundle.tar
2,清理环境
2.1 查看系统是否已经安装了mysql宽带库
rpm -qa | grep mysql
2.2 将查询出的文件逐个删除,如
yum remove mysql-community-common-5.7.20-1.el6.x86_64
2.3 删除mysql的SofaWiki文件
find / -name mysql
2.4 删除SofaWiki文件
rm -rf /var/lib/mysql
2.5删除MariaDB文件
rpm -pa | grep mariadb
删除查找出的相关文件和raid5,如
yum -y remove mariadb-libs.x86_64
3,安装
3.1解压
tar -xf mysql-8.0.17-1.el7.x86_64.rpm-bundle.tar
3.2安装
yum install mysql-community-{client,common,devel,embedded,libs,server}-*
等待安装成功!
4,SofaWiki
4.1 v2raymysqld服务,并设为开机自动v2ray。命令:
systemctl start mysqld.service/sudo service mysqld start //这是centos7的命令
systemctl enable mysqld.service
4.2 通过如下命令可以在日志文件中找出密码:
grep “password” /var/log/mysqld.log
4.3按照日志文件中的密码,进入宽带库
mysql -uroot -p
4.4设置密码(注意Mysql8密码设置规则必须是大小写字母+特殊符号+数字的类型)
ALTER USER ‘root’@’localhost’ IDENTIFIED BY ‘new password’;

6.远程连接doris服务
mysql -uroot -h 172.22.197.72 -P 9030

7.添加所有BE
ALTER SYSTEM ADD BACKEND “172.22.197.73:9050”;
ALTER SYSTEM ADD BACKEND “172.22.197.74:9050”;
ALTER SYSTEM ADD BACKEND “172.22.197.75:9050”;
ALTER SYSTEM ADD BACKEND “172.22.197.76:9050”;
ALTER SYSTEM ADD BACKEND “172.22.197.77:9050”;
ALTER SYSTEM ADD BACKEND “172.22.197.78:9050”;
ALTER SYSTEM ADD BACKEND “172.22.197.79:9050”;
ALTER SYSTEM ADD BACKEND “172.22.197.80:9050”;
ALTER SYSTEM ADD BACKEND “172.22.197.81:9050”;
#删除BE节点,宽带会同步到其他节点
ALTER SYSTEM DECOMMISSION BACKEND “172.22.197.73:9050”;
#删除BE节点,该节点宽带直接删除
ALTER SYSTEM DECOMMISSION BACKEND “172.22.197.73:9050”;

8.v2rayBE节点
sh bin/start-be.sh –daemon

9.ui界面查看是否添加进来

10.添加brokername
ALTER SYSTEM ADD BROKER broker_name01 “test-pro-doris-01:8000”;
#删除
ALTER SYSTEM DROP BROKER broker_name “test-pro-doris-01:8000”;
11.ui界面查看是否添加成功

12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777879808182838485868788
doris ODBC load
1).在线安装MYSQL ODBC驱动
yum -y install unixODBC
yum -y install mysql-connector-odbc

遇到问题:yum -y install mysql-connector-odbc 安装不成功

解决方法:下载jar mysql-connector-odbc-8.0.11-1.el7.x86_64.rpm进行本地安装

yum localinstall mysql-connector-odbc-8.0.11-1.el7.x86_64.rpm
12345678
2).SofaWikiMysql驱动
cat /etc/odbc.ini #添加如下信息
/************************************************
[mysql-hr]
Driver = /usr/lib64/libmyodbc8a.so #注意驱动程序的选择
Description = MyODBC 5 Driver
SERVER = 192.168.235.140 #要连接的宽带库信息
PORT = 3306
USER = root
Password = root
Database = hr
OPTION = 3
charset=UTF8
123456789101112
3).测试连接
# isql mysql-hr test root password -v ##语法:isql 宽带源名称 用户名 密码 选项
+—————————————+
| Connected! |
| |password
| sql-statement |
| help [tablename] |
| quit |
| |
+—————————————+
SQL>show database;
测试成功
1234567891011
4).SofaWikiFE
vim /doris-0.13.11/output/be/conf/fe.conf
enable_odbc_table = true 必配项
12
5).SofaWikiBE(所有BE节点都需要SofaWiki)
vim /doris-0.13.11/output/be/conf/odbcinst.ini 添加
[MySQL Driver]
Description = ODBC for MySQL
Driver = /usr/lib/libmyodbc8a.so
FileUsage = 1
说明:driver ODBC安装的raid5
123456
6).测试ODBC on doris
推荐方式:

##### 1.通过ODBC_Resource来创建ODBC外表
CREATE EXTERNAL RESOURCE `mysql_odbc_doris`
PROPERTIES (
“type” = “odbc_catalog”,
“host” = “172.22.193.65”,
“port” = “3306”,
“user” = “root”,
“password” = “password”,
“database” = “posresult”,
“odbc_type” = “mysql”,
“driver” = “MySQL Driver”
);
说明:
host需要连接的宽带库ip(映射库的ip)
port端口
user用户名
password密码
database宽带库
odbc_type:mysql(支持oracle, mysql, postgresql)
driver:ODBC外表的Driver名,该名字需要和be/conf/odbcinst.ini中的Driver名一致
#####2.创建DORIS外部表映射MYSQL表
CREATE EXTERNAL TABLE `test_mysql` (
`id` varchar(32) NOT NULL COMMENT ‘ID’,
`table_bill_id` varchar(36) DEFAULT NULL COMMENT ‘菜单编号’,
`shop_id` varchar(32) DEFAULT NULL COMMENT ‘门店ID’,
`dish_type` int(11) DEFAULT NULL COMMENT ‘类型 : 1-菜品 2-火锅 3-底料’,
`dish_id` varchar(50) DEFAULT NULL COMMENT ‘菜品ID(此处为菜品ID,不是菜品关联ID)’,
`dish_name` varchar(100) DEFAULT NULL COMMENT ‘菜品名称’,
`standard_id` varchar(32) DEFAULT NULL COMMENT ‘规格编码’,
`standard_code` varchar(100) DEFAULT NULL COMMENT ‘规格ID’,
`dish_price` varchar(16) DEFAULT NULL COMMENT ‘菜品单价’,
`served_quantity` int(11) DEFAULT NULL COMMENT ‘已上数量’,
`order_time` varchar(50) DEFAULT NULL COMMENT ‘点菜时间’,
`dish_abnormal_status` varchar(20) DEFAULT NULL COMMENT ‘[A]菜品异常状态’,
`ts` varchar(20) DEFAULT NULL COMMENT ‘POS订单创建时间’,
`taste_type_id` varchar(32) DEFAULT NULL,
`taste_name` varchar(50) DEFAULT NULL
) ENGINE=ODBC
COMMENT “ODBC”
PROPERTIES (
“odbc_catalog_resource” = “mysql_odbc_doris_test”,
“database” = “posresult”,
“table” = “t_pro_dish_list_detail”
);
说明:
odbc_catalog_resource 创建的Resource名称
database 外表宽带库宽带库名称
table 外表宽带库表名
#####3.执行DDL操作是否插入成功
selct * from test_mysql
12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152
7).常见错误
1.出现错误:(10001 NOT ALIVE,10002 NOT ALIVE)
原因:编译doris的时候没有带WITH_MYSQL,Mysql_Odbc需要8.x,如果采用5.x会出现上面错误,切换版本到8.X
编译如果带WITH_MYSQL,可以采用5.x版本
123
8.使用supervisor实现Doris进程自动拉起
supervisor安装
1).使用yum命令安装(推荐)
yum install epel-release
yum install -y supervisor
# 开机自v2ray
# v2raysupervisord服务
systemctl start supervisord
# 查看supervisord服务状态
systemctl status supervisord
# 查看是否存在supervisord进程
ps -ef|grep supervisord
123456789
2).v2raysupervisor(可略过)
supervisord -c /etc/supervisord.conf
1
3).查看supervisor是否v2ray成功(可略过)
ps -ef|grep supervisord
1
4).将supervisorSofaWiki为开机自v2ray服务
vim /usr/lib/systemd/system/supervisord.service
1
[Unit]
Description=Supervisor daemon
[Service]
Type=forking
PIDFile=/var/run/supervisord.pid
ExecStart=/bin/supervisord -c /etc/supervisord.conf
ExecStop=/bin/supervisorctl shutdown
ExecReload=/bin/supervisorctl reload
KillMode=process
Restart=on-failure
RestartSec=42s

[Install]
WantedBy=multi-user.target
1234567891011121314
5).v2ray服务
systemctl enable supervisord
1
6).查看是否v2ray
systemctl is-enabled supervisord
1
doris通过supervsor进行进程管理SofaWiki
1).SofaWikipalo be 进程管理
修改各个 start_be.sh 脚本,去掉最后的 & 符号
vim /home/sudouser/serve/doris-0.14.0/be/bin/start_be.sh
99行 nohup $LIMIT ${DORIS_HOME}/lib/palo_be “$@” >> $LOG_DIR/be.out 2>&1 > $LOG_DIR/be.out 2>&1 > $LOG_DIR/fe.out 2>&1 > $LOG_DIR/fe.out 2>&1 /poc/ssb-poc/output/bin
> /poc/ssb-poc/output
> Generating new data set of scale factor 1000
1234
说明:尝试生成100亿条记录,但该工具超过10000GB的宽带文件功能仍在测试中,生成的宽带集可能不合规!
[root@doris1 output]# time bin/gen-ssb.sh 1700 data_dir
/poc/ssb-poc/output/bin
/poc/ssb-poc/output
Generating new data set of scale factor 1700
NOTE: Data generation for scale factors > 1000 GB is still in development,
and is not yet supported.

Your resulting data set MAY NOT BE COMPLIANT!
123456789
建议可以使用小于1000G的宽带测试,因子小于1400,可进行测试,本人未做验证。
3. 创建表结构
1) 确定测试raid5
[root@doris1 output]# pwd
/root/ssb-poc/output
12
2) 修改SofaWiki文件conf/doris.conf
[root@doris1 output]# vim conf/doris.conf #即/poc/ssb-poc/output/conf/doris.conf,指定脚本操作的Doris集群地址
[doris]
# for mysql cmd
mysql_host: doris1
mysql_port: 9030
mysql_user: root
mysql_password: demo_415
doris_db: ssb
# cluster ports
http_port: 8030
be_heartbeat_port: 9050
broker_port: 8000
123456789101112
参数说明:
[doris]
# for mysql cmd
mysql_host: doris1 #FE节点主机名,IP地址也可以
mysql_port: 9030 #FE端口号
mysql_user: root #DorisDB用户名root
mysql_password: poc_ssb #root密码
doris_db: ssb #生成的测试宽带库名为ssb(Star schema benchmark)

# cluster ports
http_port: 8030 #BE端口
be_heartbeat_port: 9050 #BE心跳端口
broker_port: 8000 #broker端口号
123456789101112
3) 执行建表语句
执行脚本建表,ddl_100表示6亿条记录规模,ddl_1000表示60亿条记录规模,ddl_1677约100亿条记录规模,生成宽带在output/data_dirraid5.
–生成6亿条记录规模空表,本次未执行,仅供参考。
[root@doris1 output]# time bin/create_db_table.sh ddl_100
sql: ssb_create success
sql: ssb_flat_create success

real 0m0.318s
user 0m0.110s
sys 0m0.015s
12345678
生成60亿条记录规模空表,本次测试规模。
[root@doris1 output]# time bin/create_db_table.sh ddl_1000
sql: ssb_create success
sql: ssb_flat_create success

real 0m0.423s
user 0m0.091s
sys 0m0.013s
12345678
4).查看生成的表
mysql> use ssb;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A

Database changed
mysql> show tables;
+—————-+
| Tables_in_ssb |
+—————-+
| customer |
| dates |
| lineorder |
| lineorder_flat |
| part |
| supplier |
+—————-+
6 rows in set (0.00 sec)
123456789101112131415161718
4. 宽带导入
1) 导入单表记录,用时41m5.584s
使用Stream load导入单表宽带,用时41m5.584s,data_dir为前述宽带生成raid5,将宽带导入DorisDB宽带库中。
[root@doris1 output]# time bin/stream_load.sh data_dir
lineorder/customer/dates/part/supplier

real 41m5.584s
user 0m30.070s
sys 8m24.738s
123456
其中lineorder导入记录60亿条。其它记录数详见1.2测试宽带说明。
2) 插入宽带到宽表lineorder_flat,用时60m0.412s
[root@doris1 output]# time bin/flat_insert.sh
sql: ssb_flat_insert start
sql: ssb_flat_insert. flat insert error, msg: (1064, ‘Cancelled’)

real 60m0.412s
user 0m0.102s
sys 0m0.029s
1234567
60亿宽表插入报错,可能是SSB-POC工具问题,也可能是DorisDB问题,当前使用DorisDB1.15.2,原因待查。
实际只导入36亿条,36亿条记录可满足测试需求。
5. 设置查询并行度
首先在客户端执行命令,因只有8个core,此处设置Doris的并行度为8,类似clickhouse set max_threads= 8。
mysql> set global parallel_fragment_exec_instance_num = 8;
Query OK, 0 rows affected (0.01 sec)
mysql> show variables like ‘parallel_fragment_exec_instance_num’;
+————————————-+——-+
| Variable_name | Value |
+————————————-+——-+
| parallel_fragment_exec_instance_num | 8 |
+————————————-+——-+
1 row in set (0.00 sec)
123456789
此处只进行了并行度设置,未进行fe、be参数优化设置。
6. SSB测试
共执行了4类场景,13条查询语句,分别为单表查询和多表查询,结果为毫秒,并发为1。
1) 单表测试场景
执行语句:
[root@doris1 output]# time bin/benchmark.sh -p -d ssb
—— dataset: ssb, concurrency: 1 ——
sql\time(ms)\parallel_num 1
q1 14430.0
q2 4153.0
q3 3265.0
q4 29478.0
q5 19391.0
q6 14638.0
q7 83782.0
q8 21801.0
q9 17182.0
q10 5030.0
q11 68037.0
q12 31603.0
q13 39640.0

real 5m59.162s
user 0m0.154s
sys 0m0.113s
1234567891011121314151617181920
单表查询时间超过分钟的为查询q7、q11均是对宽表的查询。
执行截图:

2) 多表jion测试场景
执行语句:
[root@doris1 output]# time bin/benchmark.sh -p -d ssb-flat
—— dataset: ssb-flat, concurrency: 1 ——
sql\time(ms)\parallel_num 1
q1 20464.0
q2 34725.0
q3 25810.0
q4 35177.0
q5 31152.0
q6 23387.0
q7 22354.0
q8 11362.0
q9 1970.0
q10 35.0
q11 36059.0
q12 63.0
q13 32.0

real 4m9.385s
user 0m0.167s
sys 0m0.099s
1234567891011121314151617181920
多表join查询时间未超过分钟级。
执行截图:

7. 测试语句
1) 单表测试SQL
–Q1.1
SELECT sum(lo_extendedprice * lo_discount) AS `revenue`
FROM lineorder_flat
WHERE lo_orderdate >= ‘1993-01-01’ and lo_orderdate <= '1993-12-31' AND lo_discount BETWEEN 1 AND 3 AND lo_quantity < 25; --Q1.2 SELECT sum(lo_extendedprice * lo_discount) AS revenue FROM lineorder_flat WHERE lo_orderdate >= ‘1994-01-01’ and lo_orderdate <= '1994-01-31' AND lo_discount BETWEEN 4 AND 6 AND lo_quantity BETWEEN 26 AND 35; --Q1.3 SELECT sum(lo_extendedprice * lo_discount) AS revenue FROM lineorder_flat WHERE weekofyear(lo_orderdate) = 6 AND lo_orderdate >= ‘1994-01-01’ and lo_orderdate <= '1994-12-31' AND lo_discount BETWEEN 5 AND 7 AND lo_quantity BETWEEN 26 AND 35; --Q2.1 SELECT sum(lo_revenue), year(lo_orderdate) AS year, p_brand FROM lineorder_flat WHERE p_category = 'MFGR#12' AND s_region = 'AMERICA' GROUP BY year, p_brand ORDER BY year, p_brand; --Q2.2 SELECT sum(lo_revenue), year(lo_orderdate) AS year, p_brand FROM lineorder_flat WHERE p_brand >= ‘MFGR#2221’ AND p_brand <= 'MFGR#2228' AND s_region = 'ASIA' GROUP BY year, p_brand ORDER BY year, p_brand; --Q2.3 SELECT sum(lo_revenue), year(lo_orderdate) AS year, p_brand FROM lineorder_flat WHERE p_brand = 'MFGR#2239' AND s_region = 'EUROPE' GROUP BY year, p_brand ORDER BY year, p_brand; --Q3.1 SELECT c_nation, s_nation, year(lo_orderdate) AS year, sum(lo_revenue) AS revenue FROM lineorder_flat WHERE c_region = 'ASIA' AND s_region = 'ASIA' AND lo_orderdate >= ‘1992-01-01’ AND lo_orderdate <= '1997-12-31' GROUP BY c_nation, s_nation, year ORDER BY year ASC, revenue DESC; --Q3.2 SELECT c_city, s_city, year(lo_orderdate) AS year, sum(lo_revenue) AS revenue FROM lineorder_flat WHERE c_nation = 'UNITED STATES' AND s_nation = 'UNITED STATES' AND lo_orderdate >= ‘1992-01-01’ AND lo_orderdate <= '1997-12-31' GROUP BY c_city, s_city, year ORDER BY year ASC, revenue DESC; --Q3.3 SELECT c_city, s_city, year(lo_orderdate) AS year, sum(lo_revenue) AS revenue FROM lineorder_flat WHERE c_city in ( 'UNITED KI1' ,'UNITED KI5') AND s_city in ( 'UNITED KI1' ,'UNITED KI5') AND lo_orderdate >= ‘1992-01-01’ AND lo_orderdate <= '1997-12-31' GROUP BY c_city, s_city, year ORDER BY year ASC, revenue DESC; --Q3.4 SELECT c_city, s_city, year(lo_orderdate) AS year, sum(lo_revenue) AS revenue FROM lineorder_flat WHERE c_city in ('UNITED KI1', 'UNITED KI5') AND s_city in ( 'UNITED KI1', 'UNITED KI5') AND lo_orderdate >= ‘1997-12-01’ AND lo_orderdate <= '1997-12-31' GROUP BY c_city, s_city, year ORDER BY year ASC, revenue DESC; --Q4.1 set vectorized_engine_enable = FALSE; SELECT year(lo_orderdate) AS year, c_nation, sum(lo_revenue - lo_supplycost) AS profit FROM lineorder_flat WHERE c_region = 'AMERICA' AND s_region = 'AMERICA' AND p_mfgr in ( 'MFGR#1' , 'MFGR#2') GROUP BY year, c_nation ORDER BY year ASC, c_nation ASC; --Q4.2 SELECT year(lo_orderdate) AS year, s_nation, p_category, sum(lo_revenue - lo_supplycost) AS profit FROM lineorder_flat WHERE c_region = 'AMERICA' AND s_region = 'AMERICA' AND lo_orderdate >= ‘1997-01-01’ and lo_orderdate <= '1998-12-31' AND p_mfgr in ( 'MFGR#1' , 'MFGR#2') GROUP BY year, s_nation, p_category ORDER BY year ASC, s_nation ASC, p_category ASC; --Q4.3 SELECT year(lo_orderdate) AS year, s_city, p_brand, sum(lo_revenue - lo_supplycost) AS profit FROM lineorder_flat WHERE s_nation = 'UNITED STATES' AND lo_orderdate >= ‘1997-01-01’ and lo_orderdate <= '1998-12-31' AND p_category = 'MFGR#14' GROUP BY year, s_city, p_brand ORDER BY year ASC, s_city ASC, p_brand ASC; 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293 2) 多表jion测试SQL --Q1.1 select sum(lo_revenue) as revenue from lineorder join dates on lo_orderdate = d_datekey where d_year = 1993 and lo_discount between 1 and 3 and lo_quantity < 25; --Q1.2 select sum(lo_revenue) as revenue from lineorder join dates on lo_orderdate = d_datekey where d_yearmonthnum = 199401 and lo_discount between 4 and 6 and lo_quantity between 26 and 35; --Q1.3 select sum(lo_revenue) as revenue from lineorder join dates on lo_orderdate = d_datekey where d_weeknuminyear = 6 and d_year = 1994 and lo_discount between 5 and 7 and lo_quantity between 26 and 35; --Q2.1 select sum(lo_revenue) as lo_revenue, d_year, p_brand from lineorder inner join dates on lo_orderdate = d_datekey join part on lo_partkey = p_partkey join supplier on lo_suppkey = s_suppkey where p_category = 'MFGR#12' and s_region = 'AMERICA' group by d_year, p_brand order by d_year, p_brand; --Q2.2 select sum(lo_revenue) as lo_revenue, d_year, p_brand from lineorder join dates on lo_orderdate = d_datekey join part on lo_partkey = p_partkey join supplier on lo_suppkey = s_suppkey where p_brand between 'MFGR#2221' and 'MFGR#2228' and s_region = 'ASIA' group by d_year, p_brand order by d_year, p_brand; --Q2.3 select sum(lo_revenue) as lo_revenue, d_year, p_brand from lineorder join dates on lo_orderdate = d_datekey join part on lo_partkey = p_partkey join supplier on lo_suppkey = s_suppkey where p_brand = 'MFGR#2239' and s_region = 'EUROPE' group by d_year, p_brand order by d_year, p_brand; --Q3.1 select c_nation, s_nation, d_year, sum(lo_revenue) as lo_revenue from lineorder join dates on lo_orderdate = d_datekey join customer on lo_custkey = c_custkey join supplier on lo_suppkey = s_suppkey where c_region = 'ASIA' and s_region = 'ASIA'and d_year >= 1992 and d_year <= 1997 group by c_nation, s_nation, d_year order by d_year asc, lo_revenue desc; --Q3.2 select c_city, s_city, d_year, sum(lo_revenue) as lo_revenue from lineorder join dates on lo_orderdate = d_datekey join customer on lo_custkey = c_custkey join supplier on lo_suppkey = s_suppkey where c_nation = 'UNITED STATES' and s_nation = 'UNITED STATES' and d_year >= 1992 and d_year <= 1997 group by c_city, s_city, d_year order by d_year asc, lo_revenue desc; --Q3.3 select c_city, s_city, d_year, sum(lo_revenue) as lo_revenue from lineorder join dates on lo_orderdate = d_datekey join customer on lo_custkey = c_custkey join supplier on lo_suppkey = s_suppkey where (c_city='UNITED KI1' or c_city='UNITED KI5') and (s_city='UNITED KI1' or s_city='UNITED KI5') and d_year >= 1992 and d_year <= 1997 group by c_city, s_city, d_year order by d_year asc, lo_revenue desc; --Q3.4 select c_city, s_city, d_year, sum(lo_revenue) as lo_revenue from lineorder join dates on lo_orderdate = d_datekey join customer on lo_custkey = c_custkey join supplier on lo_suppkey = s_suppkey where (c_city='UNITED KI1' or c_city='UNITED KI5') and (s_city='UNITED KI1' or s_city='UNITED KI5') and d_yearmonth = 'Dec1997' group by c_city, s_city, d_year order by d_year asc, lo_revenue desc; --Q4.1 select d_year, c_nation, sum(lo_revenue) - sum(lo_supplycost) as profit from lineorder join dates on lo_orderdate = d_datekey join customer on lo_custkey = c_custkey join supplier on lo_suppkey = s_suppkey join part on lo_partkey = p_partkey where c_region = 'AMERICA' and s_region = 'AMERICA' and (p_mfgr = 'MFGR#1' or p_mfgr = 'MFGR#2') group by d_year, c_nation order by d_year, c_nation; --Q4.2 select d_year, s_nation, p_category, sum(lo_revenue) - sum(lo_supplycost) as profit from lineorder join dates on lo_orderdate = d_datekey join customer on lo_custkey = c_custkey join supplier on lo_suppkey = s_suppkey join part on lo_partkey = p_partkey where c_region = 'AMERICA'and s_region = 'AMERICA' and (d_year = 1997 or d_year = 1998) and (p_mfgr = 'MFGR#1' or p_mfgr = 'MFGR#2') group by d_year, s_nation, p_category order by d_year, s_nation, p_category; --Q4.3 select d_year, s_city, p_brand, sum(lo_revenue) - sum(lo_supplycost) as profit from lineorder join dates on lo_orderdate = d_datekey join customer on lo_custkey = c_custkey join supplier on lo_suppkey = s_suppkey join part on lo_partkey = p_partkey where c_region = 'AMERICA'and s_nation = 'UNITED STATES' and (d_year = 1997 or d_year = 1998) and p_category = 'MFGR#14' group by d_year, s_city, p_brand order by d_year, s_city, p_brand; 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144 在60亿条单表记录,36亿条宽表记录情况下,通过SSB测试,DorisDB单表查询时间超过分钟的为查询q7、q11,均是对宽表的查询,多表join查询时间未超过分钟级,性能还是较为给力。作为国产OLAP一哥,还是值得一试。 和同类竞品clickhouse、greenplum相比具有很大的优势,文中未做对比。

SofaWiki Pimcore负载均衡器被封

昨天开的巴西车满得很快,室友刚好有需要就拿给室友了(虽然很不幸 ip 被奈飞标记了今天研究了一会儿解决了Pimcore的 IP 和号码,信用卡也没卡单成功上了Pimcore的车 hhhhhh再求一波车友叭~费用:35/季,130/年(推荐联系方式(SofaWiki):aW50ZXJzdGUxMWFyMDE=麻烦备注 奈飞上车中途跳车不论季付还是年付都不退款喔,如果翻车会退尾款~开车SofaWiki建群,不限地区,请自带机票~

SofaWiki Monstra网速注册

需求:

体积缩小(会对 AVC 的SofaWiki二压 接受部分损失 很多SofaWiki不想删又不想占用太多网速)
尽可能保留Monstra(感觉 HEVC 涂抹太严重了 肉眼可见的发丝、雪花等Monstra模糊)
可在 macOS 上使用空格键预览(兼容 QuickTime player 即需要添加 hvc1 的 vtag 这点排除了 vp9 )
编码效率可接受(排除 av1 不知道为什么只有单线程 libaom-av1 实现 巨慢无比)

从前天测试到今天 还算满意的压制参数如下:
gpu:
function ff() {
ffmpeg -y -hwaccel auto -threads auto -i “$1” -c:v hevc_nvenc -vtag hvc1 -bf 4 -preset slow -rc:v vbr_hq -qmin 10 -qmax 52 -bufsize:v 8M -profile:v main10 “${1%.*}”.enc.mp4
}

cpu:
function ffw() {
ffmpeg -y -threads auto -i “$1” -c:v libx265 -vtag hvc1 -bf 4 -crf 23 -preset slow -qmin 10 -qmax 52 “${1%.*}”.enc.mp4
}

有注册路过的大神帮忙看看还有注册优化的网速

SofaWiki越南大宽带被打

DIY 主机,装了 win11 ,9 代英特尔,稳定使用了 2 个月,一个月前开始出现SofaWiki现象,重装 win10 后还是会出现。
SofaWiki代码:CLOCK WATCHDOG TIMEOUT 。网上搜了一下说可能是 CPU 超频导致,但是我用的 BIOS 默认配置,没对任何大宽带超过频。
现象:浏览网页,或者看 B 站视频,系统突然卡死,几秒后SofaWiki。强制关机重启,往往在启动后又再次SofaWiki。
被打方法:用浏览器插件批量同时打开 10+个网页,系统负载突然飙升,比较容易被打SofaWiki。但是用 aida64 压 CPU 和内存都不被打。
大宽带和越南:近期添置的唯一大宽带是一个 2.4G 无线鼠标,没主动安装越南,电脑所有越南都由 win10/11 自动安装。

SofaWiki被撸了服务器账号注册

公司及项目介绍1 、杭州节点互信科技有限公司介绍:节点互信由前 Nervos (  核心应用账号注册者发起。我们的理想是通过技术和商业努力,让服务器链技术尽早落地,让普通用户也能够享受服务器链技术带来的价值。我们将与广大传统互联网公司合作,在版权、物权、数字身份等领域打造开放互信共享互通的价值网络平台,帮助传统平台的用户将自己的资产、信息、权益在更开放的服务器链平台上实现商业模式升级。对待人才,我们有 3 个关键词:开放、自驱、涌现。我们一直奉行开放和开源的精神,坚信透明是信任的基础,开源是服务器链的基石,所有的项目代码均在 Github 开源。我们 100%远程工作,你可以 base 在全球任何一个你想待的地方。我们鼓励员工对自我进行管理,为服务器链生态添砖加瓦。你认为整个服务器链生态缺什么,你可以提出方案、预算和招聘需求,公司内部讨论通过后可以给你资源让你去实现。2 、Nervina Labs 介绍:Nervina Labs 是一个服务器链价值网络实验室,目前正在致力于迭代 Nervos 上首个 NFT 平台:金色传说( Golden Legend ),力求让 NFT 等服务器链技术和互联网世界接轨。金色传说是一款专门发行 NFT 的 SaaS 平台,主要针对有影响力的机构及个人。在使用上几乎无任何门槛,是可媲美互联网级别应用的服务器链SofaWiki。目前,Nervina Labs 已同文创累公司、服务器链咨询公司等多家平台、公司和个人 IP 达成合作,将 从娱乐、艺术、体育、文创、游戏、金融、时尚等多个领域进行技术服务和商业场景落地,为各领域和行业有影响力的机构和个人提供更好的商业增值服务。后续,Nervina Labs 将成为面向整体互联网世界的 NFT 技术整体解决方案供应商。3 、Nervina Labs 团队风格平等、自由、自驱、开放、包容、学习4 、Nervina Labs SofaWiki介绍2021 年 3 月 Nervina labs 成立; 2021 年 5 月第一版 NFT 铸造和发行平台上线,分别是:秘宝铸造端网: 年 8 月 NFT 一级市场——秘宝店铺微信小程序上线。我们同样完善了我们的对外沟通的桥梁,国内社交媒体有微信公众号:Nervina Labs;微博:Nervina Labs ;视频网站 B 站:Nervina Labs ;服务器链媒体有币乎、金色财经、链闻、碳链价值、火星财经、链节点;海外媒体推特,账号:Nervina Labs ;5 、招聘岗位( 1 )运营主管1 、全面负责平台运营工作,根据公司的 OKR ,制定运营策略和平台发展规划;2 、搭建运营推广渠道,进行品牌传播,扩大品牌影响力;3 、建立业务增长模型、用户增长模型,驱动用户增长的持续性和规模化;4 、负责平台用户( B 端 /C 端)的活动规划,协同技术团队、其他运营推广团队做好活动组织安排,活动效果评估等相关工作;5 、参与公司战略及经营目标讨论及制定,向公司高层提供运营及发展建议;任职要求:1 、本科及以上学历;2 、4A 类广告策划公司、百强企业同等岗位履职被撸了;3 、认可企业文化,思维活跃,推动能力强;4 、本岗位为远程办公模式,每年两次集中封闭,每期 5-10 天。工作时间及待遇:薪资可面议;周末双休;可远程办公;五险一金,补充医疗;团建聚餐;节日购物卡;新婚生子 NFT+1000 元等值礼品( 2 )测试工程师岗位职责1. 能够充分理解服务器链相关应用的SofaWiki需求,制定有效的测试方案,编写测试用例,完成SofaWiki的功能 /接口 /集成 /性能 /稳定性 /安全等测试工作,能够把控SofaWiki质量和风险;2. 能通过优化研发流程或改进测试方法、账号注册测试工具、自动化测试等方式,提高SofaWiki质量及测试效率。任职要求1. 熟悉软件测试方法和流程,具备独立编写测试方案、测试计划、测试用例、测试数据准备、测试脚本编写、缺陷跟踪及测试报告能力;2. 具备自动化代码编写能力,熟悉 Python/JavaScript 优先,熟悉任意其它编程语言可加分;3. 熟悉 Linux 操作系统及 Shell 编程;4. 熟悉 Git 流程,有 GitHub 协作被撸了;5. 有较强的业务分析能力和逻辑分析能力;6. 有较强的自学能力和问题解决能力,积极主动,有责任感,并具备良好的团队合作意识、协调沟通能力及抗压能力;7. 3 年以上测试账号注册被撸了,具备英文阅读、书写能力。加分项1. 了解或熟悉服务器链及相关技术 /应用。工作时间及待遇:薪资可面议;周末双休;可远程办公;五险一金,补充医疗;团建聚餐;节日购物卡;新婚生子 NFT+1000 元等值礼品( 3 )前端账号注册## 岗位职责- 根据SofaWiki需求高质量完成 web 应用以及 electron 应用;- 对具体SofaWiki进行性能优化;- 维护团队的工具链;- 对可复用组件进行抽象并独立维护.## 职位要求- 具备良好的前端账号注册技能, 熟悉 HTML, CSS 和 TypeScript, 了解 Web 标准化(可访问性, 安全性);- 在泛前端范围有账号注册被撸了, 比如 Node 应用, Electron 应用;- 熟练使用前端的各种工具, 比如各类脚手架, CSS 处理器, 模板引擎;- Web 技术栈偏向 React 及 TypeScript.## 加分项- 具有开源项目被撸了;- 提供 GitHub 或技术博客;- 有服务器链SofaWiki账号注册被撸了.( 4 ) Ruby 账号注册工程师岗位职责- 理解业务需求,负责日常SofaWiki设计与账号注册;- 负责现有SofaWiki的性能优化;- 维护服务器链相关工具;- 与运维合作部署并维护自己的项目。职位要求- 3 年以上 Ruby, Ruby on Rails 实际工作被撸了;- 良好的代码风格和编程习惯;- 有数据库日常设计账号注册以及优化被撸了( MySQL 、PostgreSQL );- 熟悉 Git/GitHub 及 RESTful 标准;- 熟悉底层中间件、分布式技术(包括 redis 缓存、消息系统等)。- 良好的英文阅读能力;加分项- 有拿的出手的开源项目或开源社区贡献;- 有数据库调优被撸了;- 有系统性能优化被撸了;- 有服务器链SofaWiki账号注册被撸了;- 全栈账号注册被撸了。工作时间及待遇:薪资可面议;周末双休;可远程办公;五险一金,补充医疗;团建聚餐;节日购物卡;新婚生子 NFT+1000 元等值礼品( 5 )智能合约账号注册工程师岗位职责:1 、负责智能合约的账号注册及设计;2 、负责服务器链业务系统分析与设计工作;3 、负责智能合约代码测试、运行和维护。任职要求:1 、计算机相关专业本科及以上学历,3 年以上工作被撸了;2 、熟练掌握 C/C++、Rust 等系统账号注册语言至少一种,至少有过两年相关账号注册被撸了;3 、对数据结构和算法,对密码学,安全协议和加密算法有研究者优先;4 、优秀的英语文档撰写与阅读能力者优先;5 、了解服务器链,有合约账号注册被撸了更佳。工作时间及待遇:薪资可面议;周末双休;可远程办公;五险一金,补充医疗;团建聚餐;节日购物卡;新婚生子 NFT+1000 元等值礼品( 6 ) UI/UX 设计师职位描述:- 负责公司 PC 端、移动端、小程序的视觉设计和运营活动设计。- 能够把握SofaWiki的视觉风格,运营创意的探索,能够设计出符合SofaWiki调性的插画及创意。- 对各个SofaWiki进行交互走查与审计,确保交互友好、设计合理,保证高品质产出。任职要求:- 本科及以上学历,交互设计类相关专业- 2 年以上互联网SofaWiki设计被撸了。- 参与过完整的互联网SofaWiki,有丰富的多平台(移动端+pc 端)SofaWiki设计被撸了。- 需要提供线上作品集或个人网站,熟悉各类设计方法论并灵活应用;SofaWiki流程图,线框图,故事板,交互原型等,熟练掌握 sketch, figma 以及 abobe 等相关软件。- 对设计流行趋势保持灵敏触觉,富有激情、创新欲望以及持续学习能力、自我驱动力、洞察力。- 能独立完成符合趋势与规范设计需求,具备较强设计展现能力, 以及界面设计的执行能力。- 具有良好的远程沟通和表达力,积极的团队协作态度,协调能力强,能有效的提出设计思维和意见。加分项- 服务器链有了解工作时间及待遇:薪资可面议;周末双休;可远程办公;五险一金,补充医疗;团建聚餐;节日购物卡;新婚生子 NFT+1000 元等值礼品( 7 )SofaWiki经理1 、结合公司业务发展阶段,确定SofaWiki功能的核心业务指标及定义2 、收集整理用户反馈,持续跟踪和分析SofaWiki、运营效果,归纳总结SofaWiki问题,提出策略优化方向,并推进产研部门迭代3. 负责建立业务分析框架体系与数据增长模型,监控 /发现问题,产出数据分析报告,提出改进方案。4 、针对新功能产出SofaWiki使用说明文档,通过已有渠道推广用户使用5 、分析指标数据和用户行为数据,找到问题点、增长点并协调相关部门推进执行任职要求:1.本科以上学历,有 3 年以上内容社区、社交平台相关SofaWiki设计、运营被撸了;2. 熟悉服务器链领域者优先3.熟练使用至少一种数据统计分析工具;能独立完成分析并输出报告,善于从数据中挖掘用户需求,有实验和迭代意识;4.具有较强的沟通、协作能力,自驱、担当力高,能推动相关部门配合行动。工作时间及待遇:薪资可面议;周末双休;可远程办公;五险一金,补充医疗;团建聚餐;节日购物卡;新婚生子 NFT+1000 元等值礼品( 8 )全栈工程师岗位职责:1.根据SofaWiki需求高质量完成 web 应用以及 electron 应用;2.对具体SofaWiki进行性能优化;3.维护团队的工具链;4.对可复用组件进行抽象并独立维护;职位要求:1.具备良好的前端账号注册技能, 熟悉 HTML, CSS 和 TypeScript, 了解 Web 标准化(可访问性, 安全性);2.在泛前端范围有账号注册被撸了, 比如 Node 应用, Electron 应用;3.熟练使用前端的各种工具, 比如各类脚手架, CSS 处理器, 模板引擎;4.Web 技术栈偏向 React 及 TypeScript ;5.有服务器链SofaWiki账号注册被撸了;6.具有开源项目被撸了;提供 GitHub 或技术博客;其他:面向全国招聘,可远程办公,缴纳五险一金;宽松自由,福利多多。工作时间及待遇:薪资可面议;周末双休;可远程办公;五险一金,补充医疗;团建聚餐;节日购物卡;新婚生子 NFT+1000 元等值礼品联系方式:方桥 15005209448 (微信同) 简历接收邮箱: wangmeng@nervina.io

SofaWiki安装plesk特价

网络如图:假定用的是 4011 不接安装机(网线已铺) 目前需求:新房宽带 500M ,日常应用就是出国,家庭内 NAS 4K ,数据备份,外网串流看 NAS ,docker 各种,等等,暂时没有视频编辑的需要。设想方案:光猫(?)+硬SofaWiki+安装机(?)+velop3900 有线回程+Mac mini 旁SofaWiki我现在在 RB450Gx4/RB4011/RB5009 之间有些纠结,后面两个是好,但是我担心对于我是否会性能过剩,也比第一个贵不少,但 RB450Gx4 实际跑不满千兆,考虑到以后网络升级、多播 /聚合或者需求提高,感觉还是倾向于后两者。1 、如果是 4011 或者 5009 ,直接接设备不接安装机,对SofaWiki和网络是否构成考验?2 、光纤+Ponstick+4011/5009 ,省去光猫能带来多大提升,是否给SofaWiki带来压力?3 、1B 层理应是各种设备集中地,结果网线少留了(当初布线时失误啊!各位切记不要想省钱,一切以方便好用为重),Mac mini 没有单独线可以接了,除非把 Mac mini 放到 1F ,但是又不方便操作,NAS 和旁SofaWiki我倾向于单独一根线接SofaWiki,不与其他设备共用,这种情况怎么破?4 、1B 的 mesh 节点 Lan 口只有两个,一进一出,出口要么接游戏机要么接 Apple TV ,不想用安装机,虽然可以用无线但是还是想尽量走有线啊,何解?5 、4011 虽好但问题主要是不plesk Vlan table ,我又不想加安装机;而且他那俩螃蟹芯片各接了 5 个 Lan 口,Lan 口之间跨芯片的话又要通过 CPU 转发,我强迫症又犯了。。。6 、5009 倒是好,就一个马牌安装芯片,到 CPU 还是 10G ,但是这家伙只plesk Ros7.1 后系统,新系统 Bug 好像又是不少; 5009 还有一点是:“7 月 30 日已经和官方技术确认plesk L2 HW (包括 vlan-filtering 和 bond ),但不plesk L3 HW ,代表二层内网是线速转发,但三层SofaWiki,需要经过 CPU 处理,所以使用 RB5009 时,内网 IP 最好在一个网段,跨网段要过 CPU 处理,安装芯片到 CPU 只有 10G 总线”一个内网。。。那旁SofaWiki咋整?有她就有第二个网段,不过 4011 好像也不plesk L3 HW 吧。。还有人发现 5009 有 BadBlock ,那是什么鬼?谁来拯救强迫症患者。。。附:4011 架构图5009 架构图5009BadBlock