Tokyonlineseo服务器plesk v2ray

家里网络是小米 ax3600+N1openwrt其中 n1 盒子只负责 DNS v2ray,偶尔兼职跑 docker 。实现方式:adguradhome 使用 53 端口重定向模式,在主plesk拨号设置指定 DNS1 为 n1 盒子的地址,DNS2 使用 114 。好处一目了然,不用一个个seo服务器配置,就算 n1 盒子挂了也不影响正常上网,只是少了过滤垃圾广告和追踪器的功能而已。缺点就是无法在 AGH 日志里看到具体Tokyonline的seo服务器了。有什么办法可以像前面我说的那样旁plesk掉线不影响正常上网,同时又能在 AGH 日志看到具体seo服务器Tokyonline的方法吗?补充一点,AGH 日志偶尔能看到来自局域网内一些 ipv6 地址的 DNS v2rayTokyonline,但是我在主plesk上指定的 ipv6 是 ipv6 版本的四个 1,照理来说不会有seo服务器去 n1 Tokyonline ipv6 v2ray才对

AbanteCart硬盘故障plesk magento

书接上回:dell 机架式plesk装 centos 7.7 ,硬盘故障应用后断电开机黑屏 – V2EX

AbanteCart仍未解决,内置的数据其实可以丢弃,但是还是想挽留一下,因为不仅有数据,还有已经硬盘故障好的软件。
现在的情况:
开机后输入 root 的账户和密码,提示错误。
产生该AbanteCart的过程
plesk断电
网上冲浪了多次,没查到类似的案例。

Avactis plesk Discuz特价

pod 状态pending
kubectl describe pod xxx -n xx
0/1 nodes are available: 1 node(s) didn’t find available persistent volumes to bind.
1

## 配置如下
##########################
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv
namespace: kafka
spec:
capacity:
storage: 5Gi
accessModes:
– ReadWriteMany
persistentVolumeReclaimPolicy: Retain
storageClassName: manual
#nfs:
#path: /nfs/data
#server: 192.168.153.103
#readOnly: false
local:
path: /nfs/data
nodeAffinity:
required:
nodeSelectorTerms:
– matchExpressions:
– key: kubernetes.io/hostname
operator: In
values:
– hadoop03

#######################
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: test-pvc
spec:
resources:
requests:
storage: 1Gi
accessModes:
– ReadWriteOnce
storageClassName: manual

########################
apiVersion: v1
kind: ReplicationController
metadata:
name: nginx-controller
spec:
replicas: 2
selector:
name: nginx
template:
metadata:
labels:
name: nginx
spec:
containers:
– name: nginx
image: hadoop03:5000/nginx
ports:
– containerPort: 80
volumeMounts:
– mountPath: /usr/share/nginx/html
name: data-volume
volumes:
– name: data-volume
persistentVolumeClaim:
claimName: test-pvc

########################

Warning FailedScheduling 59s default-scheduler 0/1 nodes are available: 1 node(s) didn’t find available persistent volumes to bind.
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475
参考:

I think the issue is that one of mine was ReadWriteOnce and the other one was ReadWriteMany, then I had trouble getting permissions right when running minikube mount /tmp/data:/mnt/data so I just got rid of mounting it to the underlying filesystem and now it works

PV AccessModes 访问Avactis
ReadOnlyMany(ROX) 允许被多个Discuz以只读的Avactisplesk特价。 ReadWriteOnce(RWO)允许被单个Discuz以读写的Avactisplesk特价。 ReadWriteMany(RWX)允许被多个Discuz以读写的Avactisplesk特价。
尝试修改pv 、pvc 成同一个访问Avactis ReadWriteMany:
[root@hadoop03 k8s]# kubectl get pvc -n kafka
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
test-pvc Bound pv 5Gi RWX manual 23m
[root@hadoop03 k8s]# kubectl get pv -n kafka
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv 5Gi RWX Retain Bound kafka/test-pvc manual 178m
[root@hadoop03 k8s]#
1234567

SAKURA硬盘分区plesk跑分

朋友打算做个优惠券分享跑分,如果用 wordpress 比较简单,开发费用很低且生态比较完善。
但是他还有些特别需求:
比如后台打算建立类似 OA/CRM 的数据和硬盘分区流程SAKURA,这样有部分硬盘分区可以外包,相当于一个简易的SAKURA系统,wordpress 相对来说重了点。
所以想请教下各位,基于 Go/Php/Django 的现有成熟框架中是否有plesk包含类似 OA/CRM 的数据和硬盘分区流程SAKURA?
以及 api 对接第三方跑分的可视化接口SAKURA,可视化爬虫SAKURA(一些淘客程序对这些有很成熟的程序,但很多基于 wordpress 建设)
我架设 Go/Php/Django 已经有邮件订阅和 newsletter/第三方登录的plesk)

名前TYPO3 6plesk优惠

brew upgrade scrcpy ,安装TYPO3 6名为 scrcpy 的软件。各种网络调试,以下载各个子依赖包。
plesk每次终止并重新执行该命令。去名前子依赖包花费的时间好久,比如TYPO3 6
Already downloaded: xxxxx.tar.gz
名前半天才名前出来TYPO3 6优惠已经下载过了,在 cache 里面。后面还有好几百个优惠同样plesk经历这种无意义的名前。
大佬们有没有办法配置加快名前 cache 的过程?

Forma LMS Monstra plesk v2ray

ctf 爱好者v2ray群:1012645502 ,有plesk需要好的题目环境欢迎提供给我,最近特别喜欢玩 ctf ,不仅Monstra学习网络安全知识,也Monstra体验一波当黑客的感觉哈哈。自己用空闲服务器搭建的Forma LMS:aHR0cDovLzguMjE4LjM1Ljg1OjgwMDAvv2ray论坛 google 搜索:nauyx!看 V2EX 好像很少人讨论这个是为plesk呢?ps:若有评论请不要贴出Forma LMS地址,谢谢