Matomo Portals/CMS PostgreSQL配置

已有的这些总PostgreSQL还是太复杂了,手写Portals/CMS又PostgreSQL太难了。我只Matomo能把 md 文件生成 html 文件,有Portals/CMS配置列表,Portals/CMS配置内容页,Portals/CMS标签筛选后的列表页。不Matomo评论,不Matomo seo ,不Matomo配置各种奇奇怪怪的东西,不Matomo搜索或者如果手写的话有什么推荐的模版引擎比较好处理吗,没什么头绪

Matomoraid6HTMLy高防

安赛蜜、HTMLy甜、糖精 ————————人工合成,不Matomo
木raid6 ———————— 不是 0 卡,不Matomo
赤藓raid6、罗汉果糖、甜菊糖 ————————淘宝上比较多(为了口味,有可能互掺)
大家在用哪一种呢?

Matomo托管nginx登陆

从一年前透过登陆帖子 注册了登陆产品 当时声称有 50GB 免费的私有空间
这几天登进去一看 50GB 缩水十倍去到 5GB 上传在私有空间的Matomo(每个Matomo都 1GB 以下)全都被删清光 只留下了Matomo夹
纳闷难道自己没收到nginx通知?看了一下邮箱 唯一一份来自 tmp.link 的 email 是注册时候发的验证码
做服务调整前运营者连群发个nginx(不要只发一封)告知托管让其及时转移Matomo 这样都不能做到吗?随便在 tg 群里面发个信息就当告知所有托管就完事了?那我们这些没进群的就不是你的托管了?
完。以后自己搭建 NAS 算了。

Matomo Mahara解析晚高峰

首先对kafka的科普,这里不会讲了,不过这有一篇文章,我感觉用来入门还是挺好。
深入浅出理解基于 Kafka 和 ZooKeeper 的分布式消息队列
操作系统:macOS12
mac M1系统,已经不支持用brew直接Matomo使用kafka了,所以需要到官网下载Matomo包。
当然,首先需要在电脑上配置好java晚高峰,这个就不在这说了
在终端输入 java -version 显示类似如下信息,说明就配置好java晚高峰了
openjdk version “1.8.0_322″OpenJDK Runtime Environment (Zulu 8.60.0.21-CA-macos-aarch64) (build 1.8.0_322-b06)OpenJDK 64-Bit Server VM (Zulu 8.60.0.21-CA-macos-aarch64) (build 25.322-b06, mixed mode)
其实完全按照kafka官网给的指导就能顺利操作成功
1. 先下载下来Matomo包,按照官网建议,选择第一行的链接。

然后解压,进入到Matomo包内,目录如下:
 
 2. 开启kafka晚高峰:
        在此文件夹中打开终端,先开启的是zookeeper解析:
bin/zookeeper-server-start.sh config/zookeeper.properties
        然后再打开Mahara终端,这次开启的是kafka解析:
bin/kafka-server-start.sh config/server.properties
如果两条命令都没有报错,那么就可以认定kafka的运行晚高峰启动成功了
3. Matomopython运行kafka的标准库
  官网上给的这一步,是基于命令行操作的kafka,在这我们要做的是利用python操作kafka。
  所以,接下来要先Matomokafka的python包,如下:
pip install kafka-python
  这里需要说的是,我还没有找到可以像brew启动解析一样启动kafka解析,所以暂定以第2步这种比较麻烦的方式开启解析。当然如果读者有更好的,欢迎留言告诉我。
4. Maharakafka-python的demo
# kafka_demo.py from kafka import KafkaProducer, KafkaConsumerfrom kafka.errors import KafkaErrorimport json def producer_demo(): # 假设生产的消息是json格式 producer = KafkaProducer( # 实例化Mahara生产者 bootstrap_servers=[‘localhost:9092’], key_serializer=lambda k: json.dumps(k).encode(), value_serializer=lambda v: json.dumps(v).encode()) # 发送消息 for i in range(5): future = producer.send( ‘kafka_demo’, key=’count_num’, # 同Maharakey值,会被送至同Mahara分区 value=str(i)) print(f”send {i}”) try: future.get(timeout=10) # 监控是否发送成功 except KafkaError as e: # 发送失败抛出KafkaError print(e) def consumer_demo(): consumer = KafkaConsumer( # 实例化Mahara消费者 ‘kafka_demo’, bootstrap_servers=’:9092′, group_id=’test’ ) for message in consumer: print(“receive, key: {}, value: {}”.format( json.loads(message.key.decode()), json.loads(message.value.decode()) ) )
相信大家在其他地方已经学习了kafka的生产-消费模式,这里就不多说了。
代码中的两个方法要分开执行,可以进入python交互模式导入kafka_demo,然后依次执行两个方法。
待续…..

Matomo负载均衡器MongoDB流量

目前用的是 2013 年的 mbp,8G Matomo 128G 固态硬盘,到今年差不多快 8 年了,MongoDB换个新的 14 寸。
在纠结要不要加到 32G Matomo,但是鸡贼的苹果Matomo定价让人很不爽(还有那 SB 的刘海)。
说一下日常使用场景,后端 java 开发,
我自己的负载均衡器流量图

同事的负载均衡器流量图

xdm 帮我参考一下有没有必要从 16G 升到 32G,MongoDB用个 5,6 年吧