解决 GoodSync v10 被强制升级到 v12 重新用回 V10

解决 GoodSync v10 被强制升级到 v12 重新用回 V10

前言 昨天突然发现自己的 GoodSync v10 被强制自动更新到 v12 了。GoodSync 还把 v10 的下载页给隐藏起来了,GoodSync v10 是永久授权,而 V11 与 V12 都是订阅授权,GoodSync 这不是变相赶还在使用10永久许可的人换到12的订阅许可嘛。下边我们可以这样解决 GoodSync v10 被强制升级到 v12 的问题...
阿里又食言?!不限速的阿里云盘 高峰时段开始限速非会员

阿里又食言?!不限速的阿里云盘 高峰时段开始限速非会员

阿里云盘喊出了“上传下载永不限速”作为与百度云竞争最大的卖点,但现在看来似乎阿里又一次食言了。 很多网友反应,在晚上等高峰时期下载,被提示“当前下载高峰”,下载速度被大幅限制到最低仅有 128KB/s ,需要开通 SVIP 才能不在高峰期被限速。 阿里云盘晚高峰非会员出现的下载限速提示 而阿里云...
使用 CPU 本地安装部署运行 ChatGLM2-6B

使用 CPU 本地安装部署运行 ChatGLM2-6B

ChatGLM2-6B 是一个清华开源的、支持中英双语的对话语言模型,基于GLM架构,具有62亿参数。结合模型量化技术,ChatGLM-6B可以本地安装部署运行在消费级的显卡上做模型的推理和训练(全量仅需13GB显存,INT4 量化级别下最低只需 6GB 显存)虽然智商比不过 openAI 的 ChatGPT 模型,但是ChatGLM2 -6B ...
API2D :Open AI ChatGPT 的替代 API 方案,附注册和使用教程

API2D :Open AI ChatGPT 的替代 API 方案,附注册和使用教程

由于Open AI API (ChatGPT)付费困难,实体卡信用卡难度太大,而虚拟信用卡平台则风险也很高,再加上Open AI(ChatGPT)屏蔽了许多机房IP(虽然目前也在陆续解封机房使用API),因此使用门槛越来越高。无法直接使用到 OpenAI API (ChatGPT)的可以试试:API2D,你可以简单理解为,他提供了 OpenAI...
Nginx 指定目录屏蔽国内外IP访问网站

Nginx 指定目录屏蔽国内外IP访问网站

目前网站需要屏蔽一些特定的IP与特定来源的网友,禁止他们访问。例如一些外贸网站需要屏蔽国内IP,国内的屏蔽外国IP,阻止从某个特定网站过来的用户,比如从知乎的跳转链接访问站内资源链接就自动跳转到博客首页。这里写一种最简单快速的,不需要重新编译nginx的方法。 屏蔽指定IP访问 屏蔽命...
Windows 11 22H2 开启 TCP BBR v2 拥塞控制算法

Windows 11 22H2 开启 TCP BBR v2 拥塞控制算法

Windows 11 22H2 已经支持 TCP BBR v2 拥塞控制。本文就是阐述协,怎么如何从 Windows 系统默认的 Cubic 拥塞控制切换到 BBR v2 拥塞控制。 查看目前的拥塞控制算法 在 Powershell 中(开始菜单里搜Powershell即可)输入 Get-NetTCPSetting | Select SettingName, CongestionProvider 命令来查...
白嫖永久45G 的支持 WebDav 协议的 InfiniCloud 网盘空间

白嫖永久45G 的支持 WebDav 协议的 InfiniCloud 网盘空间

InfiniCloud是一款,支持 WebDAV 同步并且无需魔法网络即可访问的日本网盘。 免费用户默认 20G 永久空间,输入注册码还能得到 5G,最近有个初期容量変更特典,可以领 2 次 10GB 的永久空间。加到一起足足是 45GB 的免费且支持 webdav 网盘空间。下载限速也比较高为 200M 要知道隔壁坚果云这个空间和...
本地安装部署运行 ChatGLM-6B 的常见问题解答以及后续优化

本地安装部署运行 ChatGLM-6B 的常见问题解答以及后续优化

不敢称之为教程,只能算是分享一点自己本地安装部署运行 ChatGLM-6B 的过程中的心得和二次优化开发吧。主要是比如怎么防止GPU运行时爆显存,GPU运行时减少显存占用,一些常见的报错应该怎么解决,推理参数的调整方案,怎么开启局域网访问,怎么给网页加上HTTPS。ChatGLM2-6B 的常见问题和ChatGLM-6B...
使用 CPU 本地安装部署运行 ChatGLM-6B 获得自己的专属 AI 猫娘

使用 CPU 本地安装部署运行 ChatGLM-6B 获得自己的专属 AI 猫娘

ChatGLM-6B 是一个清华开源的、支持中英双语的对话语言模型,基于GLM架构,具有62亿参数。结合模型量化技术,ChatGLM-6B可以本地安装部署运行在消费级的显卡上做模型的推理和训练(全量仅需14GB显存,INT4 量化级别下最低只需 6GB 显存)虽然智商比不过 openAI 的 ChatGPT 模型,但是ChatGLM-6B 是...