每日一系列、每天一个小细节教你读懂spring(白话解释spring)等技术专题。
微信公众号吸粉技巧--自己掘金或其他博客中,写下自己公众号地址和自己珍藏的资源(放在最后边和本次博客文章相同主题,形成文档)
把文章的解压密码放到自己微信公众号的回复中。吸粉量杠杠的。
自己做实验也可以形成文档,实验步骤等写到文章里,让人关注公众号。达到吸引公众号粉丝的目的。
会有各类公众号粉丝在里边。
知识星球的作用可以作为教程类使用,多为一些技巧和思路的分享,学习策略的统筹化。为教程付费时代产物。
现在暂时不开启知识星球,内容变现等粉丝量上来之后再想。
自己先积攒用户量,然后再发文章的方式来达到内容关注变现,等到自己自己关注度上去的时候去发布文章赚赏金
自己想做网站形成一个闭环,怎么做。每天研究怎么写文章,和不断写原创文章,研究转折起伏等,总结所有学习原理应该解决的问题。
微信公众号迁移可以解决哪些问题、以及公众号迁移带来的问题。
公众号粉丝迁移花费时间比较长。且需要公证,自己做粉丝网站。
公众号迁移之后原公众号所有自己散布在网络上的内容都会变,届时不好整理了。
怎么形成学习积累的闭环
每天可以发原创文章,但是文档内容可以不是原创的,这样就能躲避审查带来的危险又能正价粉丝量。
那种上边博客号贴百度云链接的方式,百度云中是微信公众号指导解压密码,是骚操作。吸粉方式,解决了原创窘境
点开的 就一定会关注。牛逼!!
自己可以找一些二级资源、视频资源压缩放到评论区达到这个目的(匿名要做好,不然容易被打出来)
关注公众号才能阅读骚操作
需要自己做页面,使用一些博客生成平台来做页面,然后修改页面为关注公众号之后可以访问。
就是有百分之90的人,喜欢看视频,就是有阶层意识低的人,用来给构建上层建筑提供原材料
可以在我妈的公众号平台推广上研究下流程和方法。
算法题方案--先进行领域划分、划分要解决的关键问题、领域问题划分。
每行输出该行结果对不对
每行前两个字符串怎么进行抽取过程拼接
交替顺序 s1先开始,然后分割字符串为n次
有的不是单个字符怎么区分
N次里取200字符遍历200次任意字符
怎么跟s3进行对比,s3里字符400次遍历48个任意字符
每次遍历取词/顺序性、取词的字符数量锁定位1<m<200
每次遍历所得字符串的1-200个字符
取词后只保留剩余方便下一次取词分割。
怎么进行拼接每次的字符
每次取词之后第三方拼接再和s3进行比较
按照数组位置实现全排列,然后分割去弄
0/1,然后填充到50的数组中的所有情况
二叉树的方式可以实现,二叉树生成的方式建立这个分割次序数组,按照这个顺序进行分割。
有没有其他的方式解决这个问题。
停止条件,长度超出或次数超出即停止并输出0、数组匹配即停止并输出1
领域的方式解决算法问题。
例如上述算法的解决方案。先出方案,再考虑算法。这种方式分析leedcode中的面试算法问题。
领域的方式去结题。如果一次输出不行就考虑,按照步骤执行。第一步先生成排序临时数组,第二步从大数组中取每次情况数组进行遍历。形成各个小方法,各个领域
微信公众号和积攒粉丝的方式集合,不一定要先写公众号。
每天一篇文章,并找高分问答解决思路。解决该问题。
公众号先是个人号,做起来再说别的。
可以做一些有趣的视频剪辑,就像今天看到的那样,比较卡哇伊聊历史性格的。
(样式转换)=>小书匠(html转换后)=>发送博客
欢迎关注此以问题驱动的公众号,每天一点源代码,带你写一个xxx。
关注公众号注册的实现(只有关注公众号才能进行注册)
注册页面,添加公众号二维码,当进行注册的时候进行校验,校验码是公众号回复返回信息,通过这个方案进行引流,否则不能注册和登录。
自己要做的网站、1、爬虫网站 2、多用户抽认卡网站(以邮箱为中心进行注册)
按照角色声明周期进行领域划分,划分好角色,然后再写源码。
1、什么是RPC、什么 是远程调用
简单的说本机上内部的方法调用都可以称为本地过程调用,而远程过程调用实际上就指的是你本地调用了远程机子上的某个方法,这就是远程过程调用。
所以说 RPC 对标的是本地过程调用,至于 RPC 要如何调用远程的方法可以走 HTTP、也可以是基于 TCP 自定义协议。 所以说你讨论 RPC 和 HTTP 就不是一个层级的东西。 而 RPC 框架就是要实现像那小助手一样的东西,目的就是让我们使用远程调用像本地调用一样简单方便,并且解决一些远程调用会发生的一些问题,使用户用的无感知、舒心、放心、顺心,它好我也好,快乐没烦恼。
2、领域划分为消费者和生产者,涉及到本地和远程方
2.1、消费者需要知道哪些接口可以调用
我们先从消费者方(也就是调用方)来看需要些什么,首先消费者面向接口编程,所以需要得知有哪些接口可以调用,可以通过公用 jar 包的方式来维护接口。todo//
主题检测器网站,检测别人主题
可以把mindmanager生成网页嵌入到自己网站上做内容问题聚合,但是文件太大带宽不够,怎么解决。
mindmanager还是占用空间太大,可以用mind做完之后使用xmind update 7 进行内容聚合,上传的时候都必须指定英文名称,中文名称不起作用会编译成乱码
解决中文名称显示问题,解决存储问题,使用gitee pages服务进行建立静态网站托管服务。本地是mind文件夹、远程是static_mind仓库
1、必须有一个缓冲图-src中放入执行Lazyload未执行前所显示的图片链接
3、主要错误找到,再进行移动的时候出现403错误,经查询发现是加载连接保护的图片的时候没有声明造成的。 head 头添加
期间怎么进行问题排查,有时候排查了很久的问题一半都是自己不仔细。这个问题应该看是否有请求和请求是否报错。但是自己没看导致错误,如果没有请求可能是属性值写错了,导致不能发出请求,如果请求报错可能是禁止外链的请求导致的。
爬虫获取标签中内容- ::text
固定链接风格除了朴素之外的任意一个都可以恢复swagger
swaggerui 访问api保护功能开启,特定key才能访问。否则容易被黑。
知道用户名可以访问api,原理是模拟浏览器访问过程不断调用api实现的 、实现问题多多,参照另外一个实现过程
ascII码转换问题,
使用restful认证的密码、最终通过curl转python的方法实现调用,这种方法可以批量使用到python调用别的api请求中,达到快速开发的目的
最终使用curl 转 python工具完成api对接,搜索只能搜索可以搜一半,另一半让浏览器启发你。
只要curl成功了就能采用python的方式。
通过生成链接之后在各个平台上找资料,然后通过爬虫的方式进行链接文章自动入自己的系统,提高学习效率。和自己引入流量效率。然后散发各种平台链接,到各个平台,达到精细化营销推荐的功能。可以爬取的过程包含但不限于:github/gitee上一些学习仓库、各大免费教学平台,问题驱动的学习形式的思维导图内容发掘系统。
依据生成的学习树进行数据爬虫,爬取问题知识点等内容,并且在这颗树上不断补充。达到实时更新。(面向问题驱动,推荐文章阅读)
1、爬取过的链接,不再爬取。
2、未爬取的时候先测试能否Ping通,ping通的话再进行下一步爬虫过程。
3、爬虫的时候适配所有博客内容形式达到精准爬虫(例如各大网站的爬虫标识都不一样)
4、爬虫后数据精准流向(自己博客)。微信价值-进行发布自己基于问题驱动的总结性文章,例如深度100问系列(短视频和各种视频平台也是更新这些系列的文章)
5、可以发布可以自行补充问题的平台进行拉入分支,然后,提问和解决问题都交给网络上的网友们。不过最终合并分支都要自己进行。多人协作平台。投票决定最优秀的回答者在最上答案区域。(这个会用到区块链吗?还是类似知乎)
这个东西可以这么做,定期拉取最优质答案,到自己的导图平台上(收集各大问题或论坛的一楼)
学习树规则:学习树只在自己的网站上有别的网站没有-别的网站是自己根据标题转发信息之后,分析出关键词,然后嵌入自己公众号和网站的广告。达到营销的目的。----最终的导向都是自己的网站。
发布到csdn或者掘金,博客园等地方的文章信息都是营销信息,广告自己的站点。
自己站点做内容聚合各种问题,提炼各种问题和方案
最终技术方案,最终形成聚合学习思维图的闭环方针
用xmind进行记录内容和链接,然后通过pyxmind进行读取,并爬取各个url学习信息成文章,最终文章落入自己的博客网站中。
xmind id是需要自己指定的吗
xmind画布包含多个sheet,所以最外层是一个数组形式 []
其他属性都是公共属性,标题、内容、链接、评论等
xmind解析规则和生成规则:
依据自己xmind进行 收集研究内容问题点,然后找链接,解析链接并爬文章到这一个内容聚合专题中(别人的markdown文档也可以拿来解析只要设置好解析规则即可)
3、html可以逐行读取内容,
4、怎么实现插入遍历,插入到思维导图遍历效果生成导图文件,遍历文档到思维导图,然后自己做部分调整的方式
判断h是否比之前保存的h大,如果大的话就新建子节点并填充title
h和之前h 一样大,新建兄弟节点并填充title
h比之前h 小,根节点并填充titile
在新建的节点上追加note内容为p的内容,
如果下一行是h,已经追加的p增加入note内容, 并清空已保存的p。 如果下行不是h,继续进行追加,
3、只能添加子主题怎么解决
同级主题实际就是子主题,如果h名字相同就添加子主题就行了,这时候取的root还是上一个新增的root
如果h大于刚刚h的话,取的root就是刚刚生成的root
newh=tmph的时候,之前的tmp 问题:采用大于时候临时赋值的tmp
包括在一级或者二级、三级 问题:产生新的tmp
如果下一行不存在就跳出
报错找不到文件,文件路径前+r即可,而且windows 使用斜杠,os或者linux使用反斜杠,绝对路径要加r
解析文章节点,然后按照节点以此遍历,提取内容,达到生成思维导图的目的
文章节点,填入和节点遍历、领域划分和领域内生命周期划分--划分成拥有独立生命周期的领域解决了该问题。
问题1、初始全部同级,因为同级的节点赋值的tmp是下一节点,导致节点挂载错误,第一次nodetyp=0,往后同级 nodetype=1,但是应该是挂到root下的,也就是nodetype=2
办法:限定加载顺序,第一次加载的节点一定是根节点下节点。就是第一次加载nodetype一定是2,然后就会对了。
问题2:、由于领域划分不清晰导致问题
都要产生一前、一后两个方向node.
领域对象的处理方式划分范围,最终达到职责分离得到自己想要的结果:
# 长度超出直接赋值,不再判断是否是h
为什么有的文本提取不出来。
解析xmind过程带过来的启发
领域设计,明确职责、领域内对象的生命周期等
1、通过提问题设计初始情况下的草稿代码(伪代码)
2、对伪代码进行分析、划分领域对象
3、对伪代码进行实现,进一步划分领域对象。
明天写xmind解析,将xmind内容解析出来好进行爬虫,包含url链接等。
数据库使用utf8编码设置
用户名、密码、数据库 都是wordpress/
如何进行方法的功能抽取
非h行和非p行,直接抽取加到tempp后边,直到遇到h的时候才进行文章
(一直放在编辑的最上层)考虑使用思维导图图谱的方式进行总结学习问题驱动过程,进行领域分割和各种原理设计
这样更明了,更清晰,更容易解决问题。导图贴在最上边容易让人理解整个脉络过程。
思维导图+processon+博客系统(基于问题的平台和原创文章)
整理问题脉络,做聚合网站
有价值的东西,都会产生金钱--做的东西保证有价值就没问题。
管道和领域思想进行写代码,做到滴水不漏的思维管道方式
爬虫优化,如果检索有此类标题文章,则不进行入库,放到自己数据库中
为什么跑spider爬虫的时候所有文件夹中的文件都跑了一遍,也就是说每个util都可以跑吗还是怎么回事
标题、涉及到自己接触过领域的方方面面
爬虫爬取网页直接生成思维导图,然后上传到自己的空间
通过解析markdown 文档实现自动请求,发送自己markdown 标识笔记整理成抽认卡内容发送到抽认卡网站。
原创文章保证一周一更新:更新到微信公众号->掘金社区->。。。。
学习路径导图库总结,各种导图文件上传形成一个学习路径导图库
自动拉取整站做成导图链接形式--形成站点导图
可以做一个有意思的项目,抖音或各种自媒体平台,爬取最秀的回答
可以发布可以自行补充问题的平台进行拉入分支,然后,提问和解决问题都交给网络上的网友们。不过最终合并分支都要自己进行。多人协作平台。投票决定最优秀的回答者在最上答案区域。(这个会用到区块链吗?还是类似知乎)
没有提供api的博客,怎么实现发布文章的一文多发(采用登录的方法实现自动发布)
防盗链的破解、采用截图的方式生成新的图片=
关闭win10 超过10天不用的电脑后台服务
浏览智能的实现,搜一半留一半,让浏览器帮你找问题答案
最终使用curl 转 python工具完成api对接,搜索只能搜索可以搜一半,另一半让浏览器启发你。
安装jwt插件进行鉴权操作
csdn什么时候又出了个这个东西
都是采用docker进行运行的,所以要定期对docker进行备份升级,通过docker inspect 可以查看wordpress启动信息,其中环境变量部分包含了mysql连接信息等。
阿里云对象存储,使用cdn对网站静态资源加速、价格低至2毛/G(如果访问量大的话很划算)-待办
小的区域回答链接怎么做?
使用链接的方式还是ajax方式链接到对应位置。
网站备份问题-如何备份一个网站和做网站迁移
B站的视频可以嵌入到自己的网页中?这个操作六,要学会从这里扩展学习达到目的。
源码阅读网 spring源码学习
实际写软件也是,先有各种管理平台菜单,然后有一些扩展业务平台,先准备好原料生命周期对象准备好,然后进行烹饪。
可以自己写一个用于csdn或者wordpress的客户端工具用于自动发送爬取文章(站长工具markdown+爬虫+wordpress自动发送)
其他浏览器也都可以实现兼容
微信扫一扫关注公众号实现
写一个脚本来引入这种文章
同类文章推荐提高浏览量 、、待做(精彩推荐可以引入流量,也可以推荐别的平台的,只要点击填入验证码即可跳转)
进来的时候调用请求查询保存在elasticsearch中的标题,文章内容进行检索自己已经存储在elasticsearch中的源数据,设置推荐阅读目录菜单。
做内容协同过滤和推荐操作。本站的操作可以进行跟踪记录,进而做内容分析。
代码关键点调通,别的就好整了,面向伪代码编程。--有意思
代码关键点调通,别的就好整了,面向伪代码编程。--有意思