Tagged

nodejs

A collection of 9 posts

记一次Blog迁移到Ghost
js

记一次Blog迁移到Ghost

之前的用了Hexo搭建了Blog,不过由于某次的操作失误导致Hexo本地的source源文件全部丢失.留下的只有网页的Html文件,众所周知,Hexo是一个本地编译部署类型的Blog系统,个人感觉这种类型的Blog特别不稳定,如果本地出了一些问题那么线上就GG了,当然,使用git是可以管理源文件,但是源文件里又包含很多图片的情况下,download和upload一次的时间也会比较长,虽然说这几年都流行这种类型的Blog,但个人看来还是WEB比较实在。

js

常用的js(nodejs)库整理

说明 本文为整理自己的github常用star. 免得到时候找个库都不知道找哪个. 本文包含了nodejs和js.可能还含有一些其他语言的库 详情的可以参考我githubStart zdog : 前端的伪3D框架 chart.xkcd : XKCD 手绘风类型的表单 fullPage.js : 全屏单页面的框架 markdown-nice : 支持自定义样式的 Markdown 编辑器 PicGo : 一个用于快速上传图片并获取图片 URL 链接的工具 支持多种图床 Valine : 简单 轻量的评论系统 hoppscotch : api请求工具 类似于postman formily : 阿里巴巴出品的自动化生成表单框架 react系 p5.js : js的在线编辑创意库 qier-progress : 支持彩色或单色的顶部进度条 image-compress-without-backend : 浏览器端图片压缩工具 无后端 panolens.js : 基于three.js的全景查看前端框架 jexcel : js excel表格库 typical : 前端打字机特效

mongoose

mongoose连表查询与更改

mongoose中的连表查询 github地址 population API 当找不到外链ID会跳过此ID 比如 Name1中有三个_id分别为 { test:[1,2,3] ref:Name2 } Name2中以_id来索引表分别为 { _id:1 name:1 }, { _id:2 name:2 }, { _id:3 name:3 } 现在删除Name2中的_id:2但是不删除Name1中的test外键中的_id:2这样索引出来会索引出_id:1 _id:3并且不会报错. 建立关联表 表一:Name var ObjectId=mongoose.Schema.Types.ObjectId var NameSchema=new mongoose.

nodejs

自用七牛上传下载

自用nodejs版七牛上传下载功能 Blog GitHub下载 自用功能 自动对比服务器文件上传,自动获取服务器文件下载,获取服务器上所有文件 依赖模块 npm install qiniu npm install request npm install underscore JS中最下方的初始化 AK: 你的七牛AK, SK: 你的七牛SK, path: 需要同步文件夹以当前文件夹下的文件夹,非绝对路径如:"/uploadQN"指的是当前文件夹下的uploadQN, bucket: 你的七牛空间, domain: 你的七牛CDN域名 用来下载 指令 目前仅仅支持get,list,upload get nodejs uploadQN.js get 获取目录下的所有文件以及文件夹 list nodejs uploadQN.js list 获取服务器上的所有文件

nodejs

慕课网nodejs建站第一期

项目地址 github 引用的nodejs库 express path mongoose underscore bodyParser 目录结构 models:用来存放mongoose model目录 public:静态文件 js:静态js库 libs:公共静态资源库 schemas:mongoose schemas目录 views:视图模板目录 includes:视图模板公共目录 pages:视图模板页面目录 layout.jade 视图主模板 数据库构建 schemas doctor:String, title:String, language:String, country:String, summary:String, flash:String, poster:String, year:Number, meta:{ createAt:

nodejs

nodejs爬虫-笨笨兔的故事

起始想找个笨笨兔的故事txt版的放kindle上 无奈网上都是pdf版的,不过倒是有在线阅读的http://www.linuxidc.com/Linux/2010-12/30786.htm于是打算自己用nodejs写个爬虫来爬一下网站内容生成txt传输到kindle具体请参考我的github 开始编写 用到的库有 superagent //request请求 async //并发(异步)流程控制库 用来控制并发数 cheerio //nodejs的jquery 引入库 //引入request模块 var superagent=require("superagent"); //引入async并发模块 var async=require("async"); //引入DOM操作模块 var cheerio=require("cheerio"); //引入file模块 var fs=require("fs"