前沿技术

基础知识

NoSQL 华为云数据库GaussDB(for Cassandra)揭秘第二期:内存异常增长的排查经历

发现tcmalloc的内存释放逻辑是;发现一处报错是在进行系统调用madvise时有出现失败;下来进行手动调用其释放内存接口releasefreememory;但是内存异常增长的问题仍然存在;优化tcmalloc hold内存不释放问题

SQL MySQL(1) -- 存储引擎和索引数据结构介绍 | InnoDB索引原理

主键索引的叶子节点存储的是完整数据 MyISAM中;辅助索引的叶子节点存储的是主键 MyISAM中;主键索引的叶子节点存储的是数据地址  3.2. 二级索引(辅助索引);在查找数据上和主键索引是一样的  4.2. InnoDB 索引实现;根据辅助索引找到Eric的叶子节点 该节点存储了主键

springMvc/spring Mvc 自己写一个MVC框架(一)

public void setType(String type) {;String type = e.attribute("type").getValue();public void setPath(String path) {;下面我就把自己理解编写的MVC框架分享给大家;private String type

idea IntelliJ IDEA创建web项目,并部署到tomcat上

修改Output path和Test output path为classes的路径  同样是上面的界面 Dependencies->+->JARs or dirctories->选择刚才创建的lib文件->选择;创建项目 Java Enterprise->Web AppLication->Create web.xml->next    Application Server选择Tomcat的地址;需要注意这个地址的权限问题 项目名称和地址 项目创建成功后是这样 在web/WEB-INF下新建classes和lib目录(New—>Directory)             File->Project Structure->Modules->Paths;->勾选刚才创建的项->OK 参考;//www.cnblogs.com/avivaye/p/6437555.html

mysql MySQL安装及环境配置教程

# 设置mysql的安装目录;转到D盘mysql5.7.19的bin目录下并初始化Data目录(此时D盘mysql5.7.19目录下会新建出Data文件夹);# 设置mysql数据库的数据的存放目录;# 设置mysql客户端连接服务端时默认使用的端口;# 设置mysql客户端默认字符集

开源技术

spark 大数据Spark入门以及集群搭建

将任务运行在集群中Spark 可以使用的集群管理工具有;4000 2.4. 第一个应用的运行 目标 从示例应用运行中理解 Spark 应用的运行流程 流程 Step 1 进入 Spark 安装目录中cd /export/servers/spark/Step 2 运行 Spark 示例任务bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark;可以直接使用Spark shell 一般运行在集群中安装有 Spark client 的服务器中;另一种是可以在提交至 Spark 集群中运行;1 将数据转换为元组的形式reduceByKey(_ + _) 计算每个 Key 出现的次数 总结 使用 Spark shell 可以快速验证想法 Spark 框架下的代码非常类似 Scala 的函数式调用 3.2. 读取 HDFS 上的文件 目标 理解 Spark 访问 HDFS 的两种方式 Step 1 上传文件到 HDFS 中 cd /export/data hdfs dfs -mkdir /data

spark Spark核心原理与实战

是综合评定出的优秀开源项目 Gitee 官方提供的使用手册 https;Spark核心原理与实战 介绍 极客时间《Spark核心原理与实战》视频课 软件架构 软件架构说明 安装教程 xxxx xxx

Nginx nginx: [error] open() "/var/run/nginx.pid" failed (2: No such file or directory)

根据提示在对应/va/run目录下创建对应的nginx.pid文件即可    内容直接写1就OK

Flink 大数据Flink高级特性

id product amount 1 beer 3 2 diaper 4 3 rubber 2 开发步骤 获取流处理环境 获取TableEnvironment 加载本地集合 根据数据注册表 执行SQL 写入CSV文件中 执行任务 代码 import org.apache.flink.streaming.api.scala.{ DataStream;import org.apache.flink.table.api.{ Table;val tableEnv = TableEnvironment.getTableEnvironment(env);import org.apache.flink.table.api.TableEnvironment;/** * 从自定义快照中恢复状态 * * @param state */

微服务 微服务架构

自动化构建 项目被微服务化后;Readme_zh.md 码云官方博客 blog.gitee.com 你可以 https;//gitee.com/explore 这个地址来了解码云上的优秀开源项目 G


Copyright © 2020–2021. 编程技术网(www.editcode.net) ICP主体备案号:湘ICP备2021008236号