博客
关于我
2021-04-01
阅读量:198 次
发布时间:2019-02-28

本文共 4863 字,大约阅读时间需要 16 分钟。

JDBC详细笔记

JDBC相关概念

JDBC(Java DataBase Connectivity)是Java连接数据库的技术,提供一套操作所有关系型数据库的规则和接口,使得开发者可以通过一套代码与各种数据库进行交互。无论是MySQL、PostgreSQL还是 SQLite,JDBC都能统一管理这些数据库连接。

连接三要素

建立JDBC连接需要三个关键信息:

  • URL:数据库的连接地址,格式为 jdbc:mysql://localhost:3306/mydb?useUnicode=true&characterEncoding=utf8&useSSL=false
  • 用户名:数据库的访问账号,如 root
  • 密码:数据库账号的密码,如 root
  • JDBC核心接口

    Connection接口

    Connection 是JDBC中最核心的接口,负责建立和管理数据库连接。它是Java程序与数据库交互的桥梁。以下是使用Connection的步骤:

  • 导入数据库驱动类:Class.forName("com.mysql.jdbc.Driver");
  • 定义连接字符串并获取Connection对象:DriverManager.getConnection(url, userName, password);
  • 使用连接对象执行操作,最后关闭连接:conn.close();
  • PreparedStatement接口

    PreparedStatement 是用于执行动态SQL语句的接口。它支持占位符,让程序在运行时确定具体的SQL语句。例如:

    String sql = "update tb_account set account_balance = 2000 where id = 1";try (PreparedStatement ps = conn.prepareStatement(sql)) {    ps.setInt(1, 1);    int rows = ps.executeUpdate();    System.out.println("rows = " + rows);}

    ResultSet接口

    ResultSet 用于存储从数据库查询返回的结果集。它允许程序逐行读取数据:

    ResultSet rs = ps.executeQuery();while (rs.next()) {    int id = rs.getInt(1);    String accountName = rs.getString(2);    int balance = rs.getInt(3);    System.out.println(id + "---" + accountName + "---" + balance);}

    数据库连接池

    什么是数据库连接池

    数据库连接池是一个容器,用于存储数据库连接对象。它的作用是减少频繁创建连接对象带来的性能消耗,提升数据库访问效率。连接池需要实现 javax.sql.DataSource 接口。

    常见连接池技术

  • DBCP:Apache提供的连接池,速度较快,但在Hibernate 3中已不再支持。
  • C3P0:开源连接池,稳定性一般,速度较慢。
  • Proxool:另一个开源连接池,具备监控功能。
  • BoneCP:专注于性能,速度快。
  • Druid:阿里巴巴开源的连接池,兼容多种连接池,性能优异。
  • Druid连接池的使用步骤

  • 导入Druid的JAR包:druid-1.0.9.jar
  • 定义 druid.properties 文件,配置连接池参数:
    driverClassName=com.mysql.jdbc.Driverurl=jdbc:mysql://localhost:3306/db1?useUnicode=true&characterEncoding=UTF8&useSSL=falseusername=rootpassword=rootinitialSize=5maxActive=10maxWait=3000
  • 创建连接池工具类,加载配置文件并获取连接池对象:
    public class DruidUtils {    private static DataSource ds;    static {        try (InputStream in = Thread.currentThread().getContextClassLoader().getResourceAsStream("druid.properties")) {            Properties props = new Properties();            props.load(in);            ds = DruidDataSourceFactory.createDataSource(props);        } catch (Exception e) {            throw new RuntimeException("连接池初始化失败");        }    }    public static DataSource getDataSource() throws Exception {        return ds;    }    public static Connection getConnection() throws Exception {        return ds.getConnection();    }}
  • JDBC批处理与MySQL事务

    JDBC批处理

    批处理允许一次性执行多个DML操作,确保所有操作要么全部成功,要么全部失败。使用批处理时,需确保事务已开启:

    try (Connection conn = DruidUtils.getConnection()) {    conn.setAutoCommit(false);    PreparedStatement ps = conn.prepareStatement("delete from tb_account where id = ?");    ps.addBatch();    ps.addBatch();    ps.addBatch();    int[] rows = ps.executeBatch();    conn.commit();}

    MySQL事务管理

    事务管理允许开发者控制数据库操作的原子性、持久性和一致性。通过设置 conn.setAutoCommit(false); 可以启用事务,确保异常时回滚所有操作。

    Apache DBUtils

    DBUtils简介

    DBUtils 是Apache 提供的JDBC工具库,简化了JDBC编码,降低了学习成本。它支持CRUD操作,并通过 QueryRunner 类简化SQL执行。

    DBUtils的核心接口

  • QueryRunner:用于执行SQL语句,支持批处理和事务。
  • ResultSetHandler:处理查询结果,封装为JavaBean或其他数据结构。
    • BeanHandler:将结果封装为JavaBean。
    • BeanListHandler:将结果封装为JavaBean列表。
    • ScalarHandler:将结果封装为单值。
  • 使用DBUtils的示例

    修改数据:

    String sql = "update tb_account set account_balance = ? where id = ?";Object[] params = {new Account().getAccountBalance(), 1};int rows = runner.update(sql, params);

    查询数据:

    String sql = "select id, account_name, account_balance from tb_account";List
    list = runner.query(sql, new BeanListHandler
    (Account.class));list.forEach(account -> System.out.println(account));

    BaseDAO 实现

    BaseDAO 类

    BaseDAO 是一个通用的DAO类,封装了CRUD操作,减少代码重复。它支持:

  • 增加数据:save 方法。
  • 修改数据:update 方法。
  • 删除数据:delete 方法。
  • 查询数据:getOnegetAll 方法。
  • AccountDAO 接口

    public interface AccountDAO {    int saveAccount(String sql, Account account) throws Exception;    int updateAccount(String sql, Account account) throws Exception;    int deleteAccount(String sql, Integer id) throws Exception;    List
    listAccount(String sql, Object... params) throws Exception; Account getAccountById(String sql, Object... params) throws Exception; long getAccountCount(String sql) throws Exception;}

    ###实现类

    public class AccountDAOImpl extends BaseDAO implements AccountDAO {    public int saveAccount(String sql, Account account) throws Exception {        Object[] params = {account.getAccountName(), account.getAccountBalance()};        return update(sql, params);    }    // 其他方法类似}

    测试与验证

    测试方法

  • 单元测试:使用 @Test 注解定义测试方法。
  • 数据准备:创建实体类和测试数据。
  • 调用方法:通过工具类获取连接对象,执行CRUD操作。
  • 结果验证:检查返回值和数据是否正确。
  • 测试示例

    @Testpublic void saveAccountTest() {    Account account = new Account(-1, "王老五", 50001);    try {        int rows = dao.saveAccount("insert into tb_account(account_name, account_balance) values (?, ?)", account);        System.out.println(rows > 0 ? "添加成功" : "添加失败");    } catch (Exception e) {        e.printStackTrace();    }}

    总结

    通过JDBC和DBUtils,我们掌握了对关系型数据库的标准操作。使用连接池优化数据库连接管理,批处理提升操作效率,BaseDAO 实现代码复用。这些技术结合使用,能够高效、简洁地完成数据库开发任务。

    转载地址:http://upni.baihongyu.com/

    你可能感兴趣的文章
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
    查看>>
    NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
    查看>>
    NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
    查看>>
    Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
    查看>>
    NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
    查看>>
    NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
    查看>>
    NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
    查看>>
    NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
    查看>>
    NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
    查看>>
    NIFI大数据进阶_外部ZK模式集群1_实际操作搭建NIFI外部ZK模式集群---大数据之Nifi工作笔记0017
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_01_实际操作---大数据之Nifi工作笔记0029
    查看>>
    NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
    查看>>
    NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
    查看>>
    NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
    查看>>
    NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
    查看>>
    NIFI集群_内存溢出_CPU占用100%修复_GC overhead limit exceeded_NIFI: out of memory error ---大数据之Nifi工作笔记0017
    查看>>