JExten:基于Java模块系统(JPMS)构建健壮的插件架构

JExten:基于Java模块系统(JPMS)构建健壮的插件架构

1. 动机:通往模块化隔离之路

在Java中构建可扩展应用程序时,开发者常常从一个简单的问题开始:"如何让用户无需重新编译核心应用程序就能添加功能?" 旅程通常始于标准的 java.util.ServiceLoader,它提供了一种发现接口实现的简单机制。

然而,随着应用程序的增长,一个关键问题出现了:"类路径地狱"。

想象一下,你有一个使用 library-v1 的主机应用程序。你创建了一个插件系统,有人写了一个需要 library-v2 的 "Twitter 插件"。如果所有东西都在同一个扁平的类路径上运行,就会产生冲突。要么主机因为得到错误的库版本而崩溃,要么插件失败。你无法在类路径上同时存在同一个库的两个版本而不面临运行时异常(如 ClassDefNotFoundErrorNoSuchMethodError)的风险。

这正是JExten背后的核心驱动力。我需要一种能够严格封装插件的方式,使得每个插件都可以定义自己的依赖,而不影响主机或其他插件。

引入JPMS(Java平台模块系统)

Java 9引入了模块系统(JPMS),它提供了强封装和显式的依赖关系图。它允许我们创建隔离的模块"层"。

  • 启动层:JVM和平台模块。
  • 主机层:核心应用程序及其依赖。
  • 插件层:在主机层之上动态创建的层。

通过利用JPMS的ModuleLayers,JExten允许插件A依赖于Jackson 2.14,而插件B依赖于Jackson 2.10,两者可以在同一个运行的应用程序中和睦共存。

2. 架构与设计

JExten设计为轻量级且基于注解驱动,抽象了原始ModuleLayers的复杂性,同时提供了依赖注入(DI)和生命周期管理等强大功能。

架构基于三个主要支柱:

扩展模型

核心在于,JExten在"契约"(API)和"实现"之间进行了清晰分离。

    1. 扩展点 (@ExtensionPoint):在主机应用程序(或共享API模块)中定义的接口,规定了哪些功能可以被扩展。
      @ExtensionPoint(version = "1.0")
      public interface PaymentGateway {
      void process(double amount);
      }
    1. 扩展 (@Extension):由插件提供的具体实现。
      @Extension(priority = Priority.HIGH)
      public class StripeGateway implements PaymentGateway {
      // ...
      }

      注意,你可以在没有PluginManager的情况下使用ExtensionManager。这在测试中或当你希望在非插件环境中使用JExten,且所有扩展都已经在模块路径中可用时非常有用。

管理器分离

为了分离关注点,该库将职责划分到两个不同的管理器:

    1. PluginManager("物理层")
      • 该组件处理原始工件(JAR/ZIP文件)。
      • 它使用SHA-256校验和验证完整性,确保插件未被篡改。
      • 它构建JPMS ModuleLayer 图。它读取 plugin.yaml 清单,解析依赖项(从本地缓存或Maven仓库),并构建类加载环境。
    1. ExtensionManager("逻辑层")
      • 一旦层构建完成,该组件接管。
      • 它在各个层中扫描带有 @Extension 注解的类。
      • 它管理这些扩展的生命周期(单例、会话或原型作用域)。
      • 它处理依赖注入。

依赖注入

由于插件在隔离的层中运行,标准的DI框架(如Spring或Guice)有时可能"太重"或在动态模块边界间配置起来很棘手。JExten包含一个内置的、轻量级的DI系统。

你可以简单地使用 @Inject 将扩展连接在一起:

@Extension
public class MyPluginService {
    @Inject
    private PaymentGateway gateway; // 自动注入最高优先级的实现
}

这在模块边界之间可以无缝工作。一个插件可以注入由主机提供的服务,甚至可以注入由另一个插件提供的服务(如果模块关系图允许的话)。

3. 使用示例

下面快速了解一下如何定义扩展点,在插件中实现它,并在应用程序中使用。

I. 定义一个扩展点

创建一个接口并用 @ExtensionPoint 注解。这是插件将实现的契约。

@ExtensionPoint(version = "1.0")
public interface Greeter {
    void greet(String name);
}

II. 实现一个扩展

在你的插件模块中,实现该接口并用 @Extension 注解。

@Extension
public class FriendlyGreeter implements Greeter {
    @Override
    public void greet(String name) {
        System.out.println("Hello, " + name + "!");
    }
}

III. 发现与使用

在你的主机应用程序中,使用 ExtensionManager 来发现和调用扩展。

public class Main {
    public static void main(String[] args) {
        // 初始化管理器
        ExtensionManager manager = ExtensionManager.create(pluginManager);

        // 获取Greeter扩展点的所有扩展
        manager.getExtensions(Greeter.class)
               .forEach(greeter -> greeter.greet("World"));
    }
}

IV. 将你的扩展打包为插件

最后,使用 jexten-maven-plugin Maven插件在编译时检查你的 module-info.java,并将你的扩展打包成一个包含所有依赖项和生成的 plugin.yaml 清单的ZIP包。

<plugin>
    <groupId>org.myjtools.jexten</groupId>
    <artifactId>jexten-maven-plugin</artifactId>
    <version>1.0.0</version>
    <executions>
        <execution>
            <goals>
                <goal>generate-manifest</goal>
                <goal>assemble-bundle</goal>
            </goals>
        </execution>
    </executions>
    <configuration>
        <hostModule>com.example.app</hostModule>
    </configuration>
</plugin>

然后,你可以将生成的ZIP包安装到你的主机应用程序中:

public class Application {
    public static void main(String[] args) throws IOException {
        Path pluginDir = Path.of("plugins");

        // 创建插件管理器
        PluginManager pluginManager = new PluginManager(
            "org.myjtools.jexten.example.app", // 应用程序ID
            Application.class.getClassLoader(),
            pluginDir
        );

        // 从ZIP包安装插件
        pluginManager.installPluginFromBundle(
            pluginDir.resolve("my-plugin-1.0.0.zip")
        );

        // 创建支持插件的扩展管理器
        ExtensionManager extensionManager = ExtensionManager.create(pluginManager);

         // 从插件获取扩展
        extensionManager.getExtensions(Greeter.class)
            .forEach(greeter -> greeter.greet("World"));
    }
}

4. 与其他解决方案的比较

选择合适的插件框架取决于你的具体需求。以下是JExten与一些成熟替代方案的对比:

PF4J (Plugin Framework for Java)

PF4J是一个成熟的、轻量级的插件框架,依赖于ClassLoader隔离。

  • 隔离性:PF4J使用自定义ClassLoader隔离插件。JExten使用JPMS ModuleLayers。后者是自Java 9以来处理隔离的"原生"Java方式,在JVM级别严格执行封装。
  • 现代性:虽然PF4J非常优秀,但JExten是专门为现代模块化Java生态系统(Java 21+)设计的,利用模块描述符(module-info.java)来定义依赖关系,而不是自定义清单。

OSGi

OSGi是模块化的黄金标准,为Eclipse等IDE提供支持。

  • 复杂性:OSGi功能强大,但学习曲线陡峭且样板代码多(Manifest头、Activators、复杂的服务动态)。JExten通过专注于80%的用例——具有简单依赖注入的严格隔离扩展——提供了远低于OSGi的复杂性("精简版OSGi"),且不需要完整的OSGi容器。
  • 运行时:OSGi带来沉重的运行时。JExten是一个轻量级库,构建在标准JVM特性之上。

Layrry

Layrry是一个用于执行模块化Java应用程序的启动器和API。

  • 关注点:Layrry非常侧重于模块层的配置和组装(通常通过YAML/TOML),并充当运行器。JExten则侧重于这些层内的编程模型
  • 特性:Layrry擅长构建层,但它不提供固化的应用框架。JExten提供了"粘合"代码——扩展点、依赖注入和生命周期管理——这些是你在使用原始模块层或Layrry时必须自己编写的东西。
特性 JExten PF4J OSGi Layrry
隔离 JPMS 模块层 文件/类加载器 Bundle类加载器 JPMS 模块层
配置 Java 注解 属性/清单 Manifest 头部 YAML/TOML
依赖注入 内置 (@Inject) 外部 (Spring/Guice) 声明式服务 无 (ServiceLoader)
学习曲线

5. 结论

JExten是一个轻量级、基于注解驱动的插件框架,它利用JPMS模块层来提供隔离和依赖管理。其设计目标是易于使用和理解,注重简洁性和易用性。

最后,请记住JExten仍处于早期阶段,有很大的改进空间。欢迎在GitHub上为项目做贡献和/或在issue部分参与讨论。项目仓库链接在此处


【注】本文译自:JExten: Building a Robust Plugin Architecture with Java Modules (JPMS) – DEV Community

SJF4J 五分钟入门:Java 的实用 JSON 门面

Java 中的 JSON 处理很少是简单的。

在实际应用中,数据不断在以下形式之间流转:

  • POJO(普通Java对象)
  • Map / List
  • JSON 字符串
  • 配置文件
  • 模式不断演进的 API

Java 开发者常常被迫做出痛苦的选择:

要么要类型安全,要么要灵活性——二者不可兼得。

SJF4J(Java 简单 JSON 门面) 就是为了消除这种取舍而构建的。

SJF4J 是什么?

SJF4J 是流行 JSON 库(Jackson、Gson、Fastjson2)及相关格式(YAML、Properties)之上的一个轻量级门面。它提供一个用于结构化数据处理的统一语义层,完全基于 JSON 规范。它替代你的 JSON 解析器,而是在它们之上统一你的结构化数据处理方式。

核心理念:基于对象的节点树

SJF4J 没有引入自定义的 JSON AST(抽象语法树),而是将现有的 Java 对象视为 JSON 节点。这被称为基于对象的节点树[Object-Based Node Tree (OBNT)]

在 OBNT 中:

  • JSON 对象 → JsonObject、Map、POJO
  • JSON 数组 → JsonArray、List、数组
  • JSON 值 → Java 原生类型

一切都保持为普通的 Java 对象,只是在上层附加了 JSON 语义。

快速示例

JsonObject jo = JsonObject.fromJson("""
{
  "id": 1,
  "active": true
}
""");

int id = jo.getInt("id");              // 类型安全
String active = jo.asString("active"); // Boolean → String 转换

SJF4J 提供三种访问级别:

  • getNode → 原始访问
  • getXxx → 类型安全访问
  • asXxx → 语义访问,支持跨类型转换

你可以为每次调用选择严格程度。

基于路径的访问(符合 RFC 规范)

SJF4J 完全支持:

  • JSON 路径(RFC 9535)
  • JSON 指针(RFC 6901)
String name = jo.asByPath("$.user.name");
List<Integer> ids = jo.findByPath("$.items[*].id", Integer.class);

同样的路径 API 适用于:

  • JSON
  • Map / List
  • POJO
  • 混合对象图

动态 + 类型化:JOJO

SJF4J 引入了 JOJO(JSON 对象 Java 对象)—— 一个扩展了 JsonObject 的领域对象。

class User extends JsonObject {
    String name;
}
user.getName();               // 类型化访问
user.getString("age");        // 动态访问
user.findByPath("$..name");   // JSON 语义访问

你可以从动态访问开始,逐步添加结构 —— 而无需破坏 API。

使用 JsonPatch 进行声明式转换

SJF4J 支持:

  • JSON 补丁(RFC 6902)
  • JSON 合并补丁(RFC 7386)
JsonPatch patch = JsonPatch.diff(source, target);
patch.apply(source);

补丁操作在 POJO、Map、List 和 JSON 对象上统一工作。

SJF4J 何时大放异彩?

如果你符合以下情况,SJF4J 是理想选择:

  • 处理不断演进或半结构化的数据
  • 既需要灵活性又需要类型安全
  • 希望在多个 JSON 库上使用统一的 API
  • 关注 JSON 规范

总结

SJF4J 让面向 JSON 的 Java 开发成为可能 —— 无需过早锁定方案或编写过多样板代码。

它小巧、可组合,并且由规范驱动。

👉 GitHub: https://github.com/sjf4j-projects/sjf4j


【注】本文译自:SJF4J in 5 Minutes: A Practical JSON Facade for Java

Java的未来:2026年及以后的展望

1. 引言:Java的演进轨迹

随着2026年的临近,Java正处于一个引人入胜的转折点。该平台并非仅仅维持其地位,而是通过Valhalla、Panama、Amber和Vector API等项目经历着重大创新。这些举措不仅仅代表渐进式改进,它们从根本上重塑了Java处理数据、与本机代码互操作以及表达开发者意图的方式。

自Java 9引入的六个月发布节奏在保持稳定性的同时加速了创新。Java 21在发布数月内采用率已达到45%,这表明当新功能带来切实价值时,社区乐于接受。本文将探讨Java即将到来的最重要增强功能的理论基础、架构原理和战略意义。

2. Project Valhalla:重新思考对象模型

2.1 Java必须解决的内存问题

自1995年以来优雅而简单的Java对象模型,如今与现代硬件的现实严重不匹配。Java诞生之初,内存读取操作和算术运算的成本大致相当,但如今内存读取的成本比算术运算高出200到1000倍。硬件经济的这一根本性转变使得Java大量使用指针的数据表示方法问题日益突出。

以坐标或颜色值这类简单的数据结构为例。传统Java即使是针对最小的数据载体,也会创建具有身份标识和开销的完整堆对象。这种间接引用级联——对象数组包含指向分散堆位置的引用——破坏了缓存局部性,并迫使进行昂贵的内存遍历。

2.2 值类型:像类一样编码,像int一样工作

Project Valhalla引入了值类,它将面向对象的抽象与原始类型的性能特性相结合,允许存在没有身份标识且可以优化编码的对象。其概念性突破在于认识到并非所有对象都需要身份标识。许多数据结构——坐标、复数、元组——代表的是纯粹的值而非实体。

值类牺牲了依赖于身份标识的特性(通过==进行的引用相等性、同步),以换取显著的内存和性能改进。值类仍然支持null,因为它们是引用类型;而受到更严格约束的原始类则完全放弃了null支持,但允许进行更激进的优化。

2.3 架构影响

其影响远不止于单个对象。2025年10月的早期访问基准测试显示,在从一个包含5000万个LocalDate实例的数组中求和年份时,性能提升近3倍,相较于基于身份标识的对象,平均执行时间从约72毫秒减少到25毫秒。

这种性能增益源于扁平化——将值对象数据直接嵌入数组和字段,而不是存储引用。这样得到的是一个连续的实际数据块,而非包含指向分散堆对象指针的数组,完美适配现代CPU缓存架构。

2.4 增强泛型与具体化

Valhalla的范围还包括解决Java长期存在的泛型类型擦除限制。增强泛型旨在实现对对象引用、原始类型、值类型以及可能void的泛型支持,从而消除对装箱变通方案的需求。这意味着List<int>成为可能,无需包装对象,既消除了内存开销,也减轻了分配压力。

2.5 时间线与现状

截至2025年10月,JEP 401:值类与对象已提供早期访问构建版本,在JDK 26的早期访问构建中实现了具有预览功能的值类。预计将通过持续不断的增强功能在多个版本中交付,而非一次性的庞大更新。现实的稳定目标指向Java 26-27(2026-2027)达到生产就绪状态。

3. Project Panama:连接Java与本机代码

3.1 JNI问题陈述

几十年来,Java本地接口一直作为Java访问本地库的网关,但其复杂性带来了巨大成本。JNI要求同时具备Java和本地编程的专业知识,通常导致编写容易出错的胶水代码、频繁跨越边界带来的性能开销、手动内存管理带来的泄漏或崩溃风险,以及直接内存访问引发的安全问题。

3.2 外部函数与内存API架构

Project Panama的外部函数和内存API经过自Java 14以来的孵化,在Java 22中成为标准,为开发者提供了调用本地函数、分配本地内存和映射本地数据结构的直接方式。其架构优雅之处在于实现了类型安全的内存访问,同时不牺牲性能。

该API引入了几个关键抽象:

  • 内存段:对内存源(堆内或堆外)的有限、有时限、线程受限的视图。与原始指针不同,内存段携带大小信息和生命周期管理。
  • 链接器:JVM与C/C++本地代码之间的桥梁,为Win64、SysVx64、LinuxAArch64和MacOsAArch64提供了平台特定的实现。
  • 函数描述符:本地函数签名的类型安全规范,确保Java与本地约定之间正确的数据编排。
  • 基于竞技场的内存管理:作用域分配,自动释放资源,防止困扰手动JNI代码的内存泄漏。

3.3 性能与安全特性

安全性与原始性能之间的权衡值得审视。虽然互操作代码是用Java编写的,但不能认为是100%安全的,因为运行时必须信任开发者对本地函数的描述,这也是访问外部链接器是一项受限操作、需要foreign.restricted=permit标志的原因。

这种设计有意暴露了本地互操作的内在风险,同时为防止常见错误提供了护栏。该API通过编译时和运行时检查防止了许多类型的错误——缓冲区溢出、释放后使用、空指针解引用——但也承认本地代码边界代表着信任边界。

3.4 生产状态

截至2025年,FFM API经过自Java 19以来的严格改进,被认为是基本稳定的,具有简化的内存管理、增强的安全措施和定制功能。在Java 22中从预览版过渡到生产版标志着一个重要的里程碑,使Panama成为新开发中JNI的现代替代品。

4. Project Amber:表达能力的演进

4.1 减少仪式感理念

Project Amber的使命是通过一个常被称为“语言仪式感适度化”的过程,识别并孵化较小的、以提高生产力为导向的语言特性,使日常Java代码更易读、易写、易维护。与针对性能或互操作性的项目不同,Amber侧重于开发者的易用性和表达力。

4.2 已完成的功能

已交付的功能从根本上改变了现代Java代码的外观和感觉:

  • 局部变量类型推断:在编译器可以推断类型的地方消除冗余的类型声明,在不牺牲类型安全的前提下减少代码噪音。
  • Switch表达式:将switch从语句转变为具有详尽性检查和模式匹配能力的表达式,实现了简洁、安全的条件逻辑。
  • 文本块:尊重格式的多行字符串字面量,消除了为SQL、JSON和HTML进行的字符串拼接技巧。
  • 记录类:用于不可变数据载体的紧凑语法,自动派生equalshashCodetoString实现。
  • 密封类:通过明确许可哪些类型可以扩展或实现一个密封类型,来控制继承层次结构,从而支持详尽的模式匹配。
  • 模式匹配:增强的instanceofswitch以支持模式匹配,消除了类型检查后的显式强制转换,并支持复杂的数据解构。

4.3 当前演进中的功能

对于2025年,Amber专注于敲定四个预览功能:允许在super/this调用之前执行代码的灵活构造函数体、简化入口点的紧凑源文件和实例主方法、用于简洁包导入的模块导入声明,以及用于原始类型匹配的原始模式。

除此之外,探索性工作仍在继续:

  • 自定义解构器:将模式匹配扩展到记录类之外的任意类,允许在不要求记录类约束的情况下进行解构。
  • Withers:一种with表达式,将实例解构为变量,允许重新分配其值,然后调用构造函数生成修改后的副本。
  • 字符串模板:安全、高效的字符串插值机制,该功能在Java 23中为重新设计而移除,但仍在积极开发中。

4.4 面向数据的编程范式

Amber的开发努力与面向数据编程范式紧密契合,侧重于使数据不可变、将数据与行为分离,以及设计具有清晰、可预测结构的数据聚合。这代表了对传统面向对象编程的补充方法,而非替代,为那些透明数据建模比封装更有优势的场景提供了工具。

5. Vector API:显式SIMD编程

5.1 自动向量化的局限性

现代CPU提供SIMD能力,可以同时对多个数据元素执行操作。如今,编写本应向量化的标量操作的开发者需要了解HotSpot的自动向量化算法及其局限性,才能获得可靠的性能,并且在某些情况下可能无法编写可转换的标量操作。

这种对编译器启发式方法的依赖使得性能不可预测。看似语义相同的简单更改可能会阻止向量化,让开发者没有可靠的方式来表达可向量化的意图。

5.2 Vector API设计原则

Vector API提供了直接在Java中执行SIMD操作的向量类型、操作和工厂,具有清晰简洁的API,能够表达广泛的向量计算,且对向量大小通用,从而能在支持不同向量大小的硬件上实现可移植性。

其架构方法优先考虑:

  • 平台无关性:使用Vector API编写的代码可在x64、ARM和RISC-V平台上运行,并进行适当的专门化。
  • 可预测的编译:在具有能力的x64架构上,HotSpot C2应该将向量操作编译为相应的高效向量指令,开发者确信所表达的操作与相关向量指令紧密对应。
  • 优雅降级:当向量计算无法完全表达为向量指令时(可能是因为架构不支持所需的指令),实现会优雅降级且仍能运行。

5.3 性能特征

基准测试显示,在两个大整数数组求和的简化案例中,使用Vector API相比标量操作实现了超过4倍的性能提升。实际收益很大程度上取决于数据访问模式、缓存行为以及所涉及的具体操作。

性能方面包含重要注意事项。主内存访问每次访问成本为60-100+个CPU周期,因此随着数组大小超过CPU缓存容量,更多的内存访问会降低Vector API的优势。此外,JIT自动向量化有时能对简单模式达到类似效果,使得该API对于破坏自动向量化的复杂算法最有价值。

5.4 与Panama和Valhalla的集成

Vector API在x64上利用Intel短向量数学库,在ARM和RISC-V上利用SIMD初等函数求值库,使用Panama的外部函数和内存API链接到本地数学函数。此外,Vector API使用装箱类型作为原始类型的代理,这是受当前泛型限制所迫,预计在Valhalla引入能力更强的泛型后会有所改变。

5.5 现状与时间线

JEP 529:Vector API(第十一次孵化)目标定于2025年12月的JDK 26,表明在最终确定之前将继续完善。延长的孵化期反映了在保持API稳定性的同时,在多样化的硬件平台上实现一致性能的复杂性。现实的稳定目标可能随Java 26(2026)一起到来。


6. 模块系统:采用与现实

6.1 JPMS概念基础

Java平台模块系统是一种代码级结构,它不改变JAR打包方式,但通过module-info.java文件添加了更高层级的描述符,使开发者更容易组织大型应用程序和库,同时改进了平台结构和安全性。

模块系统解决了几个架构问题:

  • 类路径地狱:类路径最终变成了一个庞大无差别的大桶,所有依赖项都插入其中,模块路径在其上增加了一个层级,作为包的存储,并选择哪些包是可访问的。
  • 封装性:模块显式声明它们导出哪些包以及需要哪些其他模块,防止意外依赖内部API。
  • 显式依赖:模块依赖关系的编译时验证减少了运行时意外,并便于进行静态分析。

6.2 采用模式与挑战

截至2025年,JPMS在GraalVM本地镜像编译中的使用有所增长,其中模块化应用程序通过排除未使用的代码路径实现提前优化,从而产生适用于无服务器和边缘场景的紧凑可执行文件。

然而,企业采用呈现出审慎的速度。Spring Boot在JPMS集成方面已取得进展,在版本3中提供对模块化JAR的部分支持,并在Spring Boot 4中实现了自动配置的完全模块化,将大型构件拆分为有针对性的模块,以最小化类路径污染。

逐步采用反映了实际约束。许多组织维护着大量的遗留代码库,其中模块化意味着大量的重构投入。自动模块机制——为非模块化JAR提供隐式模块描述符——提供了迁移路径,但并未带来全部好处。

6.3 强封装的演进

从Java 16开始,强封装成为默认设置,除非通过标志明确允许,否则将非法访问转为错误,Java 17使–illegal-access选项过时并强制执行严格封装。这一进程平衡了迁移兼容性与安全目标。

强制执行时间线展示了Java的理念:提供警告和迁移路径,然后在社区适应后加强保证。依赖内部JDK API的库和框架面临破坏性变更,但延长的时间线允许有序过渡。

6.4 模块化Java的未来

企业采用与Java 21使用率的上升保持一致,调查显示43%的开发者在其项目中利用它,表明为了构建可维护、安全的系统,更广泛地集成了模块化实践。

模块系统的未来可能涉及更深入的工具集成、改进的IDE支持以及更清晰的最佳实践。Java 25的JEP 511引入了通过import module M;语法的模块导入声明,允许从导出包中导入所有公共类型以简化使用,显示了向开发者友好的模块交互方向持续演进。

7. 社区治理与OpenJDK流程

7.1 JCP与JEP的关系

JEP流程并未取代Java社区流程,JCP仍然是所有标准Java SE API及相关接口的管理机构,被接受的提案需要通过JSR在JCP中进行并行努力,以实现标准接口的变更。

这种双轨系统平衡了创新与标准化:

  • JEP:允许OpenJDK提交者在成为正式的Java规范请求之前更非正式地工作,充当JDK发布项目的长期路线图。
  • JSR:定义所有Java实现必须遵循的规范的正规提案,确保跨供应商的一致性。

7.2 决策结构

OpenJDK负责人最终决定将哪些JEP纳入路线图,但在评估提案时依赖评审者、组长和领域负责人所展示的专业知识。这种层级结构承认,没有人能在Java的庞大复杂性中保持专家级的理解。

成功的JEP需要通过评审者背书以及组长/领域负责人支持来建立共识。组长或领域负责人的背书应被视为相当有力的声明,相当于“我将主张这个JEP应该获得资助”。

7.3 六个月发布节奏的影响

JDK 25于2025年9月16日达到通用可用性,其功能和进度通过JEP流程(经JEP 2.0提案修订)进行跟踪。可预测的节奏从根本上改变了Java的创新模式。

此前多年的发布周期造成了将不成熟功能纳入发布窗口的压力。六个月模型允许功能在跨版本的多次预览轮次中成熟,而不会阻碍其他改进。这种能够培养耐心的结构被证明对Valhalla等复杂的举措至关重要,这些举措需要广泛的实际测试才能稳定。

7.4 社区参与

Java社区流程最初于1998年12月正式制定,Java的许多成功归功于该语言的演进方式以及全球社区在此演进中的协作方式。如今的参与机制包括邮件列表、早期访问构建和公共问题跟踪。

透明度要求已有所发展。JSR专家组必须在公共邮件列表上进行讨论,使用公共问题跟踪机制记录进度,并发布工作文档供所有人查看。这种开放性与早期更为封闭的开发模式形成对比。

8. Java的竞争定位

8.1 多范式格局

Java在多条战线上面临竞争,每种竞争都代表了不同的权衡:

  • Kotlin:Kotlin势头强劲,特别是在2017年谷歌宣布其为Android开发首选语言之后,不过根据Stack Overflow的2022年调查,Java仍远受欢迎得多(33.27% vs 9.16%)。Kotlin的吸引力在于互操作性——它运行在JVM上,并能与现有Java代码无缝集成,支持渐进式采用而非彻底重写。
  • Go:Go专为简单性和并发性设计,针对微服务和云基础设施领域,在这些领域中,快速编译和直接部署比丰富的生态系统更重要。Go的垃圾收集和缺乏泛型(直到最近)代表了倾向于简单性的有意权衡。
  • Rust:到2025年,Rust凭借其对内存安全和零成本抽象的强调,已确立自身作为系统编程、WebAssembly和性能关键型应用程序首选语言的地位。Rust陡峭的学习曲线和编译时严格性针对那些安全性和性能值得付出复杂性的场景。

8.2 Java的持久优势

截至2025年,Java仍占据约15%至16%的编程语言市场份额,68%的应用程序运行在Java或JVM上,99%的组织正在积极使用Java。几个因素维持了这一地位:

  • 生态系统成熟度:数十年的库开发、框架演进和工具改进创造了难以复制的网络效应。Spring、Jakarta EE、测试框架、构建工具、分析器——完整的开发栈已然存在且运行良好。
  • 企业稳定性:框架和库正转向支持或要求更新的Java版本,Java 17已成为新的基线,因为Spring、JUnit、Gradle 9及即将发布的Maven 4要求Java 17或更高版本。这种协调一致的演进在提升能力的同时保持了生态系统的连贯性。
  • 性能演进:Java的性能通过JIT进步、垃圾收集器创新以及现在的Project Valhalla和Vector API计划持续改进。对于许多工作负载,与低级语言的性能差距正在缩小。
  • 云原生适配:语言间的互操作性使开发者能够将Rust的高性能组件集成到现有的Java程序中,15%的开发者将Java与其Rust项目一起使用。这种多语言方法允许利用每种语言的优势,而非迫使做出全有或全无的选择。

8.3 人工智能与机器学习背景

像Embabel、Koog、Spring AI和LangChain4j这样的新框架推动了AI原生和AI辅助开发在Java中的快速采用。虽然Python在机器学习研究和实验领域占据主导地位,但在生产部署中——可靠性、监控以及与现有系统的集成至关重要的领域——Java的作用依然巨大。

8.4 威胁评估

最大的挑战并非被单一竞争对手取代,而是在专门细分领域中的碎片化。不同的语言针对不同的约束条件进行优化:

  • 开发速度:对于追逐产品-市场契合度的MVP和初创公司,Ruby、Python仍然更快
  • 本机性能:对于系统编程和嵌入式环境,Rust、C++保持优势
  • 简单性:对于优先考虑可维护性而非表达力的团队,Go的极简主义很有吸引力
  • 移动端:对于原生平台集成,Swift和Kotlin提供更优体验
    Java的战略似乎是扩大其范围,而非固守单一细分市场。Valhalla针对性能关键场景,Panama支持系统级集成,Amber提高开发者生产力,Vector API解决数值计算问题。这种多线并进的演进旨在使Java在尽可能广泛的使用场景中保持相关性。

9. 结论:我们的收获

在我们审视Java向2026年及以后的轨迹时,几个原则显现出来:

  1. 通过更智能的数据表示实现性能:Project Valhalla的值类型解决了Java对象模型与现代硬件之间的根本性架构不匹配问题,展示了3倍的性能改进,可能重塑Java在性能敏感领域的定位。
  2. 简化的本地互操作性:Project Panama的外部函数和内存API消除了JNI的复杂性,同时保持类型安全,最终为那些企业系统经常需要的本地集成提供了一种现代机制。
  3. 无需仪式感的表达力:Project Amber持续不断的增强——从模式匹配到记录类再到密封类——证明了生产力改进无需牺牲类型安全或运行时性能。
  4. 显式并行性:Vector API为开发者提供了对SIMD能力的直接访问,并具有平台无关的抽象,解决了自动向量化无法可靠处理的性能关键场景。
  5. 审慎的模块采用:虽然JPMS提供了架构上的好处,但实际采用显示出由特定用例驱动的渐进式进展,而非全盘迁移的压力。
  6. 透明的治理:JEP和JCP流程的结合,加上六个月发布节奏的加速,使得在保持稳定性和社区参与的同时能够快速创新。
  7. 通过演进保持竞争力:Java通过将能力扩展到相邻领域来维持相关性,而非固守历史优势,这些领域涵盖从低级性能到现代语言特性再到AI集成。

进入2026年的Java平台代表着比仅仅维护遗留系统更有趣的事物。通过对硬件现实、开发者易用性和生态系统演变的密切关注,Java将自己定位为一个能够随着需求变化而成长的平台,而非一个固守过去成功的平台。这种演进方式能否成功应对未来的挑战,将取决于执行情况、社区的响应以及将承诺的功能作为稳定、生产就绪的特性交付而非永久预览的能力。

未来的时间线需要耐心。Valhalla的值类型在2026-2027年之前不会投入生产。Vector API继续孵化以最终定稿。然而,这种审慎的节奏反映了一个成熟的平台,它重视稳定性而非将功能匆忙推向市场。对于构建旨在运行数十年的系统的组织而言,Java谨慎的演进和向后兼容性代表的是资产,而非负债。


【注】本文译自:The Future of Java: What to Expect in 2026 and Beyond

Java 中的 AI 与机器学习:TensorFlow、DJL 与企业级 AI

1. 引言:Java 意外的机器学习复兴

尽管 Python 主导了机器学习的研究与实验,但生产部署讲述着不同的故事。截至 2025 年,68% 的应用程序运行在 Java 或 JVM 上,那些已在 Java 生态系统投入巨资的企业面临一个关键问题:是重新培训团队并重写系统,还是将机器学习能力引入 Java?答案正日益倾向于后者。

Netflix 使用 Deep Java Library 进行分布式深度学习实时推理,通过字符级 CNN 和通用句子编码器模型处理日志数据,每个事件的延迟为 7 毫秒。这代表了一个更广泛的趋势——尽管 Python 在训练方面占主导地位,但 Java 在生产系统、多线程、稳定性和企业集成方面的优势,使其在机器学习部署上极具吸引力。

本文探讨 Java 在机器学习生命周期中的角色,比较各种框架,探索与 Python 生态系统的集成模式,并识别 Java 提供明显优势的场景。

2. Java ML 框架对比

2.1 Deep Java Library:引擎无关的方案

Deep Java Library 是一个开源的、高层次的、引擎无关的 Java 深度学习框架,它提供原生 Java 开发体验,功能如同任何其他常规 Java 库。由 AWS 创建的 DJL,其架构理念以抽象为核心——开发者编写一次代码,即可在 PyTorch、TensorFlow、MXNet 或 ONNX Runtime 之间切换而无需修改。

该框架由五层架构组成。高层 API 层提供符合 Java 习惯的接口,供开发者直接交互。引擎抽象层与底层框架通信,隐藏实现差异。NDManager 管理表示张量的 NDArray 的生命周期,在处理后自动释放张量内存以防止泄漏或崩溃。数据处理层提供为模型准备数据的实用工具。最后,原生引擎层通过对 C++ 实现的 JNA 调用执行实际计算。

DJL 与 TensorFlow、PyTorch、MXNet 等各种深度学习框架无缝集成,提供一个高层次 API 以便于在 Java 环境中轻松构建、训练和部署模型,并且与 AWS 服务紧密集成。其 Model Zoo 提供了来自 GluonCV、HuggingFace、TorchHub 和 Keras 的 70 多个预训练模型,支持单行命令加载模型。

优势:

  • 引擎灵活性:允许根据部署需求切换后端(研究模型用 PyTorch,生产用 MXNet,跨平台用 ONNX)。
  • 原生多线程支持:与 Akka、Akka Streams 及并发 Java 应用程序自然集成。
  • 自动 CPU/GPU 检测:无需配置即可确保最佳硬件利用率。
  • 通过 DJL Spring starters 集成 Spring Boot:简化企业采用。

局限:

  • 训练功能存在,但不如推理功能成熟
  • 文档侧重于推理而非训练工作流
  • 社区规模小于 Python 优先的框架

2.2 Deeplearning4j:JVM 原生解决方案

Eclipse Deeplearning4j 是为 Java 虚拟机编写的编程库,是一个广泛支持深度学习算法的框架,包括受限玻尔兹曼机、深度信念网络、深度自动编码器、堆叠降噪自动编码器、递归神经张量网络、word2vec、doc2vec 和 GloVe 的实现。

DL4J 于 2014 年问世,目标客户是已投入 Java 基础设施的企业。Eclipse Deeplearning4j 项目包括 Samediff(一个类似 TensorFlow/PyTorch 的框架,用于执行复杂计算图)、Python4j(一个 Python 脚本执行框架,用于将 Python 脚本部署到生产环境)、Apache Spark 集成以及 Datavec(一个将原始输入数据转换为张量的数据转换库)。

该框架的分布式计算能力使其区别于其他方案。Deeplearning4j 包含与 Apache Hadoop 和 Spark 集成的分布式并行版本。对于处理大规模数据的组织,DL4J 提供了无需 Python 依赖的原生 JVM 解决方案。

优势:

  • 完整的 ML 生命周期支持——训练、推理和部署完全在 Java 中完成。
  • 分布式训练:使用 Spark 或 Hadoop 在集群中扩展。
  • ND4J 提供支持 GPU 加速的、类似 NumPy 的 n 维数组。
  • SameDiff 提供类似 TensorFlow 的“先定义后运行”图执行方式。
  • Keras 模型导入:支持 h5 文件,包括 tf.keras 模型。

局限:

  • 文档和社区资源落后于 TensorFlow 和 PyTorch。
  • 与高层次框架相比学习曲线更陡峭。
  • 采用范围较窄,主要集中在重度使用 Java 的企业。

2.3 TensorFlow Java:官方但功能有限

TensorFlow Java 可在任何 JVM 上运行以构建、训练和部署机器学习模型,支持 CPU 和 GPU 在图模式或即时执行模式下的运行,并提供了在 JVM 环境中使用 TensorFlow 的丰富 API。作为 TensorFlow 的官方 Java 绑定,它提供了对 TensorFlow 计算图执行的直接访问。

TensorFlow 的 Java 语言绑定已移至其独立的代码库,以便独立于官方 TensorFlow 版本进行演进和发布,大多数构建任务已从 Bazel 迁移到 Maven。这种分离允许在不等待 TensorFlow 核心发布的情况下进行 Java 特定的改进。

优势:

  • 与 TensorFlow 生态系统和工具直接集成。
  • SavedModel 格式兼容性支持从 Python 到 Java 的无缝模型移交。
  • TensorFlow Lite 支持面向移动和边缘部署。
  • 通过原生 TensorFlow 运行时支持 GPU 和 TPU 加速。

局限:

  • TensorFlow Java API 不在 TensorFlow API 稳定性保证范围内。
  • 对 Keras on Java 几乎无官方支持,迫使开发者必须在 Python 中定义和训练复杂模型以供后续导入 Java。
  • 与 DJL 甚至 DL4J 相比,较低级别的 API 需要编写更多代码。




3. 框架对比表

标准 Deep Java Library Deeplearning4j TensorFlow Java
主要用例 推理与模型服务 完整 ML 生命周期 模型服务
引擎支持 PyTorch, TensorFlow, MXNet, ONNX 原生 JVM 仅 TensorFlow
训练能力 有限 完全支持 有限
分布式计算 通过引擎(如 MXNet 上的 Spark) 原生 Spark/Hadoop 通过 TensorFlow
模型导入 PyTorch, TensorFlow, Keras, ONNX Keras, TensorFlow, ONNX 仅 TensorFlow
预训练模型 Model Zoo 中 70+ 社区模型 TensorFlow Hub
Spring Boot 集成 原生 starters 手动 手动
学习曲线 中-高
内存管理 NDManager(自动) ND4J(堆外) 手动会话
企业就绪度 非常高
社区规模 增长中 小众 大(Python)
最适合 云原生推理 大数据 ML 流水线 TensorFlow 生态系统

决策矩阵:

  • 选择 DJL 用于:微服务、无服务器函数、Spring Boot 应用、引擎灵活性、AWS 生态系统。
  • 选择 DL4J 用于:分布式训练、Spark/Hadoop 集成、完整的纯 Java 技术栈、企业数据流水线。
  • 选择 TensorFlow Java 用于:现有的 TensorFlow 投资、TPU 部署、直接的 Python 模型兼容性。

4. 与 Python ML 生态系统的集成

4.1 多语言生产模式

最优的企业 ML 工作流通常结合 Python 的研究能力和 Java 的生产优势。数据科学家在熟悉的 Python 环境中使用 TensorFlow、PyTorch 或 scikit-learn 训练模型。工程师随后将这些模型部署在每天处理数百万请求的 Java 应用程序中。

模型导出格式:

  • ONNX:这个通用的交换格式支持大多数框架。在 PyTorch 中训练,导出到 ONNX,通过 DJL 或 DL4J 导入。这种方法支持与框架无关的部署流水线。
  • TensorFlow SavedModel:对于长期生产服务,导出到中立格式(如 ONNX)或针对服务优化的框架特定生产格式(SavedModel、TorchScript)。SavedModel 将计算图、变量值和元数据打包到单个目录结构中。
  • TorchScript:PyTorch 模型通过脚本或追踪序列化为 TorchScript。DJL 的 PyTorch 引擎直接加载这些模型,保持完整的计算图。
  • Keras H5:DL4J 导入 Keras 模型(包括 tf.keras 变体),保留层配置和训练好的权重。

4.2 Python4j:在 Java 中嵌入 Python

DL4J 的 Python4j 模块解决了需要 Java 中不可用的 Python 库的场景。Python4j 是一个 Python 脚本执行框架,简化了将 Python 脚本部署到生产环境的过程。该方法将 CPython 解释器嵌入到 JVM 进程中,实现双向调用。

用例包括:

  • 在 Java 推理前使用 scikit-learn 流水线进行预处理。
  • 从 Java 数据流水线调用专门的 Python 库(NumPy, SciPy)。
  • 在 Java 模型服务旁边运行基于 Python 的特征工程。

权衡之处在于需要管理 Python 运行时依赖项和潜在的 GIL 限制。对于高吞吐量场景,模型导出仍然优于运行时 Python 执行。

5. 模型服务与部署模式

5.1 实时推理架构

面向用户的应用,其生产 ML 系统需要低于 100 毫秒的延迟。Java 的线程模型和 JVM 优化在此背景下表现出色。在生产中无需 Python 即可提供 TensorFlow 模型服务,每次预测延迟低于 10 毫秒,并像任何 Spring Boot 服务一样水平扩展。

同步 REST API:

@RestController
public class PredictionController {
    private final Predictor<Image, Classifications> predictor;

    @PostMapping("/predict")
    public Classifications predict(@RequestBody Image image) {
        return predictor.predict(image); // <10ms 典型延迟
    }
}

Spring Boot 的自动配置、健康检查和指标与 DJL 或 DL4J 的预测器实例无缝集成。水平扩展遵循标准的微服务模式——在负载均衡器后部署多个实例。

异步处理:
对于非关键预测,异步处理可提高吞吐量。Java 的 CompletableFutureReactor 或 Kotlin 协程支持并发预测批处理:

// 异步批量预测
List<CompletableFuture<Result>> futures = images.stream()
    .map(img -> CompletableFuture.supplyAsync(
        () -> predictor.predict(img), executor))
    .collect(Collectors.toList());

5.2 批量推理模式

批量作业可以容器化并部署到作业调度器或流水线(如 Airflow/Prefect、Kubeflow Pipelines、云数据管道服务),而在线模型则部署到服务基础设施(Web 服务器、Kubernetes)。

DL4J 的 Spark 集成处理海量数据集:

// Spark 上的分布式批量评分
JavaRDD<DataSet> testData = loadTestData();
JavaRDD<INDArray> predictions = SparkDl4jMultiLayer
    .predict(model, testData);

该模式将推理分布在集群节点上,高效处理数百万条记录。对于拥有 Hadoop 或 Spark 基础设施的组织,这种原生集成消除了 Python 桥接开销。

5.3 边缘与移动端部署

DJL 支持部署到边缘设备和移动平台。对于 Android,DJL 提供了针对 ARM 处理器优化的 TensorFlow Lite 和 ONNX Runtime 引擎。自动 CPU/GPU 检测可适应可用硬件。

用例包括:

  • 移动应用中的设备端图像分类。
  • 无需云连接的 IoT 传感器异常检测。
  • 需要本地推理的边缘计算场景。

该方法降低了延迟,提高了隐私性(数据保留在本地),并消除了网络依赖。

6. 可扩展性考量

6.1 容器化与编排

使用 Docker 进行容器化,允许将模型及其代码连同所有必需的库和依赖项打包到一个自包含的单元中,该单元可以在任何地方运行(您的笔记本电脑、云虚拟机、Kubernetes 集群中)。

Java ML 服务与传统 Spring Boot 应用的容器化方式相同:
Dockerfile 模式:

FROM eclipse-temurin:21-jre-alpine
COPY target/ml-service.jar app.jar
ENTRYPOINT ["java", "-jar", "app.jar"]

Kubernetes 编排处理扩展、健康检查和滚动更新。这种统一性意味着现有的 DevOps 流水线无需特殊处理即可扩展到 ML 服务。

6.2 性能优化策略

  • 模型量化:通过将 float32 权重转换为 int8 来减少模型大小和推理时间。TensorFlow Lite 和 ONNX Runtime 支持量化,且精度损失最小。典型收益:模型缩小 4 倍,推理速度加快 2-3 倍。
  • 批处理:将预测分组以分摊开销。DJL 和 DL4J 支持批处理输入,利用 SIMD 指令,并将每项预测的延迟从 10 毫秒降低到批量 32 条时的每条 2-3 毫秒。
  • 模型编译:ONNX Runtime 和 TensorFlow XLA 将模型编译为优化的执行图。在容器构建期间进行预编译可消除运行时编译开销。
  • 内存管理:DJL 通过其特殊的内存收集器 NDManager 解决了内存泄漏问题,该管理器及时收集 C++ 应用程序内部的陈旧对象,在测试 100 小时连续推理不崩溃后,在生产环境中提供稳定性。
  • 连接池:对于调用外部模型服务器(TensorFlow Serving、Triton)的服务,维护连接池以减少 TCP 握手开销。

6.3 水平扩展模式

Java ML 服务的扩展方式与无状态 Web 服务相同:

  • 在负载均衡器后部署多个实例。
  • 基于 CPU、内存或自定义指标(推理队列深度)使用 Kubernetes HorizontalPodAutoscaler。
  • 实施熔断器以优雅地处理下游故障。
  • 使用 Redis 或 Caffeine 缓存频繁的预测结果。

推理的无状态特性(给定模型版本)使得无需协调开销即可实现弹性扩展。

7. Java 应用的 MLOps

7.1 持续训练与部署

MLOps 团队的目标是自动将 ML 模型部署到核心软件系统中或作为服务组件,自动化整个 ML 工作流步骤,无需任何人工干预。

  • Level 0(手动):许多团队拥有能够构建先进模型的数据科学家和 ML 研究人员,但他们构建和部署 ML 模型的过程完全是手动的,每个步骤都需要手动执行和手动过渡。这代表了 2025 年 35% 的 Java ML 部署。
  • Level 1(ML 流水线自动化):自动化训练流水线根据新数据重新训练模型。Jenkins、GitHub Actions 或 GitLab CI 触发训练作业,将模型导出到工件仓库(Nexus、Artifactory),并通知部署系统。版本化的模型自动部署到预发布环境。
  • Level 2(ML 的 CI/CD):持续集成通过添加测试和验证数据和模型来扩展对代码和组件的测试和验证;持续交付关注自动部署另一个 ML 模型预测服务的 ML 训练流水线的交付;持续训练自动重新训练 ML 模型以重新部署。

在 Java 上下文中,这意味着:

  • 数据流水线和预处理的自动化单元测试。
  • 确保模型预测符合预期输出的集成测试。
  • 金丝雀部署(5% 流量导向新模型版本)。
  • 性能下降时的自动化回滚。

7.2 模型版本控制与注册

将模型视为一等工件:

models/
  fraud-detection/
    v1.0.0/
      model.onnx
      metadata.json
    v1.1.0/
      model.onnx
      metadata.json

元数据包括训练日期、数据集版本、性能指标(准确率、F1 分数)和依赖版本。可以使用 Maven 坐标引用模型版本:

<dependency>
    <groupId>com.company.ml</groupId>
    <artifactId>fraud-detection-model</artifactId>
    <version>1.1.0</version>
    <classifier>onnx</classifier>
</dependency>

这种方法将标准的依赖管理实践应用于 ML 模型,从而实现可重复的构建和可审计的部署。

7.3 监控与可观察性

ML 模型部署后,需要进行监控以确保其按预期执行。Java 的可观察性生态系统自然地扩展到 ML 服务:

要跟踪的指标:

  • 推理延迟:通过 Micrometer 统计 p50、p95、p99 百分位数。
  • 吞吐量:每秒预测数、每秒请求数。
  • 错误率:失败的预测、模型加载失败。
  • 数据漂移:通过统计测试检测到的输入分布变化。
  • 模型性能:生产数据上的准确率、精确率、召回率(当标签可用时)。

与现有工具的集成:
Spring Boot Actuator 暴露 ML 特定指标:

@Component
public class PredictionMetrics {
    private final MeterRegistry registry;

    public void recordPrediction(long latencyMs, String modelVersion) {
        registry.timer("prediction.latency", 
            "model", modelVersion)
            .record(Duration.ofMillis(latencyMs));
    }
}

Prometheus 抓取这些指标,Grafana 可视化趋势,并在出现异常(延迟峰值、准确率下降)时触发告警。

7.4 测试 ML 系统

  • 单元测试:验证数据预处理、特征工程和后处理逻辑。标准的 JUnit 测试即可满足。
  • 集成测试:测试 ML 模型是否成功加载到生产服务中,并且对真实数据的预测符合预期;测试训练环境中的模型与服务环境中的模型给出相同的分数。
  • 性能测试:使用 JMeter 或 Gatling 模拟负载,在真实流量模式下测量吞吐量和延迟。建立基线并检测回归。
  • 影子部署:将新模型版本与现有版本并行运行,记录预测而不影响用户。在全面部署前比较结果以识别意外行为。

8. Java 在机器学习中表现出色的用例

8.1 企业集成场景

  • 金融服务中的欺诈检测:拥有成熟 Java 生态系统的企业越来越寻求将 ML/AI 模型直接集成到其后端系统的方法,而无需启动单独的基于 Python 的微服务。银行每天通过 Java 系统处理数百万笔交易。将 DJL 预测器直接嵌入交易处理流水线中,无需外部服务调用即可实现低于 10 毫秒的欺诈评分。
  • 实时推荐:基于 Spring Boot 构建的电子商务平台集成 DJL 进行产品推荐。会话数据流经现有的 Java 服务,预测在进程内进行,结果无需网络延迟即可呈现。
  • 日志分析与聚类:Netflix 的可观察性团队使用 DJL 在生产中部署迁移学习模型,以对应用程序日志数据进行实时聚类和分析,通过字符级 CNN 和通用句子编码器模型处理日志行,每条约 7 毫秒。基于 DJL 的流水线分配保留相似性的聚类 ID,从而实现告警量减少和存储效率提高。

8.2 大数据 ML 工作流

使用 Spark 或 Hadoop 每天处理 TB 级数据的组织受益于 DL4J 的原生集成。在历史数据上训练模型、对新记录进行评分以及更新模型——所有这些都在 Spark 流水线内完成,无需 Python 桥接。

示例工作流:

  1. 从 HDFS 或 S3 将数据读入 Spark DataFrames。
  2. 使用 Spark SQL 进行特征工程。
  3. 在集群上分布式训练 DL4J 模型。
  4. 使用训练好的模型对新数据评分。
  5. 将结果写回数据仓库。
    整个端到端流程保持在 JVM 中,避免了序列化开销和 Python 互操作的复杂性。

8.3 微服务与云原生应用

Spring Boot 应用程序主导着企业微服务架构。通过 DJL starters 添加 ML 能力可无缝集成:

  • 熔断器:Resilience4j 模式保护 ML 服务免受级联故障影响。
  • 服务发现:Eureka 或 Consul 注册 ML 预测服务。
  • 配置:Spring Cloud Config 管理模型端点和参数。
  • 追踪:Zipkin 或 Jaeger 追踪通过 ML 流水线的请求。
    这种统一性简化了运维——ML 服务与业务逻辑服务以相同的方式部署、扩展和监控。

8.4 边缘计算与物联网

Java 的“一次编写,随处运行”理念扩展到边缘设备。为 ARM 处理器编译的 DJL 模型可以在 Raspberry Pi、NVIDIA Jetson 和工业 IoT 网关上运行。用例包括:

  • 预测性维护:本地分析传感器数据,异常时触发警报。
  • 视频分析:在边缘处理安防摄像头视频流,减少带宽。
  • 智能家居设备:设备端语音识别和自然语言理解。
    GraalVM 原生镜像编译生成独立的可执行文件,内存占用小(< 50MB),启动速度快(< 100ms),非常适合资源受限的环境。

8.5 法规与合规要求

随着欧盟《人工智能法案》等法规的收紧,集成重点转向模型的左移安全性——在流水线中扫描偏见、可解释性和合规性。Java 的强类型、显式异常处理和成熟的日志记录框架便于审计追踪和满足可解释性要求。

金融和医疗保健行业通常要求所有代码(包括 ML 模型)通过经过验证的、带有审批工作流的流水线进行部署。与引入 Python 运行时依赖相比,Java ML 服务能更自然地与现有的治理流程集成。

9. 结论:我们的收获

Java 在机器学习中的作用代表了务实的生产工程,而非研究创新。我们分析得出的主要见解:

  1. 框架选择取决于上下文:DJL 在推理和模型服务方面表现出色,具有引擎灵活性,是云原生微服务的理想选择。DL4J 提供了与大数据框架集成的完整 ML 生命周期功能,适用于需要分布式培训的组织。TensorFlow Java 服务于深度投入 TensorFlow 生态系统、需要直接模型兼容性的团队。
  2. 多语言模式行之有效:在 Python 中训练并在 Java 中部署,利用了每种语言的优势。ONNX 和 SavedModel 格式支持无缝交接。Python4j 在必要时弥合差距,但出于性能考虑,模型导出仍是首选。
  3. 生产性能至关重要:Netflix 7 毫秒的推理延迟证明 Java ML 服务能够满足实时性能要求。适当的内存管理(NDManager、ND4J)、模型优化(量化、编译)和水平扩展提供了生产级系统。
  4. MLOps 成熟度参差不齐:只有 20% 的 Java ML 部署达到了 Level 2 CI/CD 成熟度,具备自动重新训练和监控。机会在于将已建立的 DevOps 实践——容器、编排、可观察性——应用于 ML 工作流。
  5. Java 在特定场景中表现出色:企业集成(欺诈检测、推荐)、大数据 ML 流水线(Spark/Hadoop)、微服务架构、边缘计算和法规合规代表了 Java 的特性——稳定性、线程处理、生态系统成熟度——相比以 Python 为中心的方法提供优势的领域。
  6. 内存管理区分了框架:DJL 的 NDManager 解决了管理 JVM 应用程序中本机内存的关键挑战,实现了 100 小时以上的生产运行而无内存泄漏。这种生产就绪性将企业可行的框架与实验性绑定区分开来。
  7. 差距正在缩小:虽然 Java 不会取代 Python 在 ML 研究中的地位,但像 DJL 和 DL4J 这样的框架已经足够成熟,可用于生产部署。生态系统现在支持完整的推理生命周期,性能可与 Python 解决方案相媲美。

未来可能涉及更深层次的集成——Spring AI 为 Java 带来 LLM 能力,GraalVM 原生镜像为无服务器 ML 实现即时启动,以及 MLOps 和 DevOps 实践之间持续的融合。对于拥有大量 Java 投资的组织,问题从“我们能用 Java 做 ML 吗?”转变为“我们如何优化 Java ML 部署?”。

随着 ML 在企业系统中变得无处不在,Java 的生产优势——稳定性、性能、工具成熟度和操作熟悉度——使其成为推理层的务实选择,即使 Python 在训练和实验中仍占主导地位。多语言方法——在 Python 中训练,在 Java 中部署——代表的不是妥协,而是对每个平台独特优势的优化。


【注】本文译自:AI and Machine Learning in Java: TensorFlow, DJL, and Enterprise AI

让我们从Spring AI开始

Spring AI:使用Java迈入生成式AI的第一步

基于Java的企业系统通常难以与Python库及相关工具链协同工作。为此,Spring AI应运而生——这是一个旨在简化整合人工智能功能(特别是大型语言模型)应用开发的开源框架,它采用了Spring生态系统中大家熟悉的模式。

如果您是一名Java开发者,希望将ChatGPT或Google Gemini等强大功能集成到企业应用程序中,而又不想费力研究各提供商特定的SDK,那么Spring AI是您的理想工具。

什么是Spring AI?

Spring AI的核心是充当AI模型的通用抽象层

可以将其类比于Spring Data JPA之于数据库的关系:正如Spring Data抽象了SQL和数据库的具体细节一样,Spring AI则抽象了不同AI提供商(如OpenAI、Google、Azure、Anthropic等)之间的差异。

这种方法带来了两大显著优势:

  1. 可移植性:您只需极少的代码改动即可在不同AI模型和提供商之间切换,从而为您的用例选择最具成本效益或性能最佳的模型。
  2. 熟悉度:它使用了依赖注入、自动配置和流式API(如WebClientJdbcClient)等标准的Spring概念,使得数以百万计的现有Spring开发者能够轻松上手。

为什么选择Spring AI而不是LangChain?

尽管LangChain是一个强大且与提供商无关的框架,并因LLM调用的“链式”编排而广受欢迎,但它主要为Python生态系统构建。相比之下,Spring AI则是从零开始构建,遵循Java语言习惯,并能与Spring Boot应用无缝集成。

以下是Java企业开发者应该认真考虑使用Spring AI的原因:

符合Java习惯”的优势

对于一个Java团队来说,选择Spring AI意味着:

  • 无需多语言复杂性:您可以避免在生产Java环境中引入Python依赖、虚拟环境以及进程间通信带来的麻烦。
  • 性能:Spring AI原生运行在Java虚拟机(JVM)内,充分利用其卓越的垃圾回收和性能优化能力。
  • 工具链:您可以享受到静态类型检查、强大的调试支持以及Java测试框架(如JUnit、Mockito)完整生态系统的益处。
    简而言之,如果您的应用程序是用Java编写并使用Spring Boot,那么Spring AI就是集成生成式AI最自然、阻力最小的选择。

Spring AI的核心概念

要构建一个基本的AI应用,您需要理解三个核心组件:

构建一个简单的聊天服务

让我们创建一个极简的Spring Boot应用程序,它使用ChatClient根据用户的消息生成回复。在本示例中,我们将使用OpenAI模型。

1. 项目设置(Maven)

将以下内容添加到您的pom.xml文件中:

<dependencies>
  <dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-web</artifactId>
  </dependency>
  <dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-openai-spring-boot-starter</artifactId>
  </dependency>
</dependencies>
<dependencyManagement>
  <dependencies>
    <dependency>
      <groupId>org.springframework.ai</groupId>
      <artifactId>spring-ai-bom</artifactId>
      <version>1.0.0</version>
      <type>pom</type>
      <scope>import</scope>
    </dependency>
  </dependencies>
</dependencyManagement>

2. 配置(application.properties)

您需要提供AI提供商的API密钥。将其放在src/main/resources/application.properties文件中。

# 用您实际的OpenAI API密钥替换
spring.ai.openai.api-key=<YOUR_OPENAI_API_KEY>

3. 控制器(AiController.java)

这个类定义了一个REST端点,用于接收消息并使用注入的ChatClient获取响应。

package com.example.aidemo;
import org.springframework.ai.chat.client.ChatClient;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;
@RestController
public class AiController {
    private final ChatClient chatClient;
    /**
     * Spring Boot会根据依赖项和属性自动配置并注入ChatClient。
     */
    public AiController(ChatClient.Builder chatClientBuilder) {
        // 使用注入的构建器构建ChatClient实例
        this.chatClient = chatClientBuilder.build();
    }
    @GetMapping("/generate")
    public String generate(@RequestParam(value = "message", defaultValue = "Tell me a short, friendly joke.") String message) {
        // 使用流式API定义提示词并调用模型
        return chatClient.prompt()
            .user(message) // 设置用户的输入消息
            .call()       // 执行对AI模型的调用
            .content();   // 从响应中提取纯文本内容
    }
}

4. 运行与测试

  • 运行您的Spring Boot应用程序。
  • 测试端点:http://localhost:8080/generate?message=Explain%20Spring%20AI%20in%20one%20sentence

【注】本文译自:Lets start with Spring AI

作用域值:Java开发者期待已久的ThreadLocal现代替代方案

如果你曾编写过多线程Java应用程序,很可能接触过ThreadLocal变量。自Java 1.2引入以来,它已存在超过25年,帮助开发者在线程内共享数据而无需通过每个方法参数传递。但时代在变,Java也在演进。随着虚拟线程和Project Loom的出现,传统的ThreadLocal方式已显陈旧。作用域值(Scoped Values)应运而生:一种更简洁、高效且安全的替代方案,正在重塑我们对线程局部数据的认知。

ThreadLocal的问题:为何需要变革

想象一下:你正在构建一个处理数千个并发请求的Web应用程序。每个请求需要在处理生命周期(从Web控制器到服务层,再到数据访问组件)中携带用户认证信息。传统做法是使用ThreadLocal。

public class ThreadLocalExample {
    private static final ThreadLocal<String> userContext = new ThreadLocal<>();

    public static void main(String[] args) {
        userContext.set("Admin");
        System.out.println("User: " + userContext.get());
        userContext.remove(); // 千万别忘记这一步!
    }
}

但问题在于:ThreadLocal在现代应用中存在以下日益突出的缺陷:

  1. 内存泄漏隐患
    必须手动调用remove(),否则可能导致内存泄漏。忘记清理?随着线程不断累积废弃值,你的应用会逐渐耗尽内存。这就像离开每个房间后都不关灯——最终会导致电路过载。

  2. 可变性混乱
    ThreadLocal值可在任意位置、任意时间被修改。这种“远距离幽灵作用”(借用爱因斯坦描述量子力学的比喻)使得调试极其困难。哪个方法修改了值?何时修改?为何修改?在复杂的调用链中追踪这些问题如同大海捞针。

  3. 昂贵的继承开销
    当父线程使用InheritableThreadLocal创建子线程时,整个线程局部映射会被复制。对于虚拟线程(可能同时存在10万个线程),这种内存压力将无法承受。

  4. 生命周期模糊
    ThreadLocal值会持续存在于线程的整个生命周期,除非显式移除。数据应在何处可访问、何处不可访问的边界并不清晰。

作用域值:我们需要的解决方案

作为Java 20的孵化器功能引入,并在Java 21和22中持续优化,作用域值解决了ThreadLocal的所有痛点,同时为虚拟线程时代量身定制。

作用域值的不同之处
可将作用域值视为ThreadLocal更智能、更规范的“兄弟”。其核心变革如下:

import java.lang.ScopedValue;

public class ScopedValuesExample {
    private static final ScopedValue<String> USER_CONTEXT = ScopedValue.newInstance();

    public static void main(String[] args) {
        ScopedValue.where(USER_CONTEXT, "Admin").run(() -> {
            System.out.println("User: " + USER_CONTEXT.get());
            processRequest(); // 嵌套调用中值仍可访问
        });
        // USER_CONTEXT 在此自动清理!无需手动清除
    }

    private static void processRequest() {
        System.out.println("仍可访问: " + USER_CONTEXT.get());
    }
}

这里发生了什么?值“Admin”仅在run() lambda作用域内绑定到USER_CONTEXT。一旦作用域结束,值会自动消失。无需手动清理,没有内存泄漏,只有清晰可靠的行为。

核心原则:为何作用域值更优

  1. 设计上的不可变性
    一旦将值绑定到ScopedValue,在该作用域内就无法更改。这不是限制,而是特性——它消除了因意外变更导致的整类错误。
ScopedValue.where(USER_CONTEXT, "Admin").run(() -> {
    // 不存在set()方法!
    // 值在整个作用域内保持为"Admin"
    callServiceLayer();
    callDataAccessLayer();
    // 所有方法看到相同且不变的值
});
  1. 显式的有限生命周期
    代码的语法结构清晰展示了数据的可访问范围。看到那些花括号了吗?那就是作用域,也是值的存活范围。超出之后,值即消失。

这不仅是内存管理问题,更关乎认知负荷。你可以一眼理解数据流,无需在代码中费力追踪ThreadLocal值可能被修改或清理的位置。

  1. 极速性能
    由于不可变性,JVM可以积极优化作用域值的访问。无论方法调用嵌套多深,通过get()读取作用域值的速度通常堪比读取局部变量。该实现采用轻量级缓存机制,使得重复访问几乎零开销。

对虚拟线程而言,这一点至关重要。在可能存在数百万个并发线程的情况下,每个字节和每个CPU周期都至关重要。

  1. 零成本继承
    当将作用域值与结构化并发(Java 21的另一预览功能)结合使用时,子线程会自动继承父线程的值。但神奇之处在于:由于值不可变,没有复制开销,本质上只是传递指针。
private static final ScopedValue<String> REQUEST_ID = ScopedValue.newInstance();

ScopedValue.where(REQUEST_ID, "REQ-12345").run(() -> {
    try (var scope = new StructuredTaskScope.ShutdownOnFailure()) {
        // 子线程自动看到REQUEST_ID
        scope.fork(() -> processPartA());
        scope.fork(() -> processPartB());
        scope.join();
    }
});

processPartA()processPartB()都能看到“REQ-12345”且无需任何复制。用ThreadLocal可无法高效实现这一点!

实际案例:构建Web框架上下文

让我们通过一个实际场景(处理包含用户认证和事务管理的Web请求)来展示作用域值的优势:

public class WebFramework {
    private static final ScopedValue<Principal> LOGGED_IN_USER = ScopedValue.newInstance();
    private static final ScopedValue<Connection> DB_CONNECTION = ScopedValue.newInstance();

    public void handleRequest(Request request) {
        Principal user = authenticate(request);
        Connection conn = getConnection();

        ScopedValue.where(LOGGED_IN_USER, user)
                   .where(DB_CONNECTION, conn)
                   .run(() -> {
                       processRequest(request);
                   });

        // conn和user自动清理
    }

    private void processRequest(Request request) {
        // 调用链中的任何方法均可访问这些值
        Principal currentUser = LOGGED_IN_USER.get();
        Connection db = DB_CONNECTION.get();

        // 业务逻辑在此处理
        serviceLayer.process();
        dataAccessLayer.save();
    }
}

注意我们无需进行以下操作:

  • 无需通过每个方法参数传递user和conn
  • 无需手动清理代码
  • 无需担心其他方法修改这些值
  • 即使抛出异常也不会内存泄漏

框架处理请求、绑定必要上下文、通过各层处理请求,并在完成后自动清理。非常优雅。

多线程示例:随机数生成

以下完整示例展示不同线程如何获取各自的作用域值:

import java.lang.ScopedValue;
import java.util.concurrent.Executors;

public class MultiThreadExample {
    private static final ScopedValue<Integer> RANDOM_NUMBER = ScopedValue.newInstance();

    public static void main(String[] args) {
        try (var executor = Executors.newVirtualThreadPerTaskExecutor()) {
            for (int i = 0; i < 10; i++) {
                executor.submit(() -> {
                    int randomValue = (int) (Math.random() * 100);
                    ScopedValue.where(RANDOM_NUMBER, randomValue).run(() -> {
                        System.out.println(Thread.currentThread().getName() + 
                                         ": 随机数: " + RANDOM_NUMBER.get());
                        doSomeWork();
                    });
                });
            }
        }
    }

    private static void doSomeWork() {
        // 此处仍可访问RANDOM_NUMBER
        System.out.println("正在处理: " + RANDOM_NUMBER.get());
    }
}

每个虚拟线程获取自己的随机数,并在其作用域内可访问。简单、清晰、高效。

作用域值 vs. ThreadLocal:何时使用

以下情况,使用作用域值

  • 使用虚拟线程(Project Loom)
  • 需要共享不可变上下文数据(用户信息、请求ID、事务上下文)
  • 需要自动清理和有限生命周期
  • 使用结构化并发并需要高效的子线程继承
  • 希望代码更易理解和维护

以下情况,继续使用ThreadLocal

  • 需要真正的每线程可变存储
  • 缓存创建成本高的对象(如DateFormat实例)
  • 处理无法重构的遗留系统
  • 数据确实需要在线程整个生命周期内持久存在

技术深度解析:实际工作原理

在底层,作用域值采用复杂但轻量的实现,涉及两个关键组件:

  • 载体(Carrier):保存ScopedValue与其实际值之间的绑定
  • 快照(Snapshot):在特定时间点捕获所有绑定的状态

当你调用ScopedValue.where(KEY, value).run(...)时,JVM会创建一个新的载体来关联该键值对。ScopedValue对象本身如同映射键——一个用于在载体栈中查找值的唯一指针。

其精妙之处在于缓存:首次调用get()时,会搜索外围作用域以找到绑定,然后将结果缓存到小型线程局部缓存中。后续访问速度极快——可能堪比读取局部变量。

专业提示:如需绑定多个值,可创建记录类来保存它们,并将单个ScopedValue绑定到该记录实例。这能最大化缓存效率:

record RequestContext(Principal user, Connection db, String requestId) {}

private static final ScopedValue<RequestContext> CONTEXT = ScopedValue.newInstance();

ScopedValue.where(CONTEXT, new RequestContext(user, conn, "REQ-123"))
           .run(() -> processRequest());

现状与未来

截至2025年11月,作用域值已从孵化器(Java 20)经过预览状态(Java 21、22),并有望成为永久功能。该API在多个预览周期中保持稳定,表明其已接近正式发布。

在Java 21-23中使用作用域值,当前需要启用预览功能:

javac --release 23 --enable-preview YourProgram.java
java --enable-preview YourProgram

一旦功能定稿(可能在Java 24或25),将不再需要预览标志。

结论

作用域值代表了对多线程Java应用中数据共享方式的根本性重新思考。通过拥抱不可变性、显式作用域和性能优化,它们解决了ThreadLocal的所有主要弱点,同时完美适应虚拟线程革命。

你无需急于替换代码库中的每个ThreadLocal。但对于新代码——尤其是为虚拟线程和结构化并发设计的代码——作用域值应是默认选择。它们更安全、更快速、更清晰、更易维护。

明确的信息是:对于面向虚拟线程和结构化并发的新Java应用,作用域值应成为共享上下文数据的首选。它们使代码更安全、更快速,且显著更易理解。

Java并发的未来已至,而且拥有精美的作用域。

本文要点总结

在服务超过25年后,ThreadLocal在现代Java应用中显现出明显局限性。手动清理要求带来内存泄漏风险,可变性导致意外状态变化,继承机制开销昂贵,生命周期模糊不清——这些问题在使用虚拟线程时尤为突出。

作用域值通过其核心设计解决了这些问题。它们提供自动生命周期管理以消除内存泄漏顾虑,不可变性防止意外变更,有限作用域使数据生命周期显式化。性能表现强劲,通过优化缓存实现快速访问,高效的继承机制允许与子线程零成本共享值。

编程模型以显式作用域为核心。值通过ScopedValue.where(KEY, value).run(...)绑定,在嵌套方法调用中自动可访问,并在作用域结束时自动清理。这种方法与虚拟线程(JEP 444)和结构化并发(JEP 453)良好集成,为现代并发编程创建了连贯的基础。

性能特性适合实际使用。通过智能缓存,读取作用域值的速度接近局部变量,轻量级实现可处理数百万虚拟线程而无ThreadLocal的内存压力。常见用例包括Web请求上下文、用户认证数据、事务管理、请求追踪,以及任何需要通过调用链传播不可变上下文的场景。

作用域值和ThreadLocal之间的选择取决于需求。作用域值适用于现代代码中的不可变上下文共享,而ThreadLocal仍适用于每线程可变缓存和遗留系统。该功能从Java 20的孵化器状态演进至Java 21-23的预览阶段,API稳定性表明它即将成为永久功能。

当需要绑定多个值时,将它们分组到记录类并绑定单个ScopedValue可最大化缓存效率并简化代码。更广泛地说,作用域值代表了向更安全、更易理解的并发编程的转变,与Java向轻量级、高并发应用发展的方向一致。


【注】本文译自:Scoped Values: The Modern Alternative to ThreadLocal That Java Developers Have Been Waiting For

[ddd_java_0-3]基于领域驱动设计的Java开发

目录

1. 理解领域驱动设计
引言
结构
学习目标
领域驱动设计的重要性
连接业务目标与技术实现
核心概念与方法论
DDD的战略层面
DDD的战术层面
本章小结
要点总结
选择题
    答案
参考文献
2. 战略DDD概念
引言
结构
学习目标
领域与子域
    EcoTrack物流示例场景
理解限界上下文
上下文映射技术
业务战略与软件设计的对齐
本章小结
要点总结
选择题
    答案
参考文献
3. 战术DDD实现
引言
结构
技术要求
学习目标
实体与值对象
    实体的陷阱
    建造者与领域特定语言
    值对象
聚合与聚合根
服务及其角色
实现仓储
本章小结
要点总结
选择题
    答案
参考文献
4. 测试与验证DDD应用
引言
结构
技术要求
学习目标
DDD测试入门
单元测试DDD组件
    定义领域组件
    使用测试验证预期行为
    增强测试
使用ArchUnit进行架构验证
本章小结
要点总结
选择题
答案
参考文献
5. 微服务、单体与分布式系统中的DDD
引言
结构
技术要求
学习目标
单体架构中的DDD
    创建领域层与组织包结构
    创建应用层
    创建控制器层
    创建基础设施层
微服务架构中的DDD
微服务的必要性
在分布式系统中应用DDD
重构遗留代码以遵循DDD原则
本章小结
要点总结
选择题
    答案
参考文献
6. 将DDD与整洁架构集成
引言
结构
技术要求
学习目标
整洁架构概述
DDD与整洁架构的结合
    使用整洁架构与DDD创建清晰边界
    在核心应用与外部系统间搭建桥梁
构建可维护的代码结构
    每种方法的使用与组合
本章小结
要点总结
选择题
答案
参考文献
7. DDD与数据建模
引言
结构
技术要求
学习目标
DDD在数据建模中的原则
SQL数据库中的数据建模
    Jakarta Persistence实战
NoSQL数据库中的数据建模
本章小结
要点总结
选择题
答案
8. 使用Jakarta EE的企业级Java开发
引言
结构
技术要求
学习目标
使用Jakarta EE应用DDD
利用Jakarta Data实现更好的封装
将DDD集成到企业级Java应用中
本章小结
要点总结
选择题
    答案
9. 使用Spring的企业级Java开发
引言
结构
技术要求
学习目标
Spring框架与DDD概述
使用Spring Boot应用DDD
    创建并设置新的Spring Boot项目
    定义核心领域实体
    构建仓库与服务
    通过REST端点暴露服务
    完善错误处理
    通过单元测试确保代码行为
本章小结
要点总结
选择题
    答案
10. Eclipse MicroProfile与领域驱动设计
引言
结构
技术要求
学习目标
理解Eclipse MicroProfile及其目标
    澄清Jakarta EE与MicroProfile的相似之处
    Eclipse MicroProfile架构与规范
将Eclipse MicroProfile与DDD集成
微服务实战示例
本章小结
要点总结
选择题
答案
参考文献
11. Quarkus与领域驱动设计
引言
结构
技术要求
学习目标
Quarkus、Jakarta EE与MicroProfile的集成
Quarkus实战
    创建并设置新项目
    配置数据库集成
    Panache实体与资源代码生成
    验证应用行为
    使用Panache的Active Record模式
    使用Panache的仓库模式
    从DDD视角使用Panache
本章小结
要点总结
选择题
    答案
参考文献
12. DDD的代码设计与最佳实践
引言
结构
学习目标
贫血模型与富血模型
DDD中的流式API与建造者模式
DDD中的异常处理与日志记录
    定义异常层次结构
    创建可追踪的异常信息
    安全地处理异常与日志
长期代码质量与可持续性
本章小结
要点总结
选择题
    答案
参考文献
13. 最终考量
引言
结构
技术要求
学习目标
领域叙事法介绍
    领域叙事法的目的与益处
    领域叙事法与敏捷头脑风暴的区别
    探索领域叙事法
延伸阅读与持续探索
本章小结
要点总结
参考文献
索引

[ddd_java_0-2]基于领域驱动设计的Java开发

前言

很长一段时间以来,我在多次会议上谈论我最喜欢的话题之一:软件设计和DDD。像往常一样,我首先询问有多少人听说过DDD?答案是异口同声的肯定。但当我提出第二个问题时,情况就变了:你们中有多少人正确地使用了DDD?答案通常是没有人或只有少数人。那么,为什么有大量的人了解DDD,却只有极少数例外能正确应用它呢?为了解决这个问题,我写了这本书来帮助你。
许多团队在现实项目中难以有效实施DDD。问题的根源相当简单:尽管这些模式已广为人知,但它们的目的常常被误解或忽视。本书旨在弥合这一差距,不仅解释DDD是什么,还通过从背后的原理入手,指导如何有效应用它。
本书首先探讨DDD存在的基础原因。通过理解其战略原则,开发者可以避免常见且往往代价高昂的实施错误。许多关于DDD的书籍假设读者已经确信其价值;本书则退后一步,建立这种基础理解,融合了其他作者的见解,并辅以实际示例和现实经验。本书避免教条主义,将既定理论与现代用例相结合,帮助你做出更适合特定情境的更好设计决策。
为了指导你完成这段旅程,本书分为三个部分。第一部分奠定了DDD的战略基础,强调了理解领域、与业务专家协作以及使用限界上下文和上下文映射等概念来组织系统的重要性。这部分特意放在开头,因为掌握战略DDD对于防止后续的错位和过度工程至关重要。
一旦基础奠定,第二部分就转向DDD的战术方面,即设计与实现的交汇处。你将学习如何建模聚合、封装业务规则,以及如何在不同架构风格(包括单体架构、微服务和分布式系统)中应用DDD。本部分还设有一章专注于测试和验证,帮助你长期维护模型的完整性和表现力。
本书的最后一部分通过研究如何使用 Jakarta EE、Spring、Eclipse MicroProfile 和 Quarkus 等工具将 DDD 集成到现实世界企业环境中,综合了所有概念。它还涉及高级设计实践,包括代码级决策和要避免的反模式。本书最后反思了领域叙事——一种旨在帮助团队建立共同理解并弥合业务与技术之间差距的技术。
第1章:理解领域驱动设计
旅程从介绍领域驱动设计本身开始——它的历史、动机以及它旨在解决的基本问题:业务需求与软件交付之间的脱节。本章通过展示DDD如何鼓励技术团队和业务团队之间的沟通,以及它如何帮助创建既富有表现力又与核心领域保持一致的模型,来奠定基础。
第2章:战略DDD概念
本章通过探索战略DDD概念来加深理解。它介绍了最容易被遗忘的部分和DDD的陷阱,即战略层面。事实上,这通常是DDD中最大的错误所在。我们将探讨几种战略DDD概念,例如限界上下文、上下文映射等。这些工具共同帮助团队管理复杂性,创建更清晰、更有目的性的系统。
第3章:战术DDD实现
在本章中,我们进入战术实现。这里,DDD的构建块——实体、值对象、聚合、服务和仓库——不仅被解释,还通过实际的Java代码进行说明。本章将前面部分的抽象概念与具体的编程实践联系起来,展示了如何在将领域逻辑变为现实的同时,使其与基础设施关注点解耦。
第4章:测试与验证DDD应用
本章顺理成章地解决了如何通过测试来验证和保护领域逻辑的问题。它超越了单元测试,包括使用 ArchUnit 和 jMolecules 等工具进行集成测试和架构验证。它还展示了在DDD背景下进行测试如何将领域模型强化为活的文档和有关业务行为的真相来源。
第5章:微服务、单体与分布式系统中的DDD
DDD与软件架构无关;实际上,它可以应用于多种架构结构,例如经典且直接的单体架构和分布式系统。本章涵盖了几种架构选择,并解释了如何在DDD中使用它们。
第6章:将DDD与整洁架构集成
本章探讨了DDD与整洁架构之间的协同作用。它没有将它们视为独立的学科,而是展示了它们如何通过强化关注点分离和确保领域逻辑保持在核心位置来相互补充。你将学习如何构建应用程序以提升灵活性、可维护性以及领域与外部系统之间的清晰边界。
第7章:DDD与数据建模
数据库是现代应用的核心,我们需要考虑在SQL和NoSQL数据库上进行建模,并进一步将它们与DDD结合。处理与领域相关的数据建模是本章的核心组成部分和范围,它考察了在两种不同范式(一种来自数据库,一种来自应用)上工作的影响。
第8章:使用Jakarta EE的企业级Java
本章将讨论带入企业级Java,重点关注Jakarta EE。它介绍了包括Jakarta Data在内的最新Jakarta规范如何支持DDD友好的设计。
第9章:使用Spring的企业级Java
本章介绍了一个如何在Spring平台上使用DDD的实践示例,重点关注最流行的组件,如Spring Data和Spring Boot,以及应用于DDD的代码结构。
第10章:Eclipse MicroProfile与领域驱动设计
本章介绍Eclipse MicroProfile,并解释它如何赋能云原生DDD应用。借助配置、容错和可观测性等特性,MicroProfile帮助开发者构建既具有弹性又以业务逻辑为中心的系统。本章逐步讲解如何在动态环境中保持应用程序的模块化和表现力。
第11章:Quarkus与领域驱动设计
在本章中,重点转向Quarkus——一个为高性能和开发效率而设计的现代Java框架。本章解释了如何使用Quarkus扩展、响应式编程和高效的依赖注入,在轻量级、容器友好的应用中实现DDD,同时不牺牲设计质量。
第12章:DDD的代码设计与最佳实践
本章专注于设计质量本身。它讨论了维护富有表现力和可持续代码库的最佳实践,包括如何避免贫血领域模型、何时应用建造者模式或流式API,以及如何为长期可读性和协作构建代码。它还提供了负责任地重构和发展领域模型的实用建议。
第13章:最终考量
本章总结了全书,并解释了如何提取战略领域并开始使用最古老的技术——叙事法来实现它。这种技术通过以叙事形式可视化地建模过程,使开发者和领域专家更紧密地保持一致。通过使用叙事法,团队可以发现隐藏的假设、澄清术语,并确保所构建的软件真正代表其所服务的业务。
贯穿本书,我们的目标是揭开DDD的神秘面纱,并为你提供在现实世界的Java项目中应用它的工具和思维方式。无论你是从头开始设计系统,还是重构遗留代码库,每一章都旨在帮助你创建能够表达领域语言并交付真正价值的软件。
代码包与彩色图片
请点击以下链接下载本书的代码包与彩色图片
https://rebrand.ly/c46852
本书的代码包也托管在GitHub上:https://github.com/bpbpublications/Domain-driven-Design-with-Java。如果代码有更新,将在现有的GitHub仓库中更新
我们在 https://github.com/bpbpublications 提供了来自我们丰富的书籍和视频目录的代码包。请查看!
勘误表
BPB Publications为我们的工作感到无比自豪,并遵循最佳实践以确保内容的准确性,为我们的订阅者提供愉悦的阅读体验。我们的读者是我们的镜子,我们利用他们的反馈来反思并改进出版过程中可能发生的人为错误。为了让我们保持质量并帮助联系到因任何未预见错误而遇到困难的读者,请写信至:errata@bpbonline.com
BPB Publications家族非常感谢您的支持、建议和反馈。
在 www.bpbonline.com,您还可以阅读免费技术文章集,注册各种免费时事通讯,并享受BPB书籍和电子书的独家折扣和优惠。您可以在下面查看我们的社交媒体账号:
盗版
如果您在互联网上以任何形式遇到我们作品的非法复制品,若能提供其地址或网站名称,我们将不胜感激。请通过 business@bpbonline.com 联系我们,并附上材料链接。
如果您有兴趣成为作者
如果您是某个领域的专家,并且有兴趣撰写或贡献一本书,请访问 www.bpbonline.com。我们已经与成千上万的开发人员和技术专业人士合作,就像您一样,帮助他们与全球技术社区分享他们的见解。您可以提交一般申请,申请我们正在招募作者的特定热门主题,或者提交您自己的想法。
评论
请留下评论。一旦您阅读并使用过本书,为什么不在您购买它的网站上留下评论呢?潜在的读者就可以看到并使用您公正的意见来做出购买决定。我们BPB可以了解您对我们产品的看法,我们的作者也可以看到您对他们书籍的反馈。谢谢!
有关BPB的更多信息,请访问 www.bpbonline.com。
加入我们的Discord空间
加入我们的Discord工作区,获取最新更新、优惠、全球科技动态、新版本发布以及与作者的交流机会:
https://discord.bpbonline.com

[ddd_java_1]基于领域驱动设计的Java开发

第1章 理解领域驱动设计

引言

软件已成为业务成功不可或缺的战略要素,渗透到现代组织的各个层面。企业日益依赖技术来提升效率、交付价值并保持竞争力。这种日益增长的依赖性凸显了能够使软件解决方案与业务目标紧密契合的开发实践的重要性。领域驱动设计【Domain-driven design (DDD)】 应运而生,正是为了满足这一需求,它提供了一种直接的方法来弥合业务期望与技术实现之间长期存在的鸿沟。它使团队交付的软件,能精准、清晰且持续地支撑和驱动业务成果。
随着商业环境变得更加动态和多面化,将领域知识转化为有效软件解决方案的挑战日益凸显。一个常见的问题在于相关方的设想与软件最终交付成果之间的错位。行业观察指出许多软件项目的关键失败点在于:过度关注未经验证的计划和设计、客户期望模糊或不断变化、实施过程中出现不可预见的复杂性,以及产品与工程团队之间协作不力。这些问题常常导致技术工作严重偏离业务目标。
在当前工具生态中,选择的悖论进一步加剧了这种脱节。尽管开发团队可以接触到前所未有的丰富框架和技术,但过多的选择可能导致决策瘫痪、效率低下,并使人忽视真正重要的东西。在此背景下,复杂性成为一种负担而非优势,使得在整个开发过程中保持清晰度和业务对齐变得越来越困难。
这正是DDD实践发挥其作用之处。通过将开发工作立足于业务领域,并鼓励有意的协作建模,DDD提供了一个交付能反映相关方真实需求解决方案的框架。DDD并不规定特定的架构或技术栈,而是倡导清晰性、共同理解和长期可维护性,而不受技术约束的限制。
本章介绍了DDD背后的基本原理,解释了它为何重要以及它旨在解决哪些问题。它为后续更深层次的技术和战略主题奠定了基础。掌握DDD不仅仅是学习模式——它始于理解其原则,特别是指导从发现到实施的战略和战术维度。本章是这段旅程的第一步。

结构

在本章中,我们将探讨以下主题:

  •   领域驱动设计的重要性
  •   连接业务目标与技术实现
  •   核心概念与方法论

    学习目标

    本章旨在为理解DDD在软件开发中为何至关重要奠定基础,重点关注那些常导致项目失败的挑战,例如业务与技术团队之间的错位、不明确的客户期望以及不必要的复杂性。通过探讨DDD的原则,本章展示了它如何提供一种结构化方法来弥合业务与技术之间的差距,促进协作,并确保软件解决方案与现实需求保持一致。本章不深入探讨实现细节,而是介绍DDD背后的逻辑,为全书深入讨论其战略和战术应用做好铺垫。

    领域驱动设计的重要性

    DDD能够通过以下方式应对常常导致软件项目脱轨的常见挑战:

  •   对齐业务与技术团队:DDD提出的实践可以澄清业务需求,并确保技术实现满足这些需求和期望。
  •   澄清客户期望:减少误解和模糊的需求,从而产生真正满足相关方目标的软件。
  •   简化解决方案设计:将系统的复杂性分解为可管理的部分,可以减少常常令人难以招致、拖慢进度并使长期维护变得困难的复杂性。通过掌握正确的实践,团队可以从更简单的设计中受益,从而降低软件维护的难度。
  •   改善跨团队协作:当业务和技术团队不能紧密合作时,关键的商业见解可能在沟通过程中丢失。借助DDD,每个人都可以协作并开始朝着相同的目标努力。
    通过将软件开发建立在业务领域的基础上,并促进技术团队与业务团队之间持续紧密的合作,DDD实践可以使您的团队确保每个类、方法和变量都与核心业务需求正确对齐,最终让您能够控制最终产品的价值及其与相关方期望的一致性。
    DDD最显著的优势之一是其管理复杂性的能力。在软件开发工具和框架数量不断增长的世界里,开发人员迟早会感到选择过多而迷失业务目标。DDD通过一种结构化方法来应对,该方法允许将复杂的业务领域分解为可管理且重点突出的子域。这样,软件变得更容易理解和维护,同时确保开发过程与整体业务战略保持一致。
    此外,DDD强调通用语言的重要性,这是业务和技术团队之间一致使用的共享语言。共同的词汇可以最大限度地减少误解,并驱动项目所有参与者朝着相同的目标努力。开发过程转变为一种协作的跨团队努力,业务和IT部门可以共同创建并交付能够准确反映业务需求和目标的解决方案。
    现在,着眼于DDD在现实场景中的实际应用,我们可以参考那些精确性和团队对齐至关重要的行业。例如,在合规性和准确性至上的银行业,DDD确保贷款管理系统和交易平台的设计既满足法规要求,也满足金融专业人士的特定需求。在电子商务领域,DDD使得能够开发出快速适应不断变化的市场需求,同时保持无缝客户体验的平台。
    最终,DDD的重要性在于它能为软件开发过程带来清晰度和专注度。通过确保软件反映并支持业务的战略目标,DDD提高了解决方案的整体质量和商业价值。了解您工作所交付的价值,可以激励您在自己的项目中有效地实施DDD。在下一节中,让我们探讨DDD如何帮助弥合业务与技术团队之间的鸿沟,为您提供能够改善项目中跨团队协作的基础知识。

    连接业务目标与技术实现

    软件开发中最大的挑战之一是业务目标与技术实现之间的差距。这种差距常常导致误解、优先级冲突以及软件未能达到目标。DDD可以通过将领域专家融入开发过程来克服这一挑战。
    DDD的核心思想是让软件开发与其所支持的业务领域紧密对齐。开发人员不是依赖大量描述需求的文档,而是可以直接与业务专家(又称领域专家)合作,从而直接了解业务的核心活动、挑战和目标。这种紧密合作是一项关键实践,它使领域专家能够为更好、更明智的技术决策提供关键见解。
    弥合沟通鸿沟的一个关键方法是使用通用语言,即两个团队共享的词汇表。在协作中,团队定义并商定这些术语,随后这些术语在项目各阶段(从初始讨论到实施、验证及最终交付)持续一致地使用。这种方法可以最大限度地减少误解,通过减少错误和不符合要求的不正确交付来节省时间。
    DDD还鼓励团队围绕业务领域构建软件系统,通过以反映业务本身结构的方式来设计代码。这种方法使软件更直观、更易于维护,简化了行业中可能的变化在软件中的反映。
    通过运用DDD实践来弥合业务与技术之间的分歧,可以使组织能够创建技术上良好且与企业战略目标紧密对齐的软件。因此,可以创建出更有效、更高效、更有价值并为业务带来切实效益的软件解决方案。
    在本章的下一节中,我们将分解DDD的核心概念和方法论,让您更好地理解如何将理论应用到您的软件项目中。

    核心概念和方法论

    在深入探讨DDD之前,我们必须首先分解其主要概念及其含义。
    领域是指我们旨在转化为代码的特定主题或知识领域。领域的大小或复杂性不是问题,因为我们可以应用分治法将复杂领域分解为更小、更易于理解的子集。
    下图说明了软件开发中的这种分治方法。它直观地展示了软件开发中的知识如何分解为不同的领域,如数据库、文档和架构,并进一步细分为像SQL和NoSQL这样的子域。这种可视化分解有助于阐明DDD如何通过专注于特定的业务领域来鼓励理解和管理复杂性。

    图1.1:软件开发作为一个领域
    在DDD的语境中,业务领域是公司主要的活动领域,反映其核心提供的价值。例如,星巴克主要与咖啡相关,而亚马逊则在零售和云计算等多个领域运营。公司可以发展,随时间改变或扩展其业务领域。
    为了管理领域的复杂性,可以将其细分为子域。这些子域可以进一步分为核心子域、支撑子域和通用子域。
    鉴于软件工程师对客户业务知识有限,领域专家扮演着至关重要的角色。领域专家对业务复杂性有深刻理解,这些细节自然地成为其软件中的需求。
    :最后的术语"设计"可能难以定义,常常与软件架构混淆。《软件架构基础》等经典著作将架构描述为那些难以更改的东西或设计,但这仍然是一个抽象概念,因为难以更改的内容会有所不同。Neal Ford的著作《Head First in Software Architecture》提供了更细致的观点,将架构和设计定义在一个光谱上,设计是关于做出决策来塑造软件系统的结构和组织,以管理复杂性并创建连贯、可维护的架构。
    下图展示了从软件架构到设计的决策光谱。它表示了设计与架构之间的紧密联系,以及设计决策如何可以是一个更轻松的定义,或者如何成为软件系统核心结构的内在部分。

    图1.2:架构与设计的光谱
    考虑到这一点,我们可以将DDD定义为对软件系统结构和组织做出的有意决策,旨在提取业务知识并将其转化为代码。
    DDD是语言无关的,可以用于任何编程语言、范式或框架构建的解决方案。虽然通常与面向对象编程和Java相关联,但DDD实践也适合根据项目需求选择的任何其他语言。
    提示:本书并非旨在取代关于DDD的经典文献,而是通过实践指导来补充它。像Eric Evans的《领域驱动设计:软件核心复杂性应对之道》和Vaughn Vernon的《实现领域驱动设计》这样的基础著作是必读的,即使它们看起来具有挑战性。
    DDD有两个主要组成部分:战略和战术。两者对于确保良好的技术质量和正确的业务对齐都至关重要。让我们探讨这两个方面的区别以及它们如何相互作用。

    DDD的战略层面

    DDD是所有开发工作建立的基础,其重点是加深对业务、其核心领域以及共同构成其运营的子域的理解。
    DDD中的战略着眼于大局,识别业务中最关键、应优先考虑并反映在软件中的领域。这不仅需要协作,更需要与领域专家建立伙伴关系,他们能够传达系统中需要捕捉的复杂性。战略方法使得开发过程中的每个决策都能基于对业务背景扎实、透彻的理解。它指导整个软件项目的结构和方向。

    DDD的战术层面

    DDD的战术层面涉及将战略见解实际应用到代码中。
    一旦业务领域和子域被明确定义,并且通用语言(领域的术语和关键概念)建立起来,DDD的战术层面就开始发挥作用。它包括实施特定的设计模式和编码实践,这些能够通过软件将战略愿景变为现实。战术确保软件架构与业务模型保持一致,因为领域的抽象概念被转化为具体的、功能性的系统组件。DDD战略的标准定义通过可操作的任务得到准确体现,例如创建实体、值对象、聚合和仓库。
    战略和战术在DDD中结合起来,形成了一种连贯的软件开发方法。这种方法在DDD中不仅是一种选择,更是一种必然。战略提供了总体愿景,并确保软件与业务需求保持一致,而战术则负责将这一愿景转化为可运行系统的实际工作。两者都至关重要;没有坚实的战略基础,软件可能无法充分应对业务的核心挑战;没有有效的战术,即使是最好的战略计划也可能在执行中失败。通过整合这两个方面,DDD使得能够创建技术上健壮且与业务高度相关的软件。
    提示:正如《软件设计哲学》中所解释的,战略型软件工程师明白,软件开发不仅仅是编写代码。相反,只关注战术可能弊大于利,从而获得"战术龙卷风"的绰号。
    虽然软件工程师很容易对DDD的战术方面感到兴奋,但重要的是要记住,有效的实施必须从战略开始。DDD的目标是提取业务知识并将其编码到软件中,这使得战略成为关键的第一步。在本书中,我们将探讨能够将您的DDD实践提升到新水平的核心战略和战术知识。

    本章小结

    本章解决了确保软件开发满足客户和相关方期望这一根本性挑战。通过探讨DDD的核心原则,我们展示了这种方法如何使软件与业务目标保持一致。我们强调了理解领域、做出有意的设计决策以及成功实施DDD所需的战略基础的关键作用。本章的要点包括:DDD如何确保开发与业务需求之间的对齐、领域和设计在将业务知识转化为软件中的作用,以及业务和技术团队之间协作的重要性。
    下一章将深入探讨战略DDD,探索如何有效地识别和分类领域与子域。这种战略洞察将为您提供工具,以做出明智的、与业务对齐的决策,确保您的DDD努力为客户带来真正的价值。
    要点总结

  •   DDD聚焦于业务对齐:DDD的主要目标是确保软件开发与业务目标保持一致并交付真实价值。
  •   常见的项目失败源于错位:诸如不明确的客户期望、糟糕的协作以及过于复杂的设计等问题常常导致软件无法满足业务需求。
  •   业务领域是DDD的核心:软件应围绕实际的业务领域构建,使用反映现实世界运作的概念和语言。
  •   协作是关键:通过共享的通用语言促进业务和技术团队之间的有效沟通,可以减少误解并改善软件成果。
  •   DDD兼具战略性和战术性:战略方面侧重于理解领域和子域,而战术方面则涉及实施反映业务需求的模式和结构。
  •   复杂性应被管理而非增加:DDD有助于将复杂系统分解为可管理的部分,确保软件保持适应性、可维护性并与不断发展的业务需求保持一致。
  •   本章为DDD奠定基础:本章并非涵盖所有细节,而是介绍DDD背后的逻辑,为您深入学习其战略和战术应用做好准备。

    选择题

    1.  DDD旨在解决的主要挑战是什么?
          a. 降低软件开发成本
          b. 使软件开发与业务目标保持一致
          c. 提高软件交付速度
          d. 增加软件项目的技术复杂性
          e. 增强软件界面的美学设计
    2.  以下哪项不是本章讨论的DDD关键焦点?
          a. 领域
          b. 设计
          c. 战术实施
          d. 战略基础
          e. 美学用户界面设计
    3.  为什么在DDD中拥有战略基础至关重要?
          a. 它有助于降低软件工具的成本。
          b. 它确保软件架构难以更改。
          c. 它使软件解决方案与业务目标紧密结合。
          d. 它只专注于开发的技术方面。
          e. 它消除了对领域专家的需求。
    4.  在DDD中,为什么业务和技术团队之间的协作至关重要?
          a. 为了增加项目的复杂性
          b. 为了确保软件按时交付
          c. 为了促进共同理解和语言,减少不必要的复杂性,并确保软件交付业务真正需要的东西
          d. 为了减少所需的技术资源,并在没有额外复杂性的情况下交付业务真正需要的东西
          e. 为了让技术团队可以独立做出所有决策
    5.  领域专家在DDD中的主要角色之一是什么?
          a. 为软件编写代码
          b. 提供深刻的业务知识以指导开发过程
          c. 管理项目的技术资源
          d. 设计软件的用户界面
          e. 创建详细的软件架构图

      答案

      题号 答案选项
      1 b
      2 e
      3 c
      4 d
      5 b

      参考文献

    6.  Sinek, Simon. Start with Why: How Great Leaders Inspire Everyone to Take Action, 2009.
    7.  McAfee, Andrew. Now Every Company Is A Software Company, Forbes Techonomy, 2011.
    8.  Quidgest. Every Business Is a Software Business, Quidgest Articles, n.d.
    9.  Forbes Technology Council. 16 Obstacles To A Successful Software Project (And How To Avoid Them), Forbes, 2022.
    10.  Schwartz, Barry. The Paradox of Choice: Why More Is Less, 2004.
    11.  Krill, Paul. Complexity Is Killing Software Developers, InfoWorld, 2012.
    12.  Evans, Eric. Domain-Driven Design: Tackling Complexity in the Heart of Software, 2003.
    13.  Vernon, Vaughn. Implementing Domain-Driven Design, 2013.
    14.  Richards, Mark & Ford, Neal. Fundamentals of Software Architecture: An Engineering Approach, 2020.
    15. Ford, Neal. Software Architecture: The Hard Parts, 2021.
    16. Ousterhout, John. A Philosophy of Software Design, 2018.

加入我们的Discord空间
加入我们的Discord工作区,获取最新更新、优惠、全球科技动态、新版本发布以及与作者的交流机会:https://discord.bpbonline.com


[ddd_java_0-1]基于领域驱动设计的Java开发

基于领域驱动设计的Java开发

运用DDD原则构建可扩展与可维护的Java应用系统
奥塔维奥·桑塔纳 (Otavio Santana)
网址:www.bpbonline.com
2026年第一版
版权所有 © BPB Publications,印度
eISBN:978-93-65894-226
保留所有权利。未经出版者事先书面许可,本出版物的任何部分不得以任何形式或任何方式(电子或机械方式,包括复印、录制或通过任何信息存储和检索系统)复制、传播或存储于数据库或检索系统中,程序清单除外——这些清单可输入、存储于计算机系统并执行,但不得通过出版、影印、录制或任何电子及机械手段进行复制。
责任限制与担保免责声明
本书所载信息基于作者和出版者的认知,真实准确。作者已尽全力确保出版物的准确性,但出版者不对因本书任何信息引起的任何损失或损害承担责任。
本书提及的所有商标均视为其各自所有者的财产,但BPB Publications不保证此信息的准确性。
www.bpbonline.com
谨以本书献给
我挚爱的妻子:
波莉安娜
关于作者
奥塔维奥·桑塔纳是一位屡获殊荣的软件工程师和架构师,热衷于通过开源最佳实践赋能其他工程师,以构建高度可扩展和高效的软件。他是Java和开源生态系统的知名贡献者,其工作赢得了众多奖项和赞誉。奥塔维奥的爱好包括历史、经济、旅行和掌握多门语言,并极富幽默感。
关于审校者
卡琳娜·瓦雷拉的职业生涯专注于连接和支持企业软件的技术。她深入掌握广泛的技术栈、模式及最佳实践,尤其在Java企业解决方案领域。这一背景为她奠定了坚实基础,能够塑造从早期设计阶段到架构定义,再到云和容器基础设施平台上执行的关键任务解决方案。
她在应用平台方面的深厚专业知识,加上对开源的积极参与,是她十多年来在红帽和IBM参与关键企业解决方案的基础。
作为已出版作家和众多社区(例如SouJava协调员)的活跃贡献者,她的工作始终围绕构建健壮的技术和通过开放知识赋能开发者。
这一背景自然地为她最近作为Aletyx联合创始人的工作奠定了基础,该公司基于多年的实践经验和开源领导力,正在构建下一代智能自动化。
致谢
我要向我的家人、朋友和Java社区表示最深切的感谢,感谢他们的大力支持,使我能够投入时间创作本书。
我也感谢BPB Publications在本书出版过程中提供的指导和专业知识。本书的修订过程是一段漫长的旅程,期间有审校者、技术专家和编辑们的宝贵参与和合作。
最后,感谢所有对本书感兴趣的读者以及你们为使其成为现实所提供的支持。你们的鼓励无比珍贵。