当前位置:首页 > 文章列表 > 文章 > java教程 > KafkaStreamsAvro反序列化错误解决方法

KafkaStreamsAvro反序列化错误解决方法

2025-08-13 18:57:33 0浏览 收藏

在使用 Kafka Streams 和 Confluent Avro SerDe 时,你是否遇到过 `java.lang.IllegalStateException: Recursive update` 错误?本文将深入剖析这一常见问题的根源,该错误通常源于 Avro schema 定义中存在的命名冲突。我们将详细分析 Avro 反序列化过程中字段名与已存在类名冲突导致递归调用的机制,并提供清晰、可操作的解决方案,包括如何检查和修改 Avro schema 文件、利用 `.avdl` 文件管理 schema 依赖关系、以及如何使用 Avro Maven 插件进行编译。此外,本文还提供了更新后的 `pom.xml` 示例代码,助你快速解决问题。遵循本文的最佳实践建议,确保你的 Kafka Streams 应用稳定可靠,避免此类异常的发生。

解决 Kafka Streams Avro 反序列化中的递归更新错误

本文档旨在帮助开发者解决在使用 Kafka Streams 和 Confluent Avro SerDe 时遇到的 java.lang.IllegalStateException: Recursive update 错误。该错误通常是由于 Avro schema 定义中的命名冲突导致的,我们将深入分析问题原因,并提供清晰的解决方案,以及最佳实践建议,确保你的 Kafka Streams 应用稳定可靠。

问题分析

java.lang.IllegalStateException: Recursive update 错误通常发生在 Kafka Streams 应用尝试反序列化 Avro 消息时。 根本原因是 Avro schema 中字段名与已存在的类名冲突,导致 Avro 试图递归地加载和初始化类,从而引发异常。

具体来说,当 Avro 反序列化器在 ConcurrentHashMap.computeIfAbsent 方法中尝试加载 schema 时,如果 schema 中的某个字段名与已存在的类名相同(忽略大小写),就会触发递归调用,最终导致 IllegalStateException。

解决方案

解决此问题的关键在于避免 Avro schema 中的字段名与类名冲突。以下是详细的步骤和建议:

  1. 检查 Avro Schema 文件:

    仔细检查你的 .avsc 文件,特别是涉及到复杂类型(例如嵌套的 record 类型)的定义。确认字段名是否与任何已存在的类名冲突。

    在提供的例子中,PosInvoice.avsc 文件中的 DeliveryAddress 字段,其类型也是 DeliveryAddress,且字段名首字母大写,导致了混淆。

    // 错误示例
    {
      "type": "record",
      "name": "PosInvoice",
      "fields": [
        // ... other fields
        {"name": "DeliveryAddress", "type": "DeliveryAddress"}
      ]
    }
  2. 修改字段命名:

    将 Avro schema 中的字段名修改为小写,或者使用更具描述性的名称,以避免与类名冲突。

    // 正确示例
    {
      "type": "record",
      "name": "PosInvoice",
      "fields": [
        // ... other fields
        {"name": "deliveryAddress", "type": "DeliveryAddress"}
      ]
    }

    修改字段名后,需要重新生成 Avro 类。

  3. 使用 .avdl 文件(推荐):

    为了更好地管理 Avro schema 之间的依赖关系,建议使用 .avdl 文件来定义 Avro 类型。.avdl 文件允许你定义命名空间和 import 其他 schema,从而避免命名冲突。

    例如,你可以将 DeliveryAddress 定义在一个单独的 .avdl 文件中,并在 PosInvoice.avdl 中引用它。

    // DeliveryAddress.avdl
    @namespace("guru.learningjournal.kafka.examples.types")
    protocol DeliveryAddressProtocol {
      record DeliveryAddress {
        string addressLine;
        string city;
        string state;
        string pinCode;
      }
    }
    
    // PosInvoice.avdl
    @namespace("guru.learningjournal.kafka.examples.types")
    protocol PosInvoiceProtocol {
        import idl "DeliveryAddress.avdl";
    
        record PosInvoice {
            string invoiceNumber;
            string createdTime;
            string storeID;
            string posID;
            long customerID;
            string customerName;
            string email;
            string number;
            string paymentMethod;
            string deliveryType;
            DeliveryAddress deliveryAddress;
            string customerType;
            java.util.List<LineItem> lineItems;
            double totalAmount;
            double tax;
            double discount;
            double payableAmount;
        }
    
        record LineItem {
            string itemCode;
            String itemName;
            long itemQuantity;
            double itemPrice;
            double taxAmount;
            double totalValue;
        }
    }

    使用 Avro Maven 插件编译 .avdl 文件,生成对应的 Java 类。

  4. 清理并重新编译:

    在修改 schema 后,确保清理 Maven 项目,并重新编译,以确保新的 Avro 类被正确生成和使用。

    mvn clean install

示例代码(更新后的 pom.xml)

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>

    <groupId>guru.learningjournal.kafka.examples</groupId>
    <artifactId>16-pos-fanout-avro</artifactId>
    <version>1.0-SNAPSHOT</version>

    <properties>
        <maven.compiler.source>11</maven.compiler.source>
        <maven.compiler.target>11</maven.compiler.target>
        <java.version>11</java.version>
    </properties>

    <repositories>
        <repository>
            <id>confluent</id>
            <url>https://packages.confluent.io/maven/</url>
        </repository>
    </repositories>

    <dependencies>
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-streams</artifactId>
            <version>3.3.1</version>
        </dependency>
        <dependency>
            <groupId>io.confluent</groupId>
            <artifactId>kafka-streams-avro-serde</artifactId>
            <version>7.2.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.logging.log4j</groupId>
            <artifactId>log4j-slf4j-impl</artifactId>
            <version>2.19.0</version>
        </dependency>
    </dependencies>

    <build>
        <plugins>
            <!-- Maven Compiler Plugin-->
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.8.0</version>
                <configuration>
                    <source>${java.version}</source>
                    <target>${java.version}</target>
                </configuration>
            </plugin>

            <!-- Maven Avro plugin for generating pojo-->
            <plugin>
                <groupId>org.apache.avro</groupId>
                <artifactId>avro-maven-plugin</artifactId>
                <version>1.11.0</version>
                <executions>
                    <execution>
                        <phase>generate-sources</phase>
                        <goals>
                            <goal>idl</goal>
                        </goals>
                        <configuration>
                            <sourceDirectory>${project.basedir}/src/main/resources/schema/</sourceDirectory>
                            <outputDirectory>${project.basedir}/src/main/java/</outputDirectory>
                            <stringType>String</stringType>
                            <imports>
                                <import>${project.basedir}/src/main/resources/schema/DeliveryAddress.avdl</import>
                            </imports>
                        </configuration>
                    </execution>
                </executions>
            </plugin>
        </plugins>
    </build>
</project>

注意: 更新了 avro-maven-plugin 的版本到 1.11.0,并且将 goal 修改为 idl,以支持 .avdl 文件的编译。 确保在 configuration 节点中指定了 sourceDirectory、outputDirectory 和 stringType。

总结与最佳实践

解决 java.lang.IllegalStateException: Recursive update 错误的关键在于避免 Avro schema 中的命名冲突。 通过遵循以下最佳实践,可以有效地避免此类问题:

  • 字段命名规范: 始终使用小写字母作为 Avro schema 字段名的开头。
  • 使用 .avdl 文件: 使用 .avdl 文件来定义和管理 Avro schema,特别是当涉及到复杂的类型和依赖关系时。
  • 清晰的命名空间: 为 Avro schema 定义清晰的命名空间,以避免与其他 schema 或类名冲突。
  • 版本控制: 使用版本控制系统(如 Git)来管理 Avro schema 文件,以便追踪变更和回滚。
  • 充分测试: 在生产环境中部署 Kafka Streams 应用之前,进行充分的测试,以确保 Avro 反序列化能够正常工作。

通过遵循这些建议,你可以有效地避免 java.lang.IllegalStateException: Recursive update 错误,并确保你的 Kafka Streams 应用稳定可靠。

本篇关于《KafkaStreamsAvro反序列化错误解决方法》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注golang学习网公众号!

Golang文件上传下载:multipart与静态服务详解Golang文件上传下载:multipart与静态服务详解
上一篇
Golang文件上传下载:multipart与静态服务详解
AI剪辑生成视频,月入过万真的吗?
下一篇
AI剪辑生成视频,月入过万真的吗?
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    164次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    156次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    166次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    166次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    176次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码