基于gRPC-Go与SQLite实现异构基础设施的分布式控制面


管理一个由Apache Spark集群、需要动态防火墙规则的业务网关以及服务于不同团队的微前端门户组成的混合环境,其复杂性不在于任何单个组件,而在于它们之间交互的失序。运维脚本、人工审批流程和直接暴露的、风格迥异的API共同构成了一个难以维护的控制平面。当一个来自数据分析团队的需求——“为我新上线的Spark作业临时开放一个数据源的访问端口”——需要同时触及网络安全和大数据平台时,跨团队的协调成本和潜在的人为错误风险便暴露无遗。核心问题是,我们缺乏一个统一的、声明式的、可编程的接口来协调这些异构的基础设施资源。

方案权衡:中心化控制器 vs. 分布式Agent

在构建统一控制面的初期,我们评估了两种主流架构。

方案A:中心化单体控制器

这是一种直接的实现方式。构建一个高可用的Go服务,它作为所有操作的唯一入口。这个控制器通过gRPC暴露API,微前端的BFF(Backend for Frontend)层直接调用。它内部集成了所有目标系统的客户端逻辑:通过SSH连接到网关节点执行iptablesnft命令,使用Spark的REST API提交作业,等等。所有状态,如当前生效的防火墙规则、正在运行的作业列表,都集中存储在一个高可用的数据库(如PostgreSQL或etcd)中。

优势:

  • 逻辑集中: 所有业务逻辑和状态管理都在一个地方,便于初期的开发和理解。
  • 强一致性: 依赖中心化数据库的事务能力,可以较容易地保证状态的强一致性。

劣势:

  • 可扩展性瓶颈: 控制器成为整个系统的瓶颈。随着管理的节点和资源类型增多,其负载会线性增长。
  • 安全风险: 控制器需要持有所有目标节点的访问凭证(SSH密钥、API Token等),这是一个巨大的安全风险敞口。
  • 脆弱性: 控制器与目标系统的紧密耦合意味着任何一方的API变更或网络问题都可能导致整个控制平面的功能中断。如果控制器无法通过SSH连接到某个防火墙节点,那么该节点上的规则更新就会失败,且控制器需要处理复杂的重试和补偿逻辑。

方案B:分布式Agent模型

该模型由一个轻量级的中心化“编排器”(Orchestrator)和部署在每个被管理节点上的“Agent”组成。

  • 编排器 (Orchestrator): 自身基本不存储状态,主要负责接收来自上游(如微前端BFF)的gRPC请求,进行认证、鉴权和初步校验,然后将任务分发给相应的Agent。
  • Agent: 一个在目标节点上运行的轻量级Go守护进程。它负责执行具体的操作(如修改本地防火墙规则、执行spark-submit命令)并维护该节点上的资源状态。为了保证Agent重启或短暂离线后状态不丢失,每个Agent都使用一个本地嵌入式数据库来持久化其管理的状态。

优势:

  • 高可扩展性与韧性: 任务执行被下推到边缘。编排器只负责调度,负载极低。单个Agent的故障不会影响其他节点。Agent甚至可以在与编排器断开连接的情况下,继续维持本地状态的正确性(例如,防火墙规则在重启后依然生效)。
  • 安全模型更优: 编排器不再需要目标节点的凭证。Agent以本地权限运行,仅执行其被赋予的特定任务。与编排器的通信可以通过mTLS进行加密和双向认证。
  • 松耦合与自治: Agent是其所管理资源的专家。管理Spark节点的Agent知道如何与本地的Spark环境交互;管理防火墙的Agent精通nftables的语法。增加一种新的资源类型,只需要开发一个新的Agent实现,而对编排器和其他Agent的影响极小。

最终决策

在真实项目中,基础设施的异构性和规模只会不断增长。方案A的简单性是一种短期诱惑,长期来看,其带来的运维复杂度和安全风险是不可接受的。因此,我们选择了方案B——分布式Agent模型。这种架构将复杂性分散处理,更符合“高内聚,低耦合”的设计原则。而在这个模型中,为Agent选择一个合适的本地持久化方案至关重要。使用文件系统直接存JSON或YAML配置是一种选择,但缺乏事务性和查询能力。引入一个像PostgreSQL这样的重型数据库对于一个轻量级Agent来说又过于笨重。

这里的技术选型关键点在于SQLite。它以一个本地文件提供完整的ACID事务能力,零配置,并且与Go应用程序无缝集成。它完美地满足了Agent对于本地、可靠、轻量级状态存储的需求。

核心实现概览

整个系统的架构可以用下面的流程图表示:

graph TD
    subgraph Browser
        A[Micro-frontend: Firewall UI] --> B{BFF};
        C[Micro-frontend: Spark UI] --> B;
    end

    subgraph Platform Backend
        B -- gRPC --> D[Orchestrator Service];
    end

    subgraph Infrastructure Nodes
        D -- gRPC --> E[Agent on Firewall Gateway];
        D -- gRPC --> F[Agent on Spark Master];
    end

    subgraph Local Resources
        E -- exec() --> G[nftables/iptables];
        E -- database/sql --> H[(SQLite DB)];
        F -- exec() --> I[spark-submit];
        F -- database/sql --> J[(SQLite DB)];
    end

    style H fill:#f9f,stroke:#333,stroke-width:2px
    style J fill:#f9f,stroke:#333,stroke-width:2px

1. gRPC接口定义 (Protocol Buffers)

统一控制面的核心是其API定义。我们使用Protocol Buffers来定义服务和消息,确保跨语言的兼容性和高效的序列化。

controlplane.proto:

syntax = "proto3";

package controlplane.v1;

import "google/protobuf/timestamp.proto";

option go_package = "github.com/your-org/platform/gen/go/controlplane/v1;controlplanev1";

// AgentService 由每个Agent实现,供Orchestrator调用
service AgentService {
  // ApplyFirewallRule 应用一条防火墙规则
  // 这是一个幂等操作
  rpc ApplyFirewallRule(ApplyFirewallRuleRequest) returns (ApplyFirewallRuleResponse);

  // SubmitSparkJob 提交一个Spark作业
  rpc SubmitSparkJob(SubmitSparkJobRequest) returns (SubmitSparkJobResponse);

  // GetAgentStatus 获取Agent的健康状况和管理的资源状态
  rpc GetAgentStatus(GetAgentStatusRequest) returns (GetAgentStatusResponse);
}

message FirewallRule {
  string id = 1; // 规则的唯一标识符, e.g., "allow-ingress-port-8080-for-service-x"
  string chain = 2; // e.g., "INPUT", "FORWARD"
  string protocol = 3; // e.g., "tcp", "udp"
  int32 port = 4;
  string source_ip = 5; // e.g., "10.0.1.0/24", "any"
  string action = 6; // e.g., "ACCEPT", "DROP"
  string description = 7;
}

message ApplyFirewallRuleRequest {
  // 幂等键,用于防止重复执行
  string request_id = 1;
  FirewallRule rule = 2;
}

message ApplyFirewallRuleResponse {
  string rule_id = 1;
  string status = 2; // e.g., "APPLIED", "FAILED"
  string message = 3;
}

message SparkJob {
  string id = 1; // 作业的唯一标识符
  string name = 2;
  string main_class = 3;
  string application_jar = 4;
  repeated string app_args = 5;
  map<string, string> spark_configs = 6;
}

message SubmitSparkJobRequest {
  string request_id = 1;
  SparkJob job = 2;
}

message SubmitSparkJobResponse {
  string job_id = 1;
  string submission_id = 2; // Spark返回的submission ID
  string status = 3; // e.g., "SUBMITTED", "RUNNING", "FAILED"
}

// ... GetAgentStatus 相关的消息定义 ...
message GetAgentStatusRequest {}
message GetAgentStatusResponse {
  string agent_id = 1;
  bool healthy = 2;
  google.protobuf.Timestamp last_seen = 3;
  int32 managed_firewall_rules = 4;
  int32 running_spark_jobs = 5;
}

这份.proto文件清晰地定义了Agent需要具备的能力。request_id字段是实现幂等性的关键,防止网络重试导致同一条规则被应用多次。

2. Go Agent核心实现

Agent是整个架构的执行单元。它是一个长时间运行的Go进程,同时作为gRPC服务端响应Orchestrator的指令,并使用SQLite作为其“记忆”。

agent/main.go:

package main

import (
	"context"
	"database/sql"
	"fmt"
	"log"
	"net"
	"os"
	"os/exec"
	"sync"

	_ "github.com/mattn/go-sqlite3"
	"google.golang.org/grpc"
	
	pb "github.com/your-org/platform/gen/go/controlplane/v1"
)

const (
	dbPath    = "/var/lib/platform-agent/state.db"
	agentPort = ":50051"
)

// agentServer 实现了 controlplane.v1.AgentServiceServer 接口
type agentServer struct {
	pb.UnimplementedAgentServiceServer
	db   *sql.DB
	mu   sync.Mutex // 保护对外部资源(如iptables)的并发访问
	nodeID string
}

// newAgentServer 初始化并返回一个新的agent实例
func newAgentServer(db *sql.DB) (*agentServer, error) {
	hostname, err := os.Hostname()
	if err != nil {
		return nil, fmt.Errorf("failed to get hostname: %w", err)
	}

	// 初始化数据库表结构
	// 在真实项目中,这部分应该使用迁移工具来管理
	schema := `
	CREATE TABLE IF NOT EXISTS firewall_rules (
		id TEXT PRIMARY KEY,
		chain TEXT NOT NULL,
		protocol TEXT NOT NULL,
		port INTEGER NOT NULL,
		source_ip TEXT NOT NULL,
		action TEXT NOT NULL,
		description TEXT,
		applied_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP
	);
	CREATE TABLE IF NOT EXISTS spark_jobs (
		id TEXT PRIMARY KEY,
		name TEXT NOT NULL,
		submission_id TEXT,
		status TEXT NOT NULL, -- e.g., PENDING, SUBMITTED, FAILED
		last_updated_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP
	);
	`
	if _, err := db.Exec(schema); err != nil {
		return nil, fmt.Errorf("failed to initialize database schema: %w", err)
	}

	return &agentServer{db: db, nodeID: hostname}, nil
}

// ApplyFirewallRule 是gRPC方法的具体实现
func (s *agentServer) ApplyFirewallRule(ctx context.Context, req *pb.ApplyFirewallRuleRequest) (*pb.ApplyFirewallRuleResponse, error) {
	s.mu.Lock()
	defer s.mu.Unlock()

	rule := req.GetRule()
	if rule == nil {
		return nil, fmt.Errorf("rule cannot be nil")
	}

	log.Printf("Received ApplyFirewallRule request %s for rule ID %s", req.GetRequestId(), rule.GetId())

	// 1. 写入数据库,将操作持久化,这是关键的第一步
	tx, err := s.db.BeginTx(ctx, nil)
	if err != nil {
		return nil, fmt.Errorf("failed to begin transaction: %w", err)
	}
	defer tx.Rollback() // 如果后续操作失败,回滚事务

	// 使用UPSERT语义,如果规则已存在则更新,不存在则插入
	_, err = tx.ExecContext(ctx, `
		INSERT INTO firewall_rules (id, chain, protocol, port, source_ip, action, description)
		VALUES (?, ?, ?, ?, ?, ?, ?)
		ON CONFLICT(id) DO UPDATE SET
			chain=excluded.chain, protocol=excluded.protocol, port=excluded.port, 
			source_ip=excluded.source_ip, action=excluded.action, description=excluded.description;
	`, rule.Id, rule.Chain, rule.Protocol, rule.Port, rule.SourceIp, rule.Action, rule.Description)

	if err != nil {
		return nil, fmt.Errorf("failed to write rule to database: %w", err)
	}

	// 2. 执行实际的系统命令
	// 这里的iptables命令是简化的示例。在生产环境中,需要更复杂的逻辑来确保
	// 规则不会重复添加,并且能够安全地更新或删除。
	// 一个常见的错误是,不检查规则是否存在就直接使用 -A (Append),这会导致规则重复。
	// 更好的做法是先用 -C (Check) 检查,或者先 -D (Delete) 再 -I (Insert)。
	cmdArgs := []string{
		"-C", rule.Chain,
		"-p", rule.Protocol, "--dport", fmt.Sprintf("%d", rule.Port),
		"-s", rule.SourceIp,
		"-j", rule.Action,
	}
	
	checkCmd := exec.CommandContext(ctx, "iptables", cmdArgs...)
	if err := checkCmd.Run(); err != nil {
		// 如果规则不存在 (checkCmd返回非0退出码),则添加它
		insertArgs := []string{
			"-I", rule.Chain, "1", // 插入到链的顶部
			"-p", rule.Protocol, "--dport", fmt.Sprintf("%d", rule.Port),
			"-s", rule.SourceIp,
			"-j", rule.Action,
			"-m", "comment", "--comment", fmt.Sprintf("platform-agent rule-id:%s", rule.Id),
		}
		log.Printf("Executing command: iptables %v", insertArgs)
		insertCmd := exec.CommandContext(ctx, "iptables", insertArgs...)
		output, err := insertCmd.CombinedOutput()
		if err != nil {
			log.Printf("Failed to apply iptables rule: %s. Output: %s", err, string(output))
			// 因为命令执行失败,我们不提交事务,defer中的Rollback会自动生效
			return &pb.ApplyFirewallRuleResponse{RuleId: rule.Id, Status: "FAILED", Message: err.Error()}, nil
		}
	} else {
		log.Printf("Rule %s already exists, ensuring it's in desired state.", rule.Id)
		// 在这里可以添加更新逻辑
	}
	
	// 3. 命令执行成功,提交数据库事务
	if err := tx.Commit(); err != nil {
		return nil, fmt.Errorf("failed to commit transaction: %w", err)
	}

	log.Printf("Successfully applied firewall rule %s", rule.GetId())
	return &pb.ApplyFirewallRuleResponse{RuleId: rule.Id, Status: "APPLIED"}, nil
}

// SubmitSparkJob 的实现思路类似
func (s *agentServer) SubmitSparkJob(ctx context.Context, req *pb.SubmitSparkJobRequest) (*pb.SubmitSparkJobResponse, error) {
    // 1. 参数校验
    job := req.GetJob()
    if job == nil || job.GetApplicationJar() == "" || job.GetMainClass() == "" {
        return nil, fmt.Errorf("invalid spark job definition")
    }

    // 2. 持久化任务意图到SQLite
    tx, err := s.db.BeginTx(ctx, nil)
    if err != nil {
        return nil, fmt.Errorf("failed to start transaction: %w", err)
    }
    defer tx.Rollback()

    _, err = tx.ExecContext(ctx,
        `INSERT INTO spark_jobs (id, name, status) VALUES (?, ?, 'PENDING')`,
        job.Id, job.Name)
    if err != nil {
        return nil, fmt.Errorf("failed to record job submission intent: %w", err)
    }

    // 3. 构建并异步执行 spark-submit 命令
    args := []string{
        "--class", job.GetMainClass(),
        "--master", "spark://spark-master:7077", // 配置应来自Agent配置,而非硬编码
        "--name", job.GetName(),
    }
    for key, val := range job.GetSparkConfigs() {
        args = append(args, "--conf", fmt.Sprintf("%s=%s", key, val))
    }
    args = append(args, job.GetApplicationJar())
    args = append(args, job.GetAppArgs()...)

    cmd := exec.Command("spark-submit", args...)
    log.Printf("Executing command: spark-submit %v", args)

    // 在生产级代码中,不应该阻塞gRPC调用来等待spark-submit。
    // 应该在一个单独的goroutine中执行它,并更新数据库中的状态。
    // 这里为了简化,我们仅异步启动它。
    go func() {
        output, err := cmd.CombinedOutput()
        if err != nil {
            log.Printf("spark-submit for job %s failed: %v, output: %s", job.Id, err, string(output))
            // 更新数据库状态为FAILED
            s.db.Exec(`UPDATE spark_jobs SET status='FAILED', last_updated_at=CURRENT_TIMESTAMP WHERE id=?`, job.Id)
        } else {
            // 在实际场景中,需要从spark-submit的输出中解析出submission ID
            // 并更新到数据库中
            log.Printf("spark-submit for job %s completed.", job.Id)
            s.db.Exec(`UPDATE spark_jobs SET status='SUBMITTED', submission_id='mock-submission-id', last_updated_at=CURRENT_TIMESTAMP WHERE id=?`, job.Id)
        }
    }()

    // 4. 提交事务并立即返回
    if err := tx.Commit(); err != nil {
        return nil, fmt.Errorf("failed to commit spark job submission: %w", err)
    }

    return &pb.SubmitSparkJobResponse{
        JobId:  job.Id,
        Status: "SUBMITTED",
    }, nil
}


func main() {
	db, err := sql.Open("sqlite3", dbPath)
	if err != nil {
		log.Fatalf("failed to open database: %v", err)
	}
	defer db.Close()

	server, err := newAgentServer(db)
	if err != nil {
		log.Fatalf("failed to create agent server: %v", err)
	}

	lis, err := net.Listen("tcp", agentPort)
	if err != nil {
		log.Fatalf("failed to listen: %v", err)
	}

	s := grpc.NewServer()
	pb.RegisterAgentServiceServer(s, server)

	log.Printf("Agent server listening at %v", lis.Addr())
	if err := s.Serve(lis); err != nil {
		log.Fatalf("failed to serve: %v", err)
	}
}

这段代码展示了Agent的核心逻辑。关键在于ApplyFirewallRule方法中的“先持久化意图,再执行操作”模式。请求到达后,首先在SQLite事务中记录下期望的最终状态。只有当这个记录成功后,才去尝试与外部世界(iptables)交互。如果外部交互失败,数据库事务会被回滚,Agent的状态保持一致。如果交互成功,则提交事务。这种模式使得Agent的状态在任何时候都是可追溯和可恢复的。即使Agent在执行iptables命令后、提交事务前崩溃,重启后它可以通过检查数据库中的状态和系统中的实际状态来决定是否需要重做或修复。

架构的扩展性与局限性

这种基于gRPC和SQLite Agent的分布式控制面架构,其优势在于清晰的职责划分和强大的可扩展性。

扩展性:

  • 支持新资源: 假如需要管理一个新的资源类型,比如配置Nginx反向代理。我们只需要:
    1. .proto文件中增加新的RPC方法,如ApplyNginxConfig
    2. 在Agent代码中实现这个新方法,包含解析配置、写入SQLite和执行nginx -s reload的逻辑。
    3. 部署更新后的Agent到Nginx节点。
    4. Orchestrator和微前端BFF只需简单适配新的gRPC调用即可。整个核心架构无需改动。
  • 水平扩展: 当受管节点从几十个增长到数千个时,Orchestrator由于是无状态的,可以轻松地进行水平扩展。真正的负载被分散到了成千上万个Agent上。

局限性:

  • 最终一致性: 这是一个典型的最终一致性系统。从微前端UI点击“应用”到规则在目标节点上实际生效,存在一个时间延迟。对于要求跨系统强事务一致性的场景(例如,金融交易),此架构并不适用。
  • Agent的生命周期管理: Agent本身也成了需要管理的基础设施。如何安全地部署、升级、监控和退役成千上万个Agent,是这个架构带来的新挑战。这通常需要借助成熟的配置管理工具(如Ansible, SaltStack)或容器编排平台(如在Kubernetes中作为DaemonSet运行)。
  • 可观测性: 追踪一个请求的全过程——从微前端发起,经过BFF、Orchestrator,最终到某个Agent执行——变得更加复杂。必须引入分布式追踪系统(如OpenTelemetry),在gRPC的metadata中传递trace context,才能有效地进行故障排查和性能分析。
  • Orchestrator的演进: 虽然当前设计中Orchestrator是轻量级的,但随着业务逻辑复杂化(例如,需要根据多个Agent的状态来做决策的复杂工作流),Orchestrator可能会变得越来越重,需要警惕其演变成一个新的“中心化单体”的风险。一个可能的演进方向是采用工作流引擎(如Temporal, Cadence)来编排跨Agent的长时间运行任务。

  目录