我有带有自定义 ORM 的 Percona Mysql 服务器和 Java 客户端。在数据库中,我有表:
CREATE TABLE `PlayerSecret` (
`id` bigint(20) NOT NULL AUTO_INCREMENT,
`created` timestamp(6) NOT NULL DEFAULT CURRENT_TIMESTAMP(6),
`secret` binary(16) NOT NULL,
`player_id` bigint(20) NOT NULL,
PRIMARY KEY (`id`),
UNIQUE KEY `PlayerSecret_secret_unique` (`secret`),
KEY `PlayerSecret_player_id` (`player_id`)
) ENGINE=InnoDB AUTO_INCREMENT=141 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_unicode_ci
我发现SELECT PlayerSecret.player_id FROM PlayerSecret WHERE PlayerSecret.secret = ?
当方法提供参数时,查询返回一个空的结果集java.sql.PreparedStatement#setBytes
,并且按预期工作 java.sql.PreparedStatement#setBinaryStream
。我启用了 mysql 常规日志,发现在这个日志中两个查询是相同的,我在十六进制模式下检查了这个。
在一般日志它看起来像:
SELECT PlayerSecret.player_id FROM PlayerSecret WHERE PlayerSecret.secret = '<96>R\Ø8üõA\í¤Z´^E\Ô\ÊÁ\Ö'
以十六进制模式从通用日志中查询参数:
2796 525c d838 fcf5 415c eda4 5ab4 055c d45c cac1 5cd6 27
数据库中的值:
mysql> select hex(secret) from PlayerSecret where id=109;
+----------------------------------+
| hex(secret) |
+----------------------------------+
| 9652D838FCF541EDA45AB405D4CAC1D6 |
+----------------------------------+
1 row in set (0.00 sec)
问题是我的 ORM 通过setBytes
方法执行此查询,我认为这是BINARY
数据类型的正确方法,但它不起作用。
编码设置的一部分my.cnf
(也许很重要):
[client]
default-character-set = utf8mb4
[mysql]
default-character-set = utf8mb4
[mysqld]
general_log = on
general_log_file=/var/log/mysql/mysqld_general.log
require_secure_transport = ON
init-connect = SET collation_connection = utf8mb4_unicode_ci
character-set-server = utf8mb4
collation-server = utf8mb4_unicode_ci
Java代码:
var uuid = UUID.fromString("9652d838-fcf5-41ed-a45a-b405d4cac1d6");
var array = ByteBuffer.allocate(16).putLong(uuid.getMostSignificantBits()).putLong(uuid.getLeastSignificantBits()).array();
// works
stmt.setBinaryStream(index, new ByteArrayInputStream(array));
// don't works
stmt.setBytes(index, array);
我不明白这两种情况有什么区别,以及如何解决这个问题setBytes
。也许有人可以澄清这一点或指出我的重要部分/地方?
我的环境:
- 开放jdk 11
- HicariCP 3.1.0
- MySQL 连接器/J 8.0.13
- Percona 5.7.24-26-log Percona 服务器 (GPL),版本 '26',修订版 'c8fe767'