我正在使用 Azure AI 搜索,需要有关有效处理数据提交的建议。我的系统有数百 GB 的数据,我每秒可以生成多个条目 - 可能有数十个,具体取决于流量。
这是我的挑战:
每个单独的数据条目都很小(例如,用户创建、消息)。
尚未决定是立即发送每个条目还是批量发送。
担心同时向 Azure AI 搜索发送过多请求。这会导致问题吗?
主要问题:
我应该立即发送每个单独的数据条目,还是累积并每 10-20-30 秒发送一次?
如果我单独发送条目,什么频率被认为过于频繁并且可能导致限制或性能问题?
如果我对数据进行批处理,什么策略最适合临时存储?我应该使用数据库、Redis 还是其他?
优化数据提交间隔和确保高效索引的最佳实践是什么?
任何有关在 Azure 认知搜索中管理大量数据提交的见解或经验将不胜感激!