漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-03-13 talkingdev

[开源] PromptPex:将AI模型提示词自动化测试的开源工具

PromptPex是一个创新的开发者工具,它将AI模型中的提示词(prompts)视为函数,并自动生成测试输入,从而实现对AI模型提示词的系统化单元测试。这一工具的诞生标志着AI开发工具链的进一步完善,尤其是在提示工程(Pr...

Read More
2025-03-01 talkingdev

Maestro引领下一代移动UI自动化技术

近日,Maestro作为下一代移动UI自动化工具,正式亮相。该工具旨在通过先进的自动化技术,显著提升移动应用的用户界面测试效率。Maestro不仅支持多种移动操作系统,还能无缝集成到现有的开发流程中,极大地简化了测试...

Read More
2025-02-26 talkingdev

EmbodiedEval:全新交互式基准测试助力MLLM在具身任务中的能力评估

近日,EmbodiedEval作为一种全面且交互式的基准测试工具正式亮相,旨在评估多模态大语言模型(MLLMs)在具身任务中的表现。具身任务是指模型需要在物理环境中执行具体操作的任务,这对模型的感知、推理和执行能力提...

Read More
2025-02-14 talkingdev

开源LLM复杂函数调用基准测试工具

近日,GitHub上发布了一个专门用于评估AI模型在复杂函数调用方面表现的基准测试工具库。该工具库旨在为研究人员和开发者提供一套全面的测试框架,以衡量不同LLM在处理复杂函数调用时的性能。通过这一工具,用户可以...

Read More
2025-01-24 talkingdev

LOKI:多模态检测模型的合成基准测试

LOKI 是一个用于评估视觉语言模型(VLMs)在检测新颖和具有挑战性项目方面表现的合成基准测试工具。该基准测试通过生成复杂的多模态数据,帮助研究人员更好地理解模型在处理未知或复杂场景时的能力。LOKI 的设计旨在...

Read More
2025-01-23 talkingdev

MTU-Bench:全新基准测试评估LLM工具使用能力

近日,MTU-Bench作为一种全新的基准测试工具正式发布,旨在评估大型语言模型(LLMs)在不同场景下的工具使用能力。该基准测试通过多样化的任务设计,全面衡量LLMs在实际应用中的表现,特别是在复杂任务中调用外部工...

Read More
2024-11-18 talkingdev

MailCatcher推出简易SMTP服务器,邮件测试更便捷

MailCatcher是一款功能强大的邮件测试工具,它运行了一个超简单的SMTP服务器。用户可以通过这个SMTP服务器发送测试邮件,无需实际发送到接收者的邮箱中。MailCatcher能够捕获并存储发送的邮件内容,方便开发者在开发...

Read More
2024-08-06 talkingdev

如何利用Playwright追踪商品价格

最近,越来越多的消费者开始使用数字工具跟踪商品价格,以便在购物时节省资金。Playwright是一款新兴的自动化测试工具,现在也可以用于跟踪网上超市的价格。 使用Playwright,用户可以编写自动化脚本,以定期检查商...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page