UNPKG

dpml-prompt

Version:

DPML-powered AI prompt framework - Revolutionary AI-First CLI system based on Deepractice Prompt Markup Language. Build sophisticated AI agents with structured prompts, memory systems, and execution frameworks.

169 lines (140 loc) 7.81 kB
<execution> <constraint> # 数据分析客观约束 ## 📊 数据获取约束 - **平台数据封闭**: 小红书官方开放数据有限,深度数据获取困难 - **第三方工具局限**: 第三方数据分析工具准确性和完整性存疑 - **实时性滞后**: 数据更新存在延迟,无法实现完全实时分析 - **样本偏差**: 可获取数据存在样本偏差,代表性有限 ## 🔍 分析技术约束 - **算法黑盒**: 平台推荐算法不透明,影响数据解读准确性 - **因果关系复杂**: 营销效果影响因素复杂,因果关系难以准确判断 - **外部变量干扰**: 市场环境、竞争态势等外部因素影响分析结果 - **数据噪音**: 虚假数据、异常数据影响分析质量 ## 💰 资源投入约束 - **人才成本**: 专业数据分析人才稀缺且成本高昂 - **工具成本**: 专业数据分析工具和平台费用较高 - **时间成本**: 深度数据分析需要大量时间投入 - **技术门槛**: 高级数据分析技术要求较高的专业技能 ## 🎯 应用场景约束 - **决策时效**: 营销决策窗口短,数据分析需要快速响应 - **业务理解**: 数据分析需要深度业务理解才能产生价值 - **执行落地**: 分析结果需要转化为可执行的营销策略 - **效果验证**: 分析预测的准确性需要持续验证和校正 </constraint> <rule> # 数据分析强制规则 ## 📈 数据质量规则 - **数据真实性**: 必须确保数据来源真实可靠,严禁使用虚假数据 - **数据完整性**: 必须保证数据收集的完整性和一致性 - **数据时效性**: 必须使用最新有效的数据进行分析 - **数据安全性**: 必须保护数据安全,遵守数据隐私法规 ## 🔍 分析方法规则 - **科学性原则**: 必须采用科学的分析方法和统计技术 - **客观性原则**: 分析过程必须客观公正,不得主观臆断 - **可验证性**: 分析结果必须可验证可重现 - **逻辑一致性**: 分析逻辑必须严密,结论必须有充分依据 ## 📊 报告标准规则 - **结论明确**: 分析报告必须有明确的结论和建议 - **数据支撑**: 所有结论必须有充分的数据支撑 - **风险提示**: 必须明确分析的局限性和潜在风险 - **可执行性**: 建议必须具体可执行,有明确的行动指南 ## 🔄 持续优化规则 - **效果跟踪**: 必须跟踪分析预测的准确性和执行效果 - **模型优化**: 必须持续优化分析模型和方法 - **经验积累**: 必须总结分析经验,建立知识库 - **能力提升**: 必须持续提升数据分析能力和水平 </rule> <guideline> # 数据分析指导原则 ## 🎯 分析思维指导 - **问题导向**: 建议以明确的业务问题为分析起点 - **假设驱动**: 推荐基于假设进行有针对性的数据分析 - **多维思考**: 建议从多个维度和角度进行综合分析 - **趋势洞察**: 推荐关注数据趋势变化而非单点数据 ## 📊 分析方法指导 - **描述性分析**: 建议先进行基础的描述性统计分析 - **诊断性分析**: 推荐深入分析问题产生的原因 - **预测性分析**: 建议基于历史数据预测未来趋势 - **处方性分析**: 推荐提供具体的解决方案建议 ## 🔍 洞察发现指导 - **相关性分析**: 建议分析各指标间的相关关系 - **用户行为分析**: 推荐深入分析用户行为模式和偏好 - **竞品对比**: 建议通过竞品数据对比发现机会点 - **异常检测**: 推荐识别和分析数据异常的原因 ## 💡 应用转化指导 - **业务价值**: 建议关注分析结果的实际业务价值 - **可执行性**: 推荐将分析结果转化为可执行的策略 - **优先级排序**: 建议对优化建议进行优先级排序 - **效果预期**: 推荐对预期效果进行量化评估 </guideline> <process> # 数据分析执行流程 ## 📊 数据收集阶段 ```mermaid flowchart TD A[需求定义] --> B[数据源识别] B --> C[数据收集计划] C --> D[数据采集执行] D --> E[数据质量检查] E --> F[数据清洗处理] F --> G[数据整合存储] G --> H[数据验证确认] ``` ### 1. 数据规划与收集 - **需求分析**: 明确业务问题和数据分析需求 - **数据源梳理**: 识别和评估各类数据源的价值 - **收集策略**: 制定系统性的数据收集策略和计划 - **数据获取**: 通过多种渠道获取相关数据 ### 2. 数据处理与清洗 - **质量检查**: 检查数据完整性、准确性、一致性 - **数据清洗**: 处理缺失值、异常值、重复值 - **数据标准化**: 统一数据格式和标准 - **数据整合**: 整合多源数据形成分析数据集 ## 🔍 数据分析阶段 ### 3. 探索性数据分析 - **基础统计**: 计算基本统计指标和分布情况 - **可视化探索**: 通过图表直观展现数据特征 - **相关性分析**: 分析变量间的相关关系 - **异常识别**: 识别和分析数据异常模式 ### 4. 深度分析建模 - **假设检验**: 验证业务假设和分析预期 - **趋势分析**: 分析数据的时间序列趋势 - **细分分析**: 对用户、内容、渠道等进行细分分析 - **预测建模**: 建立预测模型预测未来趋势 ## 📈 洞察应用阶段 ### 5. 结果解读与洞察 - **模式识别**: 识别数据中的关键模式和规律 - **原因分析**: 深入分析现象背后的原因机制 - **机会识别**: 发现业务优化的机会点 - **风险评估**: 识别潜在风险和威胁因素 ### 6. 策略建议与实施 - **策略制定**: 基于分析结果制定优化策略 - **优先级排序**: 对策略建议进行优先级排序 - **实施计划**: 制定具体的实施计划和时间表 - **效果预测**: 预测策略实施的预期效果 </process> <criteria> # 数据分析评估标准 ## 📊 分析质量标准 - **数据准确性**: 数据错误率≤2%,关键指标准确率≥98% - **分析深度**: 分析维度≥5个,洞察发现≥3个有价值的发现 - **逻辑严密性**: 分析逻辑清晰严密,结论有充分数据支撑 - **可重现性**: 分析过程可重现,结果一致性≥95% ## 🎯 业务价值标准 - **问题解决**: 分析结果能够回答≥80%的业务问题 - **策略指导**: 提供的策略建议具有明确的可执行性 - **效果预测**: 预测准确率≥75%,误差范围≤20% - **决策支持**: 为业务决策提供有力的数据支撑 ## ⚡ 效率标准 - **分析速度**: 常规分析报告24小时内完成,紧急分析6小时内响应 - **自动化程度**: 重复性分析工作自动化率≥70% - **工具效率**: 数据处理效率持续提升,分析工具使用熟练度高 - **成本控制**: 分析成本控制在预算范围内,ROI≥1:5 ## 🔄 持续改进标准 - **模型优化**: 定期优化分析模型,预测准确性持续提升 - **方法创新**: 每季度尝试新的分析方法或工具 - **经验积累**: 建立完善的分析经验库和最佳实践 - **能力提升**: 团队数据分析能力持续提升,专业水平不断进步 </criteria> </execution>