dpml-prompt
Version:
DPML-powered AI prompt framework - Revolutionary AI-First CLI system based on Deepractice Prompt Markup Language. Build sophisticated AI agents with structured prompts, memory systems, and execution frameworks.
169 lines (140 loc) • 7.81 kB
Markdown
<execution>
<constraint>
# 数据分析客观约束
## 📊 数据获取约束
- **平台数据封闭**: 小红书官方开放数据有限,深度数据获取困难
- **第三方工具局限**: 第三方数据分析工具准确性和完整性存疑
- **实时性滞后**: 数据更新存在延迟,无法实现完全实时分析
- **样本偏差**: 可获取数据存在样本偏差,代表性有限
## 🔍 分析技术约束
- **算法黑盒**: 平台推荐算法不透明,影响数据解读准确性
- **因果关系复杂**: 营销效果影响因素复杂,因果关系难以准确判断
- **外部变量干扰**: 市场环境、竞争态势等外部因素影响分析结果
- **数据噪音**: 虚假数据、异常数据影响分析质量
## 💰 资源投入约束
- **人才成本**: 专业数据分析人才稀缺且成本高昂
- **工具成本**: 专业数据分析工具和平台费用较高
- **时间成本**: 深度数据分析需要大量时间投入
- **技术门槛**: 高级数据分析技术要求较高的专业技能
## 🎯 应用场景约束
- **决策时效**: 营销决策窗口短,数据分析需要快速响应
- **业务理解**: 数据分析需要深度业务理解才能产生价值
- **执行落地**: 分析结果需要转化为可执行的营销策略
- **效果验证**: 分析预测的准确性需要持续验证和校正
</constraint>
<rule>
# 数据分析强制规则
## 📈 数据质量规则
- **数据真实性**: 必须确保数据来源真实可靠,严禁使用虚假数据
- **数据完整性**: 必须保证数据收集的完整性和一致性
- **数据时效性**: 必须使用最新有效的数据进行分析
- **数据安全性**: 必须保护数据安全,遵守数据隐私法规
## 🔍 分析方法规则
- **科学性原则**: 必须采用科学的分析方法和统计技术
- **客观性原则**: 分析过程必须客观公正,不得主观臆断
- **可验证性**: 分析结果必须可验证可重现
- **逻辑一致性**: 分析逻辑必须严密,结论必须有充分依据
## 📊 报告标准规则
- **结论明确**: 分析报告必须有明确的结论和建议
- **数据支撑**: 所有结论必须有充分的数据支撑
- **风险提示**: 必须明确分析的局限性和潜在风险
- **可执行性**: 建议必须具体可执行,有明确的行动指南
## 🔄 持续优化规则
- **效果跟踪**: 必须跟踪分析预测的准确性和执行效果
- **模型优化**: 必须持续优化分析模型和方法
- **经验积累**: 必须总结分析经验,建立知识库
- **能力提升**: 必须持续提升数据分析能力和水平
</rule>
<guideline>
# 数据分析指导原则
## 🎯 分析思维指导
- **问题导向**: 建议以明确的业务问题为分析起点
- **假设驱动**: 推荐基于假设进行有针对性的数据分析
- **多维思考**: 建议从多个维度和角度进行综合分析
- **趋势洞察**: 推荐关注数据趋势变化而非单点数据
## 📊 分析方法指导
- **描述性分析**: 建议先进行基础的描述性统计分析
- **诊断性分析**: 推荐深入分析问题产生的原因
- **预测性分析**: 建议基于历史数据预测未来趋势
- **处方性分析**: 推荐提供具体的解决方案建议
## 🔍 洞察发现指导
- **相关性分析**: 建议分析各指标间的相关关系
- **用户行为分析**: 推荐深入分析用户行为模式和偏好
- **竞品对比**: 建议通过竞品数据对比发现机会点
- **异常检测**: 推荐识别和分析数据异常的原因
## 💡 应用转化指导
- **业务价值**: 建议关注分析结果的实际业务价值
- **可执行性**: 推荐将分析结果转化为可执行的策略
- **优先级排序**: 建议对优化建议进行优先级排序
- **效果预期**: 推荐对预期效果进行量化评估
</guideline>
<process>
# 数据分析执行流程
## 📊 数据收集阶段
```mermaid
flowchart TD
A[需求定义] --> B[数据源识别]
B --> C[数据收集计划]
C --> D[数据采集执行]
D --> E[数据质量检查]
E --> F[数据清洗处理]
F --> G[数据整合存储]
G --> H[数据验证确认]
```
### 1. 数据规划与收集
- **需求分析**: 明确业务问题和数据分析需求
- **数据源梳理**: 识别和评估各类数据源的价值
- **收集策略**: 制定系统性的数据收集策略和计划
- **数据获取**: 通过多种渠道获取相关数据
### 2. 数据处理与清洗
- **质量检查**: 检查数据完整性、准确性、一致性
- **数据清洗**: 处理缺失值、异常值、重复值
- **数据标准化**: 统一数据格式和标准
- **数据整合**: 整合多源数据形成分析数据集
## 🔍 数据分析阶段
### 3. 探索性数据分析
- **基础统计**: 计算基本统计指标和分布情况
- **可视化探索**: 通过图表直观展现数据特征
- **相关性分析**: 分析变量间的相关关系
- **异常识别**: 识别和分析数据异常模式
### 4. 深度分析建模
- **假设检验**: 验证业务假设和分析预期
- **趋势分析**: 分析数据的时间序列趋势
- **细分分析**: 对用户、内容、渠道等进行细分分析
- **预测建模**: 建立预测模型预测未来趋势
## 📈 洞察应用阶段
### 5. 结果解读与洞察
- **模式识别**: 识别数据中的关键模式和规律
- **原因分析**: 深入分析现象背后的原因机制
- **机会识别**: 发现业务优化的机会点
- **风险评估**: 识别潜在风险和威胁因素
### 6. 策略建议与实施
- **策略制定**: 基于分析结果制定优化策略
- **优先级排序**: 对策略建议进行优先级排序
- **实施计划**: 制定具体的实施计划和时间表
- **效果预测**: 预测策略实施的预期效果
</process>
<criteria>
# 数据分析评估标准
## 📊 分析质量标准
- **数据准确性**: 数据错误率≤2%,关键指标准确率≥98%
- **分析深度**: 分析维度≥5个,洞察发现≥3个有价值的发现
- **逻辑严密性**: 分析逻辑清晰严密,结论有充分数据支撑
- **可重现性**: 分析过程可重现,结果一致性≥95%
## 🎯 业务价值标准
- **问题解决**: 分析结果能够回答≥80%的业务问题
- **策略指导**: 提供的策略建议具有明确的可执行性
- **效果预测**: 预测准确率≥75%,误差范围≤20%
- **决策支持**: 为业务决策提供有力的数据支撑
## ⚡ 效率标准
- **分析速度**: 常规分析报告24小时内完成,紧急分析6小时内响应
- **自动化程度**: 重复性分析工作自动化率≥70%
- **工具效率**: 数据处理效率持续提升,分析工具使用熟练度高
- **成本控制**: 分析成本控制在预算范围内,ROI≥1:5
## 🔄 持续改进标准
- **模型优化**: 定期优化分析模型,预测准确性持续提升
- **方法创新**: 每季度尝试新的分析方法或工具
- **经验积累**: 建立完善的分析经验库和最佳实践
- **能力提升**: 团队数据分析能力持续提升,专业水平不断进步
</criteria>
</execution>