str_word_count函数适用于英文单词统计,支持三种模式:返回总数、单词数组或带位置的关联数组;但对中文等无空格分隔语言无效,需用正则preg_replace配合p{L}和p{N}清理标点并分割空白来粗略统计多语言文本;精确处理中文建议使用SCWS或Jieba分词扩展。

在PHP中,str__count() 函数常用于统计字符串中的单词数量。默认情况下,它主要针对英文文本设计,能识别由空格或标点分隔的字母组合为单词。但在处理(如中文、日文、阿拉伯文等)或包含复杂标点符号的文本时,该函数的表现有限,需要结合其他方法进行优化。
str_word_count() 基本用法
该函数有三种返回模式:
- 0(默认):返回单词总数
- 1:返回包含所有单词的数组
- 2:返回关联数组,键为单词起始位置,值为单词内容
$str = "Hello, welcome to PHP world!"; echo str_word_count($str); // 输出: 5 print_r(str_word_count($str, 1)); // 输出: Array ( [0] => Hello [1] => welcome [2] => to [3] => PHP [4] => world )
注意:该函数会忽略常见标点符号(如逗号、句号),但只对拉丁字母有效,无法识别中文、日文等非空格分隔语言的“单词”。
多语言支持问题与解决方案
对于中文、日文、泰文等语言,由于没有明显的单词边界(不像英文用空格分隔),str_word_count() 无法正确识别词汇。例如:
立即学习“”;
$str = "你好世界,欢迎使用PHP!"; echo str_word_count($str); // 输出: 0
这是因为 str_word_count 只识别 a-zA-Z 字符。要实现多语言单词或词语统计,需采用以下策略:
- 使用匹配Unicode文字块:通过 preg_match_all 匹配各类语言的文字单位
- 按字符或词语切分中文文本:借助第三方分词库(如 SCWS 中文分词)
- 自定义规则过滤标点:去除或忽略常见标点符号后再统计
支持多语言与忽略标点的统计方法
以下是一个增强型函数,可统计多种语言的“词”或“字符组合”,并自动忽略常见标点:
最新体验版 Stable Diffusion 2.1
101
function count_words_multilingual($str) { // 移除标点符号,保留文字字符 $clean = preg_replace('/[^p{L}p{N}s]/u', ' ', $str); // 按空白字符分割,并过滤空项 $words = preg_split('/s+/u', $clean, -1, PREG_SPLIT_NO_EMPTY); return count($words); } // 示例 $text = "Hello, 你好!مرحبا، ? 123"; echo count_words_multilingual($text); // 输出: 5
说明:
- p{L} 匹配任意语言的字母(包括中文、阿拉伯文、俄文等)
- p{N} 匹配数字
- u 修饰符启用UTF-8模式
- 先清理标点,再以空格类字符分割,模拟“单词”概念
此方法虽不能精确分词(如中文仍按单字或连续字块处理),但可用于粗略统计文本中的语言单元。
进阶建议:结合分词扩展
若需精确处理中文,推荐使用:
- SCWS(Simple Chinese Word Segmentation):专为中文设计的分词引擎,PHP 有扩展支持
- Jieba 分词(PHP移植版):基于Python Jieba 的PHP实现,支持精准模式分词
这些能将“我喜欢编程”正确切分为 [“我”, “喜欢”, “编程”],从而实现真正意义上的“词”统计。
基本上就这些。str_word_count 适合英文环境,多语言场景需依赖正则或专用分词工具来准确统计。关键是根据语言类型选择合适的方法,并合理处理标点干扰。
以上就是中str__count统计单词数_php支持与标点忽略统计方法的详细内容,更多请关注php中文网其它相关文章!
微信扫一扫打赏
支付宝扫一扫打赏
