我是不是碰到bug了,辐射4终端机初始化bug解锁没有相似度

 新博娱乐官网相信品牌的力量:嵇语心
 新博娱乐官网相信品牌的力量:嵇语心
 内并不像云都一般铺满了青石板,这儿只是简单地将泥土抹平了,被人踩久了以后变得有些硬,但是上面却布满了灰尘以及小石子。小姑娘将米拢成一堆,大部分都是灰尘和石子,只有小部分露出黄
 紧。“我是这里的主人,客人若饿了请过几天再来,你也看到了我们刚经历了一场大战,实在不好招待您,过几天一定让你吃到最美味的大餐!”王凌云答非所问道,希望能送走眼前这尊大佛!此人仅仅只是站在面前,就让人心底不由升起深深地寒意,虽然
 个门派的强大依仗。因此,林枭虽然拥有两件强大的仙器级别的法宝,但是顶多也就可以和一个神贝超星系团范围内的强大门派相比拟了,而神贝超星系团这么大的范围之内,肯定不只是有一个两
 数据。这些巨星们都有带队展示个人最强实力的机会,威少从来没有,因为他来雷霆的时候,杜兰特就在了。从某种程度上来说,威少应该感谢杜兰特。在扎克拉文登场之前,大家还很想看到的一个画面就是昔
关键词:新博娱乐官网相信品牌的力量
 新博娱乐官网相信品牌的力量:嵇语心
合作媒体推荐
看过本文的人还看过八月工资献给了中秋,九月工资献给了国庆,十月工资献给了双十一。
全新 MacBook Pro 发布以来,消费者对这款全新产品的评价不一。最多的评价估计就是针...
《轩辕剑叁:云和山的彼端》奠定了轩辕剑系列在玩家心目中举足轻重的地位,揭开了一个...
不过现在要做到让消费者无法挑刺,实在是好难好难好难~
DirecTV Now 是一个新的“网络电视直播流媒体服务”,它将于今年晚些时候正式亮相,能...
貌似目前只是发生在国外,不知道国内的朋友有没有看到扣款信息?
你有在用 Gmail 吗?
上一代 MacBook Pro 的几款翻新机型的供应量正在逐渐减少,但是我们仍然可以在别的渠...
这款跳跃游戏并非传统意义上的纯跳跃,跳跃形式上做出了一些区别,而楼层以办公环境为...
《节奏英雄》以一种相对欢乐的形式将音游与跑酷两种不同形式的游戏结合在一起。
除了欧美游戏之外,日本也是一个游戏市场当中非常重要的一个组成部分,尤其是对中国玩...
十年前,萧鼎用写意的文笔为我们描绘了一个光怪陆离、满是爱恨情仇的《诛仙》世界,而...
号称能让小白拍出有趣又有创意的短视频 App 成千上万,但这正能让你在社交圈里谈笑风...
近日,游戏开发商Creative Mobile在苹果商店中推出了其新作《线上赛车(Cyberline Rac...
自从金卡戴珊推出手游之后,明星进军手游的风潮就一发不可收拾,如今美国知名歌手Demi...
用一个小配件就让 12 英寸 New MacBook 和全新的 MacBook Pro 重新获得 MagSafe 特性...
如果你拥有一部 iPhone 7 并且经常使用传统的 3.5mm 耳机的话,你应该知道需要时刻携...
不知道是不是因为太超前,外界的吐槽似乎有点让苹果措手不及。
参与活动的两款耳机分别是PowerBeats 2无线入耳式耳机和Beats solo 2无线头戴式耳机。
除了给 iPhone 提供意外跌落等方面的保护之外,这款产品还能够避免室外气候对 iPhone ...
功能方面,i.am+ Buttons 耳机的内部配置有麦克风,可以用于打电话或者向 Siri 发出指...
有售后配件制造商报告称苹果新款笔记本电脑 MacBook Pro 可能无法跟现有的 Thunderbol...
15英寸新MacBook Pro与BreakSafe之间还存在功率问题~
打电话问了客服 没碰到我这种BUG的
注册时间 最后登录
在线时间0 小时 UID
主题帖子人气
小苹果, 积分 13, 距离下一级还需 37 积分
发表于 5&天前
用的iphone6 前几天升级IOS10&&发现关机键失灵&&就刷回了 9.35&&开机后关机键正常&&然后关机键又失灵了&&最后刷机几次 发现 只要是重新启动手机 或者还原所有设置手机&&关机键正常&&不过只要一通电话后&&关机键就会失灵&&打电话问了客服 说是他们也没碰到过 让我去授权店看看 我就又去了授权店 尼玛 更坑爹 说没办法 要觉2399*** 可以换新的&&我真是日了狗了&&希望有没有大神知道&&到底个怎么回事啊! 小弟急盼回复!
注册时间 最后登录
在线时间803 小时 UID
主题帖子人气
【80后】宝葫芦
发表于 5&天前
失灵是按压无反应还是不自主接触?不行就自己换power
威锋旗下产品
Hi~我是威威!
沪公网安备 29号 | 沪ICP备号-1
新三板上市公司威锋科技(836555)
增值电信业务经营许可证:
Powered by Discuz!终端机解锁为什么右下角没有提示错误个数?_辐射4吧_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0可签7级以上的吧50个
本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:135,982贴子:
终端机解锁为什么右下角没有提示错误个数?
是我没开,还是汉化问题,新手级别的没有看到右下角的错误字母次数
随后会放制作过程
据说关注【绝味美食吧】...
爆照吧2016年年度吧花吧...
没错没错,小楠最近换脑...
男生吧吧务组是由一群...
没错,本贴就是来说说明...
电影一旦开始在院线上映...
如果说2015年是中国电影...
图分别为鹿晗、李易峰、...
前年给店里化妆师画妆镇...
筒子们,请容我平复下此...
万圣夜(英语:Hallowee...
进货渠道多,进货总量大,货源充足,规格齐全.有经过FSC认证,来自于管理良好的森林
我也是出现这个情况,右下角没有显示相似度,而且排序也是有一点乱!!
夜晚上屌。
汉化问题,先还原英文在打现在最新版本的天邈汉化试试,我的就是这样解决了,最新版本1.7以上吧
贴吧热议榜
使用签名档&&
保存至快速回贴出现BUG!!!找图指令FindPic失效,有人碰到过吗? _ BUG反馈与功能建议 - 按键精灵论坛
腾讯微博:
软件版本:2014.03软件大小:71.2M更新时间:10-25
软件版本:3.1.5软件大小:52.1M更新时间:10-24
软件版本:1.2.3软件大小:29.2M更新时间:09-02
软件版本:1.0.1软件大小:11.1M更新时间:10-19
查看: 2619|回复: 16
找图指令会偶尔失灵,原因已被找到,上图:您所在的用户组无法下载或查看附件当图标为此状态时,找图指令FindPic就会失效,我也不知道为什么会间断性的变成这样。您所在的用户组无法下载或查看附件而当图标为正常的BMP图标显示时,找图指令FindPic运行完全正常。解决方法:把附件里的图全删,再重新添加,或者使用绝对目录调用外部文件。这种BUG什么原因出现的还不清楚,貌似没什么规律,有的时候图标就变成不可辨认的 ,有的时候就正常,有时候几个正常几个不正常,非常奇怪。希望开发人员可以重视。PS 我机器上没病毒阿,我反复查过的。
我也遇到过照图失灵的问题啊~~本来用的好好的不知道为什么过段时间什么代码都没改突然找图就失灵了……不知道和楼主是不是相同的原因啊……我一直找不到原因……直到现在都不能正常用……%同样望开发者重视啊!~!~~谢谢~~
怎么没有管理人员来解决啊??
同样问题。现在已经全部更改为在硬盘绝对路径上索引图片,这样还避免了更改了某一个图片后,要更改所有脚本的图片附件问题。
兄弟工程师01
管理人员按键论坛的管理团队专属勋章按键元老资深按键用户的尊贵荣誉勋章学有所成学有所成勋章,新手步入按键学堂的第一枚勋章小红帽对论坛提出良好建议(可向管理员申请)论坛MM按键论坛女性用户勋章兔年勋章(360天)兔年纪念勋章(360天)中秋节勋章(90天)中秋节纪念勋章按键精灵开发者4级可通过提升认证等级来升级勋章:按键15周年庆纪念勋章按键15周年庆纪念勋章(365天)
我们已经在检查这个问题
兄弟工程师01
谢谢谢谢~~加油~
兄弟工程师01
7.12.5013没有这个问题~麻烦你看一下这两个在这方面的区别然后解决一下!~
不知道为什么有时候按键会自动退出。估计是被脚本整疯了!
erdaoliu5520
盒子会员盒子会员专属勋章脚本作者商业小精灵作者绑定账号后自动赠送按键会员(季)按键会员绑定账号后自动赠送学有所成学有所成勋章,新手步入按键学堂的第一枚勋章按键精灵开发者4级可通过提升认证等级来升级勋章:
你不用那个软件就行了
:'(:'(:'(:'(:'(:'(:'(:'(:'(:'(:'(:'(:'(:'(:'(:'(:'(呵呵 学习呀;饿
我有时候多点找色也会失灵。
虎年勋章虎年纪念勋章(360天)按键会员(月)按键会员绑定账号后自动赠送发帖高手鼓励积极回复,但注意不要灌水哦学有所成学有所成勋章,新手步入按键学堂的第一枚勋章按键精灵开发者4级可通过提升认证等级来升级勋章:
按键会员(季)按键会员绑定账号后自动赠送
没碰到过 学习了
zhouxing526000
按键会员(月)按键会员绑定账号后自动赠送
我还说我刚刚做个找图找色的脚本为什么就是找不到呢
原来是这样呀
我用的是最新版本的(7.31.6258)
kkkkkkkkkkkkkkkkkkkkk
QUI设计大师QUI设计大师学有所成学有所成勋章,新手步入按键学堂的第一枚勋章按键元老资深按键用户的尊贵荣誉勋章管理人员按键论坛的管理团队专属勋章论坛GG按键论坛男性用户勋章兔年勋章(360天)兔年纪念勋章(360天)龙年勋章(360天)龙年纪念勋章(360天)
我一般关了按键再打开,然后正常
天.龙内存脚本诚招代理!详情联系本人QQ
是这样啊.我用按键精灵9+找图插件5.03写好的找图脚本.昨天一切顺利.关机过了一天再用,居然经常性的报告找不到图了(偶尔还能找到),下调了相似度也一样时灵时不灵的.我把有那个图的画面弄个截图去找,还真的是找不到了.看一看附件,那个文件确实还在郁闷................图片是找一个字,比如:"通"字.我用画图工具处理过了:大小仅比字多一圈,笔画以外的地方全部涂成白色了是不是使用绝对路径会好些啊?7100人阅读
python(9)
今天同事被告知要写一个查询商品相似度的系统,我以为事类似推荐系统一样的高大上系统,心中暗自庆幸没有被委以如此重任,不然在紧迫的时间里学习实现这套系统一定会睡眠不足的,后来同事讲解后我才知道只是一个商品名称相似度查找的小系统,说白了就是字符串相似度!
关于字符串相似度python也有很多库,比如自带的difflib库,第三方Levenshtein库等等
关于字符串相似度的原理我网上找了一篇博客看看,可惜太长了,理论知识太多,专业性太强,惭愧,我看了两行就没坚持下去,就直接用difflib库了,理由也很简单,不需要额外安装
直接上代码(不要在意为什么是卫生巾,我不是变态):
# -* coding:utf-8 -*-
import difflib
query_str = &美妆 日本 Laurier花王乐而雅F系列日用护翼卫生巾(25cm*17片)瞬吸干爽超薄棉柔&.decode(&utf-8&)
str_2 = &Lauríer 乐而雅 F系列敏感肌超长夜用护翼型卫生巾 40厘米 7片&.decode(&utf-8&)#8
str_3 = &Lauríer 乐而雅 花王S系列超薄日用护翼卫生巾 25厘米 19片&.decode(&utf-8&)#10
str_4 = &Lauríer 乐而雅 S系列 超薄瞬吸量多夜用卫生巾 30厘米 15片/包&.decode(&utf-8&)#8
str_5 = &Lauríer 乐而雅 花王F系列敏感肌超量日用护翼型卫生巾 25厘米 18片&.decode(&utf-8&)#10
print(difflib.SequenceMatcher(None, query_str, str_2).quick_ratio())
print(difflib.SequenceMatcher(None, query_str, str_3).quick_ratio())
print(difflib.SequenceMatcher(None, query_str, str_4).quick_ratio())
print(difflib.SequenceMatcher(None, query_str, str_5).quick_ratio())
quick_ratio()比 ratio() 效率高,好像
虽然这个库和函数用起来很方便,但是,仔细一看发现结果却是:
结果显示相似度最高的尽然是“Lauríer 乐而雅 花王S系列超薄日用护翼卫生巾 25厘米 19片”,明显不对啊,一个F系列,一个S系列
于是我试了Levenshtein库
import Levenshtein
print(Levenshtein.ratio(query_str,str_2))
print(Levenshtein.ratio(query_str,str_3))
print(Levenshtein.ratio(query_str,str_4))
print(Levenshtein.ratio(query_str,str_5))结果:
还是第二条相似度最高,见鬼啊,难道是程序比我更懂卫生巾,好吧,反正我对卫生巾的知识为零,比我强也不奇怪,但是作为字符串而言,怎么看都应该是最后一条相似度最高啊,于是我开始想怎么提高正确度,当然什么机器学习之类的高大上我是不懂,我只能自己想办法
第一个想法,分词,然后用分词得到的列表中的子字符串到对比字符串中看出现了几个,出现的越多我就认为它相似度越高
这时候就用到了结巴分词
# -* coding:utf-8 -*-
import jieba
import Levenshtein
import difflib
import numpy as np
#jieba.load_userdict(&dict.txt&) #可以使用自定义词典
query_str = &美妆 日本 Laurier花王乐而雅F系列日用护翼卫生巾(25cm*17片)瞬吸干爽超薄棉柔&.decode(&utf-8&)
str_2 = &Lauríer 乐而雅 F系列敏感肌超长夜用护翼型卫生巾 40厘米 7片&.decode(&utf-8&)#8
str_3 = &Lauríer 乐而雅 花王S系列超薄日用护翼卫生巾 25厘米 19片&.decode(&utf-8&)#10
str_4 = &Lauríer 乐而雅 S系列 超薄瞬吸量多夜用卫生巾 30厘米 15片/包&.decode(&utf-8&)#8
str_5 = &Lauríer 乐而雅 花王F系列敏感肌超量日用护翼型卫生巾 25厘米 18片&.decode(&utf-8&)#10
str_list=[str_2,str_3,str_4,str_5]
seg_list = list(jieba.cut(query_str.strip()))#默认精确模式
dict_data={}
sarticiple =list(seg_list)
for strs in str_list:
for sart in sarticiple:
if sart in strs:
num = num+1
dict_data[strs]=num
for k,v in dict_data.items():
print(&\n&)结果:
Lauríer 乐而雅 花王S系列超薄日用护翼卫生巾 25厘米 19片
Lauríer 乐而雅 花王F系列敏感肌超量日用护翼型卫生巾 25厘米 18片
Lauríer 乐而雅 S系列 超薄瞬吸量多夜用卫生巾 30厘米 15片/包
Lauríer 乐而雅 F系列敏感肌超长夜用护翼型卫生巾 40厘米 7片
结果发现相似度最高的S系列也是最多10个匹配,这样可以推断出相似度算法基本也有一部分是像我这样分词匹配,看匹配的多少,难道这就是字符串相似度其中一部分算法?
这样还是没有提高准确度,那该怎么办呢,我在想原始字符串和对比字符串的两个长度会不会有什么关联呢,毕竟两个相同的字符串长度一定一样啊,那相似的字符串是不是长度也就越接近呢,那我可以用原始字符串减去(原始字符串和比较字符串的中位数)然后取得绝对值得到一个值用来调节相似度算法所得到的偏差值,因为我看difflib给出的值是在0.0x左右,所以我打算给调节值再乘以0.017,让它的影响力稍微小一点,不至于大的夸张,对于长度相等的我直接给0这个调节值,不要问为什么,我瞎给的
# -* coding:utf-8 -*-
import jieba
# import Levenshtein
import difflib
import numpy as np
#jieba.load_userdict(&dict.txt&)
class StrSimilarity():
    def __init__(self,word):
        self.word = word
    #Compared函数,参数str_list是对比字符串列表
    #返回原始字符串分词后和对比字符串的匹配次数,返回一个字典
    def Compared(self,str_list):
        dict_data={}
        sarticiple =list(jieba.cut(self.word.strip()))
        for strs in str_list:
            num=0
            for sart in sarticiple:
                if sart in strs:
                    num = num+1
                else:
                    num = num
            dict_data[strs]=num
        return dict_data
    #NumChecks函数,参数dict_data是原始字符串分词后和对比字符串的匹配次数的字典,也就是Compared函数的返回值
    #返回出现次数最高的两个,返回一个字典
    def NumChecks(self,dict_data):
        list_data = sorted(dict_data.iteritems(), key=lambda asd:asd[1], reverse=True)
        length = len(list_data)
        json_data = {}
        if length&=2:
            datas = list_data[:2]
        else:
            datas = list_data[:length]
        for data in datas:
            json_data[data[0]]=data[1]
        return json_data
    #MMedian函数,参数dict_data是出现次数最高的两个对比字符串的字典,也就是NumChecks函数的返回值
    #返回对比字符串和调节值的字典
    def MMedian(self,dict_data):
        median_list={}
        length = len(self.word)
        for k,v in dict_data.items():
            num = np.median([len(k),length])
            if abs(length-num) !=0 :
                # xx = (1.0/(abs(length-num)))*0.1
                xx = (abs(length - num)) * 0.017
            else:
                xx = 0
            median_list[k] = xx
        return median_list
    #Appear函数,参数dict_data是对比字符串和调节值的字典,也就是MMedian函数的返回值
    #返回最相似的字符串
    def Appear(self,dict_data):
        json_data={}
        for k,v in dict_data.items():
            fraction = difflib.SequenceMatcher(None, self.word, k).quick_ratio()-v
            # fraction = difflib.SequenceMatcher(None, self.word, k).quick_ratio() + v
            # print(fraction)
            # print(difflib.SequenceMatcher(None, self.word, k).quick_ratio())
            # print(&++++&)
            json_data[k]=fraction
        tulp_data = sorted(json_data.iteritems(), key=lambda asd:asd[1], reverse=True)
        return tulp_data[0][0]
def main():
    query_str = &美妆 日本 Laurier花王乐而雅F系列日用护翼卫生巾(25cm*17片)瞬吸干爽超薄棉柔&.decode(&utf-8&)
    str_2 = &Lauríer 乐而雅 F系列敏感肌超长夜用护翼型卫生巾 40厘米 7片&.decode(&utf-8&)#8
    str_3 = &Lauríer 乐而雅 花王S系列超薄日用护翼卫生巾 25厘米 19片&.decode(&utf-8&)#10
    str_4 = &Lauríer 乐而雅 S系列 超薄瞬吸量多夜用卫生巾 30厘米 15片/包&.decode(&utf-8&)#8
    str_5 = &Lauríer 乐而雅 花王F系列敏感肌超量日用护翼型卫生巾 25厘米 18片&.decode(&utf-8&)#10
    str_list=[str_2,str_3,str_4,str_5]
    # query_str = &美妆 韩国 SNP燕窝面膜 深层补水保湿提亮美白水库 25ml*10 包邮&.decode(&utf-8&)
    # str_6 = &LEADERS 丽得姿 领先润美强化补水面膜 25毫升/片 10片/盒&.decode(&utf-8&)  #
    # str_7 = &SNP 海洋燕窝高倍补水美白面膜 25毫升/片10片装&.decode(&utf-8&)  #
    # str_8 = &SNP 钻石美白提亮安瓶精华面膜 25毫升/片 10片装&.decode(&utf-8&)  #
    # str_list = [str_6, str_7, str_8]
    # query_str = &美妆 丽得姿(Leaders)水库面膜超强补水(25ml*10片)&.decode(&utf-8&)
    # str_2 = &LEADERS 丽得姿 领先润美强化补水面膜 25毫升/片 10片/盒&.decode(&utf-8&)
    # str_3 = &LEADERS 丽得姿 美帝优超强补水面膜 25毫升/片 10片装&.decode(&utf-8&)
    # str_4 = &2件装 | 丽得姿 美帝优蜗牛原液面膜 10片装+领先润美强化补水面膜 10片装&.decode(&utf-8&)
    # str_5 = &LEADERS 丽得姿 领先润美祛痘净肤修复面膜 25毫升/片 10片装&.decode(&utf-8&)
    # str_list = [str_2,str_3,str_4,str_5]
    ss = StrSimilarity(query_str)
    list_data = ss.Compared(str_list)
    num = ss.NumChecks(list_data)
    mmedian = ss.MMedian(num)
    print(ss.Appear(mmedian))
if __name__==&__main__&:
    main()
Lauríer 乐而雅 花王F系列敏感肌超量日用护翼型卫生巾 25厘米 18片
整个代码可能会有bug,因为没有时间测试而且没有任何异常捕捉(这个习惯很差,所以我一直是个渣渣),从构思到写好博客花了我两个多小时,已经快三点了,不想测试,不想测试,不想测试
如果使用以上代码碰到bug请告诉我,互相进步,如果觉得我的瞎想的求相似度方法有问题,不合理,请一定要告诉我,因为我真的不知道相似度的算法原理,更加需要相互学习
今天换了一个思路写了一个,也改用了Levenshtein库,不过效果和上面的差不多
# -* coding:utf-8 -*-
import jieba
import Levenshtein
import difflib
import numpy as np
jieba.load_userdict(&dict.txt&)
class StrSimilarity():
    def __init__(self,word):
        # word = word.replace(&/&, & &).replace(&*&.decode(&utf-8&), & &)
        # word = word.replace(&(&.decode(&utf-8&), & &).replace(&)&.decode(&utf-8&), & &).replace(&、&.decode(&utf-8&),& &)
        # word = word.replace(&cm&, & &).replace(&ml&, & &).replace(&毫升&.decode(&utf-8&), & &).replace(&片&.decode(&utf-8&), & &)
        # word = word.replace(&克&.decode(&utf-8&), &&).replace(&杯&.decode(&utf-8&), &&).replace(&袋&.decode(&utf-8&), &&).replace(&g&, &&)
        self.word = word
    #Compared函数,参数str_list是对比字符串列表
    #返回原始字符串分词后和对比字符串的匹配次数,返回一个字典
    def Compared(self,str_list):
        dict_data={}
        sarticiple =list(jieba.cut(self.word.strip()))
        for strs in str_list:
            num=0
            for sart in sarticiple:
                if sart.strip():
                    # print(sart)
                    if sart in strs:
                        if re.match('^[0-9a-zA-Z]+.*', sart):
                            num = num+1
                        else:
                            num+num
                        num = num+1
                    else:
                        num = num
                else:
                    num = num
            dict_data[strs]=num
        return dict_data
    #NumChecks函数,参数dict_data是原始字符串分词后和对比字符串的匹配次数的字典,也就是Compared函数的返回值
    #返回出现次数最高的两个并给一个调节值,匹配度越高分数越低(为了之后相似度减去用),返回一个字典
    def NumChecks(self,dict_data):
        list_data = sorted(dict_data.iteritems(), key=lambda asd:asd[1], reverse=True)
        length = len(list_data)
        json_data = {}
        if length&=2:
            datas = list_data[:2]
        else:
            datas = list_data[:length]
        for data in datas:
            if data[1] != 0:
                json_data[data[0]]=(1.0/(data[1]))*0.01
            else:
                json_data[data[0]] =0
        return json_data
    #MMedian函数,参数dict_data是出现次数最高的两个对比字符串的字典,也就是NumChecks函数的返回值
    #返回对比字符串和调节值的字典,用原始字符串长度减去两个对比字符串长度的中位数相减
    def MMedian(self,dict_data):
        median_list={}
        length = len(self.word)
        for k,v in dict_data.items():
            num = np.median([len(k),length])
            if abs(length-num) !=0 :
                # xx = (1.0/(abs(length-num)))*0.1
                xx = (abs(length - num)) * 0.017
            else:
                xx = 0
            median_list[k] = xx
        return median_list
    #Appear函数,参数dict_data是对比字符串和调节值的字典,也就是MMedian函数的返回值
    #返回最相似的字符串
    def Appear(self,dict_data):
        json_data={}
        for k,v in dict_data.items():
            # fraction = difflib.SequenceMatcher(None, self.word, k).quick_ratio()-v
            fraction = Levenshtein.ratio( self.word,k) - v
            # print(v)
            # print(fraction)
            # print(difflib.SequenceMatcher(None, self.word, k).quick_ratio())
            # print(&++++&)
            json_data[k]=fraction
        tulp_data = sorted(json_data.iteritems(), key=lambda asd:asd[1], reverse=True)
        return tulp_data[0][0]
def main():
    query_str = &美妆 日本 Laurier花王乐而雅F系列日用护翼卫生巾(25cm*17片)瞬吸干爽超薄棉柔&.decode(&utf-8&)
    str_2 = &Lauríer 乐而雅 F系列敏感肌超长夜用护翼型卫生巾 40厘米 7片&.decode(&utf-8&)#8
    str_3 = &Lauríer 乐而雅 花王S系列超薄日用护翼卫生巾 25厘米 19片&.decode(&utf-8&)#10
    str_4 = &Lauríer 乐而雅 S系列 超薄瞬吸量多夜用卫生巾 30厘米 15片/包&.decode(&utf-8&)#8
    str_5 = &Lauríer 乐而雅 花王F系列敏感肌超量日用护翼型卫生巾 25厘米 18片&.decode(&utf-8&)#10
    str_list=[str_2,str_3,str_4,str_5]
    # query_str = &美妆 韩国 SNP燕窝面膜 深层补水保湿提亮美白水库 25ml*10 包邮&.decode(&utf-8&)
    # str_6 = &LEADERS 丽得姿 领先润美强化补水面膜 25毫升/片 10片/盒&.decode(&utf-8&)  #
    # str_7 = &SNP 海洋燕窝高倍补水美白面膜 25毫升/片10片装&.decode(&utf-8&)  #
    # str_8 = &SNP 钻石美白提亮安瓶精华面膜 25毫升/片 10片装&.decode(&utf-8&)  #
    # str_list = [str_6, str_7, str_8]
    ss = StrSimilarity(query_str)
    list_data = ss.Compared(str_list)
    num = ss.NumChecks(list_data)
    mmedian = ss.MMedian(num)
    print(ss.Appear(mmedian))
if __name__==&__main__&:
    main()结果:
Lauríer 乐而雅 花王F系列敏感肌超量日用护翼型卫生巾 25厘米 18片
不管我怎么改,其实正确率只能提高很小的一点,很大的权重还在于两个字符串相似度库的分数
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:252379次
积分:4001
积分:4001
排名:第5817名
原创:51篇
(1)(4)(4)(7)(14)(1)(1)(1)(4)(8)(6)

我要回帖

更多关于 辐射4终端机bugmod 的文章

 

随机推荐