D3的兼容性视图不知道大家有没有注意

Sina Visitor System蜂鸟手机端
&器材讨论区
&论坛服务区
适马351.4用在尼康D3上会不会跑焦
想入35定焦,原厂太贵看了适马351.4又怕跑焦!
IP地址:112.96.188.102
其实是看尼康的d3的对焦输出的电压大小。比如佳能61点对焦以前的对焦系统会经常跑,如,60d,70d,5d2,7d,6d.之后61点以上5d3,5ds,1dx,80d会好一些,不知d3对焦系统是如何?
IP地址:118.207.74.79
尼康D3对焦点51点对焦,搞不懂是不是对焦多点就不会跑焦
2楼HUNTERH
其实是看尼康的d3的对焦输出的电压大小。比如佳能61点对焦以前的对焦系统会经常跑,如,60d,70d,5d2,7d,6d.之后61点以上5d3,5ds,1dx,80d会好一些,不知d3对焦系统是如何?
IP地址:112.96.188.102
没有试过这样的搭配
不过我感觉跑焦的可能性很小
我以前S35在5D2上面都不会跑焦
D3的对焦系统非常厉害
就算是大光圈镜头远距离 逆光 都很难跑焦
知名摄影师 微博 文太大叔
微信 wentaidashu
IP地址:116.228.201.138
另外这个问题要看具体个案的
网友回答跑焦 也许自己买到不跑焦
网友回答不跑焦 也许自己倒霉就跑焦
最好当场试试
知名摄影师 微博 文太大叔
微信 wentaidashu
IP地址:116.228.201.138
我发现有的朋友对跑焦和对焦不实、抖动(实像松了)混淆了,常常发现发上来的图片根本就没有对实的所谓焦点。
而错误的认为;镜头、相机跑焦了。
IP地址:116.233.121.67
文太版主,用你的D3S试试看看如何!
IP地址:112.96.188.102
D3s的对焦应该是很牛逼的吧
在没有亚亚的日子里,眼前一片灰暗~在有亚亚陪伴的岁月里,就是我最最美好的纯真年代!
IP地址:114.92.247.143
D3-台减11
IP地址:112.42.73.132
D3太老了,不知道有没有兼容性问题
IP地址:110.72.89.185
5 : 绝对精彩
4 : 值得收藏
0标签限制6个
0图片最多能上传40张
0宽度不小于640px,高度不小于320px
0正在发帖请稍候
热门主题:
微信请扫二维码
0广告、垃圾营销信息
0淫秽、色情
0虚假不属实的信息
0盗用他人图片
0与本版块主题无关的内容
0发布广告信息(新ID建议永禁)
0发布色情内容
0发布他人隐私信息
0不和谐言论或人身攻击
0发布与本版块主题无关的内容
0盗用他人图片等版权问题
0主题、回复灌水
0言语攻击版主行为
0发布反动言论
0广告、垃圾营销信息
0淫秽、色情
0不友好评论、人身攻击
0虚假不属实的信息
0协助楼主删除
0与本版块主题无关的内容
0盗用他人图片
0广告、垃圾营销信息
0淫秽、色情
0不友好评论、人身攻击
0虚假不属实的信息
0协助楼主删除
0与本版块主题无关的内容
0盗用他人图片
0发布广告信息(新ID建议永禁)
0发布色情内容
0发布他人隐私信息
0不和谐言论或人身攻击
0发布与本版块主题无关的内容
0盗用他人图片等版权问题
0主题、回复灌水
0言语攻击版主行为
0发布反动言论
0我是楼主,我要删帖
已选择 1 个帖子,只能在您有权限的版块之间操作。
原板块:单反相机和镜头
目标板块:
请选择目标板块
135画幅相机系统
单反相机和镜头
旁轴及其他相机和镜头
索尼α影像Club
测试小版块
村里摄影版
鸟类摄影佳作欣赏
中、大画幅相机系统
器材交流区
无反相机和镜头
鸟类摄影作品交流
意见问题反馈区
固定镜头相机
鸟类摄影技术探讨
鸟类摄影拍鸟地图
呼和浩特版
常春藤俱乐部
器材购买及维修
新摄会部落
建立摄影思维
乌鲁木齐版
港澳台及海外站
主题摄影交流区
右视觉摄影
唯美影像论坛
西南人文摄影俱乐部
新朋老友社区
品牌交流区
3D立体摄影
论坛管理区
商家服务区
地方论坛交流区
自建论坛区
既往论坛回顾
0是否确认删除本帖?
好友列表 (2548)
0是否确认删除此好友?
0查看更多消息
浏览帖子奖励 +0.05个蜂鸟币聊聊Docker 1.9的新网络特性
Docker在1.9版本中引入了一整套的自定义网络命令和跨主机网络支持。这是libnetwork项目从Docker的主仓库抽离之后的一次重大变化。不论你是否已经注意到了,Docker的网络新特性即将对用户的习惯产生十分明显的改变。
libnetwork和Docker网络
libnetwork项目从lincontainer和Docker代码的分离早在Docker 1.7版本就已经完成了(从Docker 1.6版本的网络代码中抽离)。在此之后,容器的网络接口就成为了一个个可替换的插件模块。由于这次变化进行的十分平顺,作为Docker的使用者几乎不会感觉到其中的差异,然而这个改变为接下来的一系列扩展埋下了很好的伏笔。
概括来说,libnetwork所做的最核心事情是定义了一组标准的容器网络模型(Container Network Model,简称CNM),只要符合这个模型的网络接口就能被用于容器之间通信,而通信的过程和细节可以完全由网络接口来实现。
Docker的容器网络模型最初是由思科公司员工Erik提出的设想,比较有趣的是Erik本人并不是Docker和libnetwork代码的直接贡献者。最初Erik只是为了扩展Docker网络方面的能力,设计了一个Docker网桥的扩展原型,并将这个思路反馈给了Docker社区。然而他的大胆设想得到了Docker团队的认同,并在与Docker的其他合作伙伴广泛讨论之后,逐渐形成了libnetwork的雏形。
在这个网络模型中定义了三个的术语:Sandbox、Endpoint和Network。
如上图所示,它们分别是容器通信中『容器网络环境』、『容器虚拟网卡』和『主机虚拟网卡/网桥』的抽象。
Sandbox:对应一个容器中的网络环境,包括相应的网卡配置、路由表、DNS配置等。CNM很形象的将它表示为网络的『沙盒』,因为这样的网络环境是随着容器的创建而创建,又随着容器销毁而不复存在的; Endpoint:实际上就是一个容器中的虚拟网卡,在容器中会显示为eth0、eth1依次类推; Network:指的是一个能够相互通信的容器网络,加入了同一个网络的容器直接可以直接通过对方的名字相互连接。它的实体本质上是主机上的虚拟网卡或网桥。
这种抽象为Docker的1.7版本带来了十分平滑的过渡,除了文档中的三种经典『网络模式』被换成了『网络插件』,用户几乎感觉不到使用起来的差异。
直到1.9版本的到来,Docker终于将网络的控制能力完全开放给了终端用户,并因此改变了连接两个容器通信的操作方式(当然,Docker为兼容性做足了功夫,所以即便你不知道下面所有的这些差异点,仍然丝毫不会影响继续用过去的方式使用Docker)。
Docker 1.9中网络相关的变化集中体现在新的『docker network』命令上。
$ docker network –help
Usage: docker network [OPTIONS]COMMAND [OPTIONS]
ls List all networks
rm Remove a network
create Create a network
connect Connect container to anetwork
disconnect Disconnect container from anetwork
inspect Display detailed networkinformation
简单介绍一下这些命令的作用。
1、docker network ls
这个命令用于列出所有当前主机上或Swarm集群上的网络:
$ docker network ls
NETWORK ID NAME DRIVER
6e6edc3eee42 bridge bridge
1caa9a605df7 none null
d34a6dec29d3 host host
在默认情况下会看到三个网络,它们是Docker Deamon进程创建的。它们实际上分别对应了Docker过去的三种『网络模式』:
bridge:容器使用独立网络Namespace,并连接到docker0虚拟网卡(默认模式) none:容器没有任何网卡,适合不需要与外部通过网络通信的容器 host:容器与主机共享网络Namespace,拥有与主机相同的网络设备
在引入libnetwork后,它们不再是固定的『网络模式』了,而只是三种不同『网络插件』的实体。说它们是实体,是因为现在用户可以利用Docker的网络命令创建更多与默认网络相似的网络,每一个都是特定类型网络插件的实体。
02、docker network create / docker network rm
这两个命令用于新建或删除一个容器网络,创建时可以用『–driver』参数使用的网络插件,例如:
$ docker network create –driver=bridge br0
bac2f0ba7c80016eabdbceabd6dc4ef9e54
现在这个主机上有了一个新的bridge类型的Docker网络:
$ docker network ls
NETWORK ID NAME DRIVER
ba br0 bridge
Docker容器可以在创建时通过『–net』参数指定所使用的网络,连接到同一个网络的容器可以直接相互通信。
当一个容器网络不再需要时,可以将它删除:
$ docker network rm br0
03、docker network connect / docker network disconnect
这两个命令用于动态的将容器添加进一个已有网络,或将容器从网络中移除。为了比较清楚的说明这一点,我们来看一个例子。
参照前面的libnetwork容器网络模型示意图中的情形创建两个网络:
$ docker network create –driver=bridge frontend
$ docker network create –driver=bridge backend
然后运行三个容器,让第一个容器接入frontend网络,第二个容器同时接入两个网络,三个容器只接入backend网络。首先用『–net』参数可以很容易创建出第一和第三个容器:
$ docker run -td –name ins01 –net frontendindex.alauda.cn/library/busybox
$ docker run -td –name ins03 –net backendindex.alauda.cn/library/busybox
如何创建一个同时加入两个网络的容器呢?由于创建容器时的『–net』参数只能指定一个网络名称,因此需要在创建过后再用docker network connect命令添加另一个网络:
$ docker run -td –name ins02 –net frontendindex.alauda.cn/library/busybox
$ docker network connect backend ins02
现在通过ping命令测试一下这几个容器之间的连通性:
$ docker exec -it ins01 ping ins02
$ docker exec -it ins01 ping ins03
找不到名称为ins03的容器
$ docker exec -it ins02 ping ins01
$ docker exec -it ins02 ping ins03
$ docker exec -it ins03 ping ins01
找不到名称为ins01的容器
$ docker exec -it ins03 ping ins02
这个结果也证实了在相同网络中的两个容器可以直接使用名称相互找到对方,而在不同网络中的容器直接是不能够直接通信的。此时还可以通过docker networkdisconnect动态的将指定容器从指定的网络中移除:
$ docker network disconnect backend ins02
$ docker exec -it ins02 ping ins03
找不到名称为ins03的容器
可见,将ins02容器实例从backend网络中移除后,它就不能直接连通ins03容器实例了。
04、docker network inspect
最后这个命令可以用来显示指定容器网络的信息,以及所有连接到这个网络中的容器列表:
$ docker network inspect bridge
“Name”:”bridge”,
“Id”: “6e6edc3eee41cfd76db3a6dc2c853a3”,
“Scope”: “local”,
“Driver”:”bridge”,
“IPAM”: {
“Driver”:”default”,
“Config”: [{“Subnet”: “172.17.0.0/16”}]
“Containers”: {
“3d7af6ec8c138d31af6fc6edf274515ceca633a80773”:{
“EndpointID”:”0751ceac4cce72cc11edfc1ed411b9e910a8b52fdc05eb″,
“MacAddress”:”02:42:ac:11:00:02″,
“IPv4Address”: “172.17.0.2/16”,
“IPv6Address”:””
值得指出的是,同一主机上的每个不同网络分别拥有不同的网络地址段,因此同时属于多个网络的容器会有多个虚拟网卡和多个IP地址。
由此可以看出,libnetwork带来的最直观变化实际上是:docker0不再是唯一的容器网络了,用户可以创建任意多个与docker0相似的网络来隔离容器之间的通信。然而,要仔细来说,用户自定义的网络和默认网络还是有不一样的地方。
默认的三个网络是不能被删除的,而用户自定义的网络可以用『docker networkrm』命令删掉; 连接到默认的bridge网络连接的容器需要明确的在启动时使用『–link』参数相互指定,才能在容器里使用容器名称连接到对方。而连接到自定义网络的容器,不需要任何配置就可以直接使用容器名连接到任何一个属于同一网络中的容器。这样的设计即方便了容器之间进行通信,又能够有效限制通信范围,增加网络安全性;在Docker 1.9文档中已经明确指出, 不再推荐容器使用默认的bridge网卡,它的存在仅仅是为了兼容早期设计。而容器间的『–link』通信方式也已经被标记为『过时的』功能,并可能会在将来的某个版本中被彻底移除。Docker的内置Overlay网络
内置跨主机的网络通信一直是Docker备受期待的功能,在1.9版本之前,社区中就已经有许多第三方的工具或方法尝试解决这个问题,例如Macvlan、Pipework、Flannel、Weave等。虽然这些方案在实现细节上存在很多差异,但其思路无非分为两种:二层VLAN网络和Overlay网络。
简单来说,二层VLAN网络的解决跨主机通信的思路是把原先的网络架构改造为互通的大二层网络,通过特定网络设备直接路由,实现容器点到点的之间通信。这种方案在传输效率上比Overlay网络占优,然而它也存在一些固有的问题。
这种方法需要二层网络设备支持,通用性和灵活性不如后者;由于通常交换机可用的VLAN数量都在4000个左右,这会对容器集群规模造成限制,远远不能满足公有云或大型私有云的部署需求;大型数据中心部署VLAN,会导致任何一个VLAN的广播数据会在整个数据中心内泛滥,大量消耗网络带宽,带来维护的困难。
相比之下,Overlay网络是指在不改变现有网络基础设施的前提下,通过某种约定通信协议,把二层报文封装在IP报文之上的新的数据格式。这样不但能够充分利用成熟的IP路由协议进程数据分发,而且在Overlay技术中采用扩展的隔离标识位数,能够突破VLAN的4000数量限制,支持高达16M的用户,并在必要时可将广播流量转化为组播流量,避免广播数据泛滥。因此,Overlay网络实际上是目前最主流的容器跨节点数据传输和路由方案。
在Docker的1.9中版本中正式加入了官方支持的跨节点通信解决方案,而这种内置的跨节点通信技术正是使用了Overlay网络的方法。
说到Overlay网络,许多人的第一反应便是:低效,这种认识其实是带有偏见的。Overlay网络的实现方式可以有许多种,其中IETF(国际互联网工程任务组)制定了三种Overlay的实现标准,分别是:虚拟可扩展LAN(VXLAN)、采用通用路由封装的网络虚拟化(NVGRE)和无状态传输协议(SST),其中以VXLAN的支持厂商最为雄厚,可以说是Overlay网络的事实标准。
而在这三种标准以外还有许多不成标准的Overlay通信协议,例如Weave、Flannel、Calico等工具都包含了一套自定义的Overlay网络协议(Flannel也支持VXLAN模式),这些自定义的网络协议的通信效率远远低于IETF的标准协议[5],但由于他们使用起来十分方便,一直被广泛的采用而造成了大家普遍认为Overlay网络效率低下的印象。然而,根据网上的一些测试数据来看,采用VXLAN的网络的传输速率与二层VLAN网络是基本相当的。
解除了这些顾虑后,一个好消息是,Docker内置的Overlay网络是采用IETF标准的VXLAN方式,并且是VXLAN中普遍认为最适合大规模的云计算虚拟化环境的SDN Controller模式。
到目前为止一切都是那么美好,大家是不是想动手尝试一下了呢?
且慢,待我先稍泼些冷水。在许多的报道中只是简单的提到,这一特性的关键就是Docker新增的『overlay』类型网卡,只需要用户用『docker networkcreate』命令创建网卡时指定『–driver=overlay』参数就可以。看起来就像这样:
$ docker network create –driver=overlay ovr0
但现实的情况是,直到目前为止,Docker的Overlay网络功能与其Swarm集群是紧密整合的,因此为了使用Docker的内置跨节点通信功能,最简单的方式就是采纳Swarm作为集群的解决方案。这也是为什么Docker 1.9会与Swarm1.0同时发布,并标志着Swarm已经Product-Ready。此外,还有一些附加的条件:
所有Swarm节点的Linux系统内核版本不低于3.16需要一个额外的配置存储服务,例如Consul、Etcd或ZooKeeper所有的节点都能够正常连接到配置存储服务的IP和端口所有节点运行的Docker后台进程需要使用『–cluster-store』和『-–cluster-advertise』参数指定所使用的配置存储服务地址
我们先不解释为什么必须使用Swarm,稍后大家很快就会发现原因。假设上述条件的1和3都是满足的,接下来就需要建立一个外部配置存储服务,为了简便起见暂不考虑高可用性,可以采用单点的服务。
以Consul为例,用Docker来启动它,考虑到国内访问Docker Hub比较慢,建议采用『灵雀云』的Docker镜像仓库:
$ docker run -d \
–restart=”always” \
–publish=”″ \
–hostname=”consul” \
–name=”consul” \
index.alauda.cn/sequenceiq/consul:v0.5.0-v6 -server -bootstrap
如果使用Etcd,可以用下面的命令启动容器,同样可以用『灵雀云』的Docker镜像仓库:
$ docker run -d \
–restart=”always” \
–publish=”″ \
–name=”etcd” \
index.alauda.cn/googlecontainer/etcd:2.2.1 etcd \
-name etcd0-advertise-client-urls http://&Etcd所在主机IP&:2379 \
-listen-client-urlshttp://0.0.0.0:2379 -initial-cluster-state new
然后修改每个主机Docker后台进程启动脚本里的『DOCKER_OPTS』变量内容,如果是Consul加上下面这两项:
–cluster-store=consul://&Consul所在主机IP&:8500 -–cluster-advertise=eth1:2376
如果是Etcd则加上:
–cluster-store=etcd://&Etcd所在主机IP&:2379/store-–cluster-advertise=eth1:2376
然后重启每个主机的Docker后台进程,一切准备就绪。当然,由于修改和重启Docker后台进程本身是比较麻烦的事情,如果用户业务可能会使用到跨节点网络通信,建议在架设Docker集群的时候就事先准备配置存储服务,然后直接在添加主机节点时就可以将相应参数加入到Docker的启动配置中了。
至于配置存储服务的运行位置,通常建议是与运行业务容器的节点分开,使用独立的服务节点,这样才能确保所有运行业务容器的节点是无状态的,可以被平等的调度和分配运算任务。
接下来到了创建Overlay网络的时候,问题来了,我们要建的这个网络是横跨所有节点的,也就是说在每个节点都应该有一个名称、ID和属性完全一致的网络,它们之间还要相互认可对方为自己在不同节点的副本。如何实现这种效果呢?目前的Docker network命令还无法做到,因此只能借助于Swarm。
构建Swarm集群的方法在这里不打算展开细说,只演示一下操作命令。为了简便起见,我们使用Swarm官方的公有token服务作为节点组网信息的存储位置,首先在任意节点上通过以下命令获取一个token:
$ docker run –rm swarm create 6856663cdefdecb7e1de38e8
任意选择其中一个节点作为集群的Master节点,并在主机上运行Swarm Master服务:
$ docker run -d -p
swarm manage token://&前面获得的token字符串&
在其他作为Docker业务容器运行的节点上运行Swarm Agent服务:
$ docker run -d swarm join –addr=&当前主机IP&:2375token://&前面获得的token字符串&
这样便获得了一个Swarm的集群。当然,我们也可以利用前面已经建立的Consul或Etcd服务替代官方的token服务,只需稍微修改启动参数即可,具体细节可以参考Swarm的文档。
Swarm提供与Docker服务完全兼容的API,因此可以直接使用docker命令进行操作。注意上面命令中创建Master服务时指定的外部端口号3375,它就是用来连接Swarm服务的地址。现在我们就可以创建一个Overlay类型的网络了:
$ docker -H tcp://&Master节点地址&:3375network create –driver=overlay ovr0
这个命令被发送给了Swarm服务,Swarm会在所有Agent节点上添加一个属性完全相同的Overlay类型网络。也就是说,现在任意一个Agent节点上执行『docker networkls』命令都能够看到它,并且使用『docker network inspect』命令查看它的信息时,将在每个节点上获得完全相同的内容。通过Docker连接到Swarm集群执行network ls命令就可以看到整个集群网络的全貌:
$ docker -H tcp://&Master节点地址&:3375network ls
$ docker network ls
NETWORK ID NAME DRIVER
445ede8764da swarm-agent-1/bridge bridge
2b9c1c73cc5f swarm-agent-2/bridge bridge
90ff ovr0 overlay
在Swarm的网络里面,每个网络的名字都会加上节点名称作为前缀,但Overlay类型的网络是没有这个前缀的,这也说明了这类网络是被所有节点共有的。
下面我们在Swarm中创建两个连接到Overlay网络的容器,并用Swarm的过滤器限制这两个容器分别运行在不同的节点上。
$ docker -H tcp://&Master节点地址&:3375 run-td –name ins01 –net ovr0 –env=”constraint:node==swarm-agent-1″index.alauda.cn/library/busybox
$ docker -H tcp://&Master节点地址&:3375 run-td –name ins02 –net ovr0 –env=”constraint:node==swarm-agent-2″index.alauda.cn/library/busybox
然后从ins01容器尝试连接ins02容器:
$ docker -H tcp://&Master节点地址&:3375 exec-it ins01 ping ins02
至此,我们就已经在Docker的Overlay网络上成功的进行了跨节点的数据通信。
想简单点?用灵雀云吧
不知大家发现了么有,不论是过去的Pipework、Flannel、Weave方式,还是Docker 1.9内置的Overlay网络,尽管所有的这些方案都宣传自己足够的简单易用,构建跨节点通信的容器依然是一件不得已而为之的事情。
之所以这样说,是因为在现实应用场景中往往由于服务直接错综复杂的连接,需要相互通信的容器数量远远的超过的单个主机节点所能够承受的容量,这才使得我们不得不在现有的基础实施上自行维护一套服务机制,将容器间的通信扩展到多个节点上。但维护这些跨节点通信基础设施本身是不为企业带来实质的业务价值的!
在当下,云基础设施迅速发展的大环境已经为许多企业创造了弯道超车的机遇:通过采用云平台,企业省去了自己购置和组建大规模网络和计算资源以及管理庞大运维团队的投入,只需专注于业务本身的创意和设计就能收获巨大的利润。与此同时,容器作为新一代的服务部署和调度工具被越来越广泛的采用,而解决容器通信问题本不应该成为企业需要关注的要点,现在却成为扩大服务规模时横在眼前无法忽视的阻碍。
灵雀云作为容器云服务平台中的佼佼者,为容器的使用者屏蔽了容器运行节点的细节,使得用户完全感觉不到跨节点通信所带来的差异。那么如何在灵雀云中运行两个容器,并使之相互通信呢?
首先安装灵雀的alauda命令行工具,使用『alauda login』命令登陆。
$ alauda login
Username: fanlin
Password: *灵雀密码*
[alauda] Successfully logged in as fanlin.
[alauda] OK
然后运行两个容器,前者运行Nginx服务,后者用于测试与前者的连接。
$ alauda service run –publish=80/http web index.alauda.cn/library/nginx:1.9.9
[alauda] Creating and starting service “web”
[alauda] OK
$ alauda service run client index.alauda.cn/library/busybox:latest
[alauda] Creating and starting service “client”
[alauda] OK
尝试从client容器实例访问web容器实例提供的HTTP服务,注意灵雀云自动生成的地址格式。
$ alauda service exec client wget -O- http://web-fanlin.myalauda.cn
Password for fanlin@exec.alauda.cn:
&title&Welcome to nginx!&/title&
可以看到返回了Nginx默认首页的内容,证明这两个容器之间可以连通。除了建立单个的任务,还可以使用『alauda compose』命令快速建立多个容器组成的服务集合。
那么着两个容器分别是运行在哪个主机上的?管他呢,灵雀云已经将这些底层细节统统藏起来了,所以只管往云上继续创建更多的服务吧,再也不用担心主机资源耗尽,面对跨节点怎么通信的问题啦。
作者简介:林帆,ThoughtWorks公司软件工程师及DevOps咨询师,具有丰富的持续交付和服务器运维自动化实践经验,专注于DevOps和容器技术领域。在InfoQ、CSDN网站和《程序员》杂志上发表有多篇相关领域文章,著有《CoreOS实践之路》一书。
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点自己动手,其乐无穷 篇八:DDR3再战三年:BIOSTAR 映泰 H110md Pro 主板 魔改 ...
我的图书馆
自己动手,其乐无穷 篇八:DDR3再战三年:BIOSTAR 映泰 H110md Pro 主板 魔改 ...
去年打算升级配置结果因为众所周知的原因搁置,妹想到18年初竟然迎来转机,先是8100散片暴跌,跌破600,几乎同时爆出八代酷睿8100貌似7500的马甲板,连里面ddr3控制器都没抹掉,魔改bios以后可以上110主板,而市面上流出的支持d3的110妖板无数。对于手头只有d3内存的我来说,这种应该是目前最经济的升级方式,坐等今后内存降价,分分钟无缝衔接300系列主板,可攻可守简直呵呵呵。目前某宝上千元左右的主流套装有寨板美可可,华硕的h110 d3和映泰h110md pro d3版,因为之前的映泰板子用了快10年,应该质量还可以吧,美可可实在太山寨没听说过,以及华硕低端板勿碰观念根深蒂固,所以买了映泰。外观展示映泰h110md pro定位低端入门级,matx规格,封面主题为亮瞎眼的包装
卖家帮刷的bios,发货前顺手把cpu也安好了,好处是可以尽量避免快递途中把针脚弄弯看了下主板还是很省料的,稀疏的元器件,南桥的散热片比较纤薄,但对于我这样不玩大型游戏不上显卡核显用到底的用户只要不出什么幺蛾子,板子耐用度应该问题不大
这个价位的板子基本就是3+2供电,左下4pin的供电插座
刷bios后PCI-E X16被屏蔽从而成为摆设 ,显卡只能通过x1插槽转接硬上,也就是基本不用考虑上独显了
仅有DVI+VGA输出,连起码的hdmi接口也没有,廉价板之痛
买了青鸟三散热,压住i3应该足够了
抹好硅脂,开工。因为板子布局比较紧凑,安装风扇底座时一定要注意如下图所示将正面卡扣处的朝向避开内存插槽位置,
铁打的机箱流水的三大件,安钛克这个军工风格机箱用料十足,除了丑了点没毛病,准备传家了
共计4个SATA III接口和三个usb3.0接口(一个为前置)因为懒得拆电源和硬盘,没尝试电量直接就上螺丝装机了,小板大箱的问题就是电源线经常够不到,只能飞线了
使用感受 好在一次点亮,系统安装不表,win7老用户表示win10安装还真是方便啊
操作系统自带的驱动基本可以满足需要,需要手动装的有声卡和核显驱动,注意驱动精灵或者官网下载的核显驱动安装都会出现问题,后来通过鲁大师成功安装驱动
鲁大师跑个分整机配置
8100网上正常的跑分可以达到5.2万以上,cpuz测试单核性能432分与网上接近,多核测试分数也有差距,推测魔改bios芯片的兼容性或者d3内存对cpu性能有不小的影响
硬盘用的是站里众测的金士顿HyperX Savage SSD ,详情可以看大家的测评(https://test.smzdm.com/p/2356/)总结其他跑分软件就不一一测了,不知道是不是个例,我这块刷过bios的映泰h110md板和内存至少在跑分上对cpu性能发挥有明显影响。但如果从实际感受来说,升级之后确实比之前x3 440开核+板载集显配置运行起来流畅很多,看手机拍的4k视频也不卡了,lr载入主观感觉快了很多,一千不到的价格简单升级感觉还是挺值的。作为今后过渡d4之选,满足我日常影音和上网需求,不过鉴于目前d3内存价格也在高位,这个套装仅适合手头有多余内存的人折腾。 主板没有主流的hdmi或者dp接口,DVI接口最高分辨只有1920 x 1200 @60Hz硬伤,因此不支持高分辨率的宽屏,并且目前的bios不能正常使用显卡,对游戏玩家毫无吸引力。
喜欢该文的人也喜欢

我要回帖

更多关于 兼容性视图设置在哪 的文章

 

随机推荐