求图,3D,非景物,类似下图【要2K图,如果是4K图,一张加10财富!】

足球趣图:来自西班牙的姑娘Conz Preti照了一张照片,发现投射在墙上的阴影像极了梅西的侧脸
发布: 13:00:07作者:搜达足球
【足球趣图】来自西班牙的姑娘Conz Preti照了一张照片,发现投射在墙上的阴影像极了梅西的侧脸[吃惊]。那么阴影面积为多少?Y
大家都在看
48小时点击榜
Copyright (C)
Inc. All Rights Reserved.
上海看看牛视网络传播有限公司 版权所有苹果新总部设计效果图
16:25:51来源:本站原创
编辑:Sheryl浏览: 次
  苹果库比提诺新总部Apple Campus 2设计图
  一直有苹果想扩大美国总部的传言,不过这次一系列的设计草图都已曝光。而草图因为太多,所以不得不发一个合集出来,所有的图片包含在四个PDF文件里。据称苹果的未来总部的占地面积将达到280万平方尺,并会命名为Apple Campus 2。只是不知道如此规模的总部何时才能完成&&&&&&(本文来源于网络转载、飞鸟博客及上帝之眼独家配图文字解说)
苹果库比提诺新总部Apple Campus 2设计图(点击可查看大图)
苹果新总部(Apple Campus 2)效果图
  Apple新总部类似&飞船&般外形的设计,也早被曝光。最新的消息是,Cupertino 市政府正在审议这座4层高、采用全玻璃幕墙设计、可容纳最多13,000名员工的新苹果总部&&第一步就是要进行环评报告,评估新大楼对该新区未来的交通、噪音、空气质素有多大影响,以及容让公众对此发展项目提出意见。最后经过由发展委员会及市政府召开的发展评估及公开听证会,如果一切顺利,就可以正式动工。
用卫星地图作为环境底图,规划新总部的各个区域范围
卫星地图分析 苹果新总部位置现状
苹果新总部建成后的卫星效果图
苹果新总部建设前后的绿化状况对比?
第1页:苹果新总部设计效果图
关键词阅读
卫星类型: 对地观测所属国家: 美国分辨率: 0.5米
谷歌地球变谷歌黑洞啦~!从昨日中午起就有论坛007
世界地图的基本构架形成于16&18世纪,后来就无大
虽然历史和法理依据均证明,南沙群岛的主权毫无疑
文昌航天发射中心位于中国海南省文昌市附近约北纬
我叔叔有个工厂,所以养了十几条狗看家护院。有外
南沙群岛自古以来就是中国领土的一部分,而,随着
3月8日,一年一度的国际妇女节,特别的是,今年的
心心念念&无网亦可用&的离线地图终于正式上线了
 2月25日,由折扣网站&爱折客&牵头组织、部分
近日,多个Google 在国内的Hosts的IP地址都失效站点地图 - CG资源网
CG资源网'的站点地图
Powered by求一张规格为189*272像素的小于40K的JPG图片。。先给10财富,如采纳,追加30!_百度知道
求一张规格为189*272像素的小于40K的JPG图片。。先给10财富,如采纳,追加30!
我写的小说还没有封面,是本杀手穿越古代的言情小说。书名;倾城杀手独魅天下作者;陌恋殇简介;雨墨千绝 旷世双将 帝王之爱 何真何假 看她如何独魅天下·········规格;189*272像素的小于40K的JPG图片风格;古风,封面上有一个古代绝色美女就行,另加些小小的装饰。
提问者采纳
能不能加上书名作者之类的。。
不合适的话,说说意图,我再修改。&您的提问收到新回答,请及时查阅。满意请采纳& (づ ̄3 ̄)づ& !本次回答由 【单反摄影】团队★副团长★【xzcz2011】 提供在此感谢所使用的相关素材的提供者。
提问者评价
其他类似问题
为您推荐:
其他1条回答
你要古代绝色美女的图吗,要加什么装饰啊,要不你选好图我帮你搞定规格和大小。
jpg图片的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁3301人阅读
1. 数学分析
前面我们已经把预先想到的可能会用到的数学工具都封装好了,从这篇开始,应该很少出现一大篇都是数学推导的了,终于看见光明了,这次我们将开始第一个3D程序的编写,所以题目就叫Hello3DWorld吧。
0) 3D程序的本质
很多书都会先介绍&3D流水线&的词,但其实明白3D程序的人一下子就知道这是什么,而不了解的人看了这个词也没有意义。其实我也觉得没什么特殊意义,因为所有计算机程序都是一个一个流程执行下来的,不全都是某某流水线么。简单来说,3D流水线就是,从在计算机中表示三维世界的数据,到绘制到计算机2D屏幕上的整个过程。
3D流水线的子过程有很多,都列出来只能让人更迷惑,还是举个例子说个简单的情况吧:
(1) 首先,你的3D游戏什么也没有,只有一个空空的世界,它除了有X,Y,Z三个坐标以外,什么也没有。
(2) 你的手里有一个金字塔,如果在计算机中表示,则金字塔有自己的一套X,Y,Z坐标系,还有金字塔的四个尖端(顶点)在金字塔坐标系中的坐标。
(3) 你需要把金字塔放在游戏世界中,于是需要建立一个关系&&金字塔坐标系中的原点,在游戏世界中的坐标是什么。
(4) 一旦这个关系找到了,就可以把金字塔的所有顶点都移动到游戏世界中去。
(5) 东西都放好了,怎么显示这个3D世界呢?不妨以我们自己来做例子,我们生活在三维世界中,我们看到的东西,就是要显示的东西。所以在游戏世界中,我们也需要一个类似眼睛的东西,我们管它叫另外一个名字&&相机。
(6) 相机在游戏世界中,就好象我们人在现实世界中。人的位置不同、看的方向不同,那么眼睛里的景色也不同。所以,在游戏世界里,我们要给这个相机设置坐标,还有它的朝向,这样才能确定看到什么景色。
(7) 现在相机所看的是一个锥形的3D世界,锥形的尖的位置就是相机的坐标,锥形的底面积随着相机朝向的方向越来越大。
(8) 最后,我们把这个锥体内的景色都投影到一个2D平面上,并放在计算机屏幕上显示。
下面来对上面说的步骤分开详细说明。
1) 物体局部坐标-&世界坐标
一张图足以说明:
我们只要把物体的顶点的坐标的X,Y,Z都加上物体系原点在世界系下的坐标(0,0,5),就可以得到物体的各顶点在世界系下的坐标了。
2) 世界坐标-&相机坐标
下图展示了上面所说的视景椎体和相机在游戏世界中的作用,注意该图是俯视2D图,方便理解。还有这个物体和上图的金字塔不是一回事,这是一个普遍的物体和相机,坐标都是很随意的,没有上面的那么特殊。
如上图,其实对于画在计算机屏幕上的目的而言,只有视景椎体内(屏幕后面的其实也没有用)的物体我们才关心,而且我们也实际上不关心物体在世界中的坐标,而只关心物体透视在屏幕上是什么坐标。这就引出了相机坐标系的概念,为了方便透视的运算,我们将建立相机坐标系,其中原点就是相机的位置,相机的朝向固定为正Z轴的方向,如下图:
这样,我们在做透视投影时如果知道了物体在相机坐标系下的坐标,透视运算将会非常的容易,这个下面会说到,现在我们先把物体挪过来吧。如下图所示,需要做两步操作:
经过上述两部,物体的坐标就从世界坐标系转化到了相机坐标系中。这里要注意,我是将物体和相机一起移动到原点,这是因为要保持相机视景椎体内的景色不变,在相机移动到原点之后,相机在相机系的坐标就是(0,0,0),朝向就是正Z轴,所以对相机不需要运算。需要运算的只有物体的顶点坐标,要算两次,一次是平移,一次是旋转。
(1) 物体平移到相机系
很显然,相机移动了多少,物体就移动了多少。所以我们要求一个(dx, dy, dz),使得相机的坐标和这个(dx, dy, dz)相加为(0, 0, 0),这样,我们只需要把物体的坐标与这个(dx, dy, dz)相加,也就能求得物体在相机系下的坐标了。
我们设相机在世界系下的坐标为(cx, cy, cz),那么(dx, dy, dz)是多少呢?还用我说么。。。当然是(-cx, -cy, -cz)了。
所以,我们只要把物体在世界系下的坐标wx, wy, wz,分别减去相机在世界系下的坐标cx, cy, cz就好了,OK完成。
(2) 物体随相机旋转
说到这里有点郁闷,因为之前没有介绍向量与矩阵的转化和矩阵的几何意义,但在这个小节来做这个完整的推导只能让人更迷惑,所以对旋转矩阵的推导就作为下一篇的内容吧,这里先给出结果:
物体绕X、Y、Z轴分别旋转的变换矩阵:
Rx(theta) =
0 cos(theta) sin(theta)
0 -sin(theta) cos(theta)
Ry(theta) =
cos(theta) 0 -sin(theta)
sin(theta) 0 cos(theta)
Rz(theta) =
cos(theta) sin(theta) 0
-sin(theta) cos(theta) 0
只要用一个点向量乘以这个变换矩阵,得到的结果向量就是绕对应轴旋转theta度后的点向量了。
要注意的是,上面的矩阵都是物体旋转的矩阵,可是我们现在已知的是相机的朝向,所以在把物体转到相机系的过程中,物体顶点绕各个轴旋转的角度是和现在已知的相机朝向相反的,所以物体世界坐标-&相机坐标的旋转过程要使用-theta代入到上面的矩阵中去才是正确的。
3) 透视投影
经过上面的操作,现在只差一步了,把视景椎体中的物体顶点透视投影到屏幕2D平面上来。其实特别简单,如下图:
这里又是个俯视2D图,可以清楚的看到这个三角形的三个顶点是如何透视投影到屏幕上的。
下面的图则表明了透视后的点的X坐标怎么算:
点P就是物体的某一个顶点,因为这个图是沿Y轴负方向俯视下来的,所以Y坐标在这里都无法显示,但因为Y与X的推导原理相同,所以只看这里的X,我们就可以得到结论。
投影后的点为P',所以所求的x'就是线段AP,根据相似三角形的原理,可以非常容易得出:
AP'&: BP = OA&: OB
所以AP' = OA * BP / OB
好了,我们把坐标代进来吧:
x' = 视距 * x / z
如果我们将视距设置为1,那么x' = x / z,简单吧,而且整个视野内的物体的X坐标都将在[-1 , 1]这个范围内。
同理,y' = y / z。
4) 屏幕变换
就差最后一步了,我们现在x的范围是[-1, 1],y的范围也是[-1, 1],但是计算机屏幕的分辨率是800 * 600 (随便举个例子),怎么转换呢?
先把负数去掉吧,我们给X和Y坐标都先加个1,于是范围就变成了[0, 2]了。
离终点很近了,我们再把X坐标乘以400,范围不就是[0, 800]了么。OK,X坐标解决了。
现在是Y坐标,你想把它乘以600?那你就想错了。还记得我们的相机拍下了什么吗?我们的相机拍出的照片是正方形的,但是现在你要把他完整的放在一个4:3的屏幕上,那里面的人不就被压扁了么?
这就和CCTV是一个道理,现在大家电视机都是16:9的,他还非要放4:3的视频源,现在看新闻,主持人全都是胖子了。
我们不能像他们一样愚蠢(开玩笑啦,CCTV也有自己的苦衷),所以我们要让Y坐标也放大400,这样的图像才是还原的照片。但是问题就来了,现在我们的图像是800 * 800,怎么显示在800 * 600的屏幕上呢?
中国移动给了我们一个好答案&&剪卡!如果SIM卡装不进去IPHONE,我们就把它剪了。
那么我们不要上面的100和下面的100了,~~OK,这不就变成800 * 600了么。
看下图一看便知~:
其实有更好的方法解决这个问题,就是给相机分别定义垂直、水平的视野,这样投影屏幕就有了宽高比的概念,这个我想以后在封装相机操作的时候再优化了,现在我们先用这种最易理解的方式来吧:)
2. 代码实现
1) 首先,我们定义几个数据结构用来表示我们的金字塔。
我们都知道3D物体在计算机中是用一个个多边形来表示的,其实所说的多边形就是三角形,每个三角形都有三个顶点,但是如果用这些三角形来表示金字塔的的话,就是4个面&每个面的3个顶点,一共是12个顶点,然而实际呢?一个金字塔就只有4个顶点和4个三角形,这些三角形有共用顶点的情况存在,所以我们定义一个顶点数组来保存这4个顶点,并且每个三角形都有一个长度为3的整型数组来保存它自己的三个顶点的索引。
typedef struct POLY_TYPE // 多边形(三角形),通过顶点列表和索引描述
POINT4D_PTR VertexL // 顶点列表的指针
int VertexIndexs[3]; // 顶点在列表中的索引
} POLY, *POLY_PTR;
对于物体,需要保存组成该物体的POLY(三角形)的数组,还需要物体原点在世界系下的坐标:
typedef struct OBJECT_TYPE // 物体
POINT4D WorldP // 世界坐标
int VertexC // 顶点数
POINT4D VertexListLocal[OBJECT_MAX_VERTICES]; // 物体顶点局部坐标数组
POINT4D VertexListTrans[OBJECT_MAX_VERTICES]; // 物体顶点变换后坐标数组
int PolyC // 多边形数
POLY PolyList[OBJECT_MAX_POLYS]; // 多边形数组
} OBJECT, *OBJECT_PTR;
您会发现我用了两个数组,我希望永远保留一份物体在执行变换前的局部顶点数据,如果只存一份的话,变换后将会覆盖掉,那么我们就无法根据最初的状态来执行其他变换了。
这里我还用了一个简单的相机结构来保存相机的世界坐标和朝向:
typedef struct CAMERA_TYPE // 相机
POINT4D WorldP // 相机在世界的坐标
double AngelX, AngelY, AngleZ; // 相机的朝向,使用绕X,Y,Z轴分别转多少度来表示
} CAMERA, *CAMERA_PTR;
2) 现在写上面分析中介绍的那3步的三个函数,有了理论基础,实现总是那么随意而又简单:
void _CPPYIN_3DLib::ObjectWorldTransform(OBJECT_PTR obj) // 物体世界变换,使用VertexListLocal作为顶点数据源,顶点变换结果存放在VertexListTrans中
for (int i = 0; i & obj-&VertexC ++i)
VectorAdd(&(obj-&VertexListLocal[i]), &(obj-&WorldPos), &(obj-&VertexListTrans[i]));
void _CPPYIN_3DLib::ObjectCameraTransform(OBJECT_PTR obj, CAMERA_PTR camera) // 物体相机变换,使用VertexListTrans作为顶点数据源,顶点变换结果更新在VertexListTrans中
// 先根据相机坐标平移物体,创建相机平移矩阵,再求逆获得物体的平移矩阵
MATRIX4X4 cameraMoveMatrix, objMoveM
BuildMoveMatrix(&(camera-&WorldPos), &cameraMoveMatrix);
MatrixInverse(&cameraMoveMatrix, &objMoveMatrix);
// 创建物体在相机变换中的旋转矩阵,其实就是物体旋转矩阵,但因为是相对于相机的,所以角度取负
MATRIX4X4 objRotateXMatrix = {
1, 0, 0, 0,
0, FastCos(-camera-&AngelX), FastSin(-camera-&AngelX), 0,
0, -FastSin(-camera-&AngelX), FastCos(-camera-&AngelX), 0,
0, 0, 0, 1
MATRIX4X4 objRotateYMatrix = {
FastCos(-camera-&AngelY), 0, -FastSin(-camera-&AngelY), 0,
0, 1, 0, 0,
FastSin(-camera-&AngelY), 0, FastCos(-camera-&AngelY), 0,
0, 0, 0, 1
MATRIX4X4 objRotateZMatrix = {
FastCos(-camera-&AngleZ), FastSin(-camera-&AngleZ), 0, 0,
-FastSin(-camera-&AngleZ), FastCos(-camera-&AngleZ), 0, 0,
0, 0, 1, 0,
0, 0, 0, 1
// 将这4个矩阵相乘合并为相机变换矩阵mt
MATRIX4X4 m1, m2,
MatrixMul(&objMoveMatrix, &objRotateYMatrix, &m1);
MatrixMul(&m1, &objRotateXMatrix, &m2);
MatrixMul(&m2, &objRotateZMatrix, &mt);
// 执行物体变换
ObjectTransform(obj, &mt, RENDER_TRANSFORM_TRANS, 0);
void _CPPYIN_3DLib::ObjectProjectTransform(OBJECT_PTR obj) // 透视变换,将3D坐标透视为2D坐标,结果为x取值为(-1,1),Y取值为(-1, 1)
for (int i = 0; i & obj-&VertexC ++i)
obj-&VertexListTrans[i].x = obj-&VertexListTrans[i].x / obj-&VertexListTrans[i].z;
obj-&VertexListTrans[i].y = obj-&VertexListTrans[i].y
/ obj-&VertexListTrans[i].z;
3) 一个金字塔旋转的DEMO
有了上面的函数,我们可以构建一个金字塔,放置一个相机。先定义它们的数据存储:
POINT4D g_VertexList[4]; // 顶点数组
POLY g_Poly[4]; // 平面数组
OBJECT g_O // 金字塔
CAMERA g_C // 相机
int g_ObjRatationAngelZ = 0; // 金字塔旋转的角度,逐渐增加
在游戏初始化时,把他们的值设置好:
// 设置局部坐标
POINT4D v1 = { 0, 1, 0, 1 };
POINT4D v2 = { -1, -1, 0, 1 };
POINT4D v3 = { 1, -1, 0, 1 };
POINT4D v4 = { 0, 0, 2, 1 };
g_VertexList[0] = v1;
g_VertexList[1] = v2;
g_VertexList[2] = v3;
g_VertexList[3] = v4;
g_Poly[0].VertexList = g_VertexL
g_Poly[0].VertexIndexs[0] = 0;
g_Poly[0].VertexIndexs[1] = 1;
g_Poly[0].VertexIndexs[2] = 2;
g_Poly[1].VertexList = g_VertexL
g_Poly[1].VertexIndexs[0] = 3;
g_Poly[1].VertexIndexs[1] = 1;
g_Poly[1].VertexIndexs[2] = 2;
g_Poly[2].VertexList = g_VertexL
g_Poly[2].VertexIndexs[0] = 0;
g_Poly[2].VertexIndexs[1] = 3;
g_Poly[2].VertexIndexs[2] = 2;
g_Poly[3].VertexList = g_VertexL
g_Poly[3].VertexIndexs[0] = 0;
g_Poly[3].VertexIndexs[1] = 1;
g_Poly[3].VertexIndexs[2] = 3;
// 设置物体属性
g_Obj.PolyCount = 4;
g_Obj.PolyList[0] = g_Poly[0];
g_Obj.PolyList[1] = g_Poly[1];
g_Obj.PolyList[2] = g_Poly[2];
g_Obj.PolyList[3] = g_Poly[3];
g_Obj.VertexCount = 4;
g_Obj.VertexListLocal[0] = g_VertexList[0];
g_Obj.VertexListLocal[1] = g_VertexList[1];
g_Obj.VertexListLocal[2] = g_VertexList[2];
g_Obj.VertexListLocal[3] = g_VertexList[3];
POINT4D wp = { 0, 0, 5, 1 };
g_Obj.WorldPos =
// 设置相机
POINT4D cwp = { 0, 0, -1, 1 };
g_Camera.WorldPos =
g_Camera.AngelX = 0;
g_Camera.AngelY = 0;
g_Camera.AngleZ = 0;
在游戏核心逻辑的地方,每次把角度转1度,当到了360度时,再变成0度,然后进行3个变换,生成屏幕坐标系下的4个顶点:
// 世界变换
ObjectWorldTransform(&g_Obj);
// 每次旋转一下物体
++g_ObjRatationAngelZ;
if (g_ObjRatationAngelZ &= 360)
g_ObjRatationAngelZ = 0;
MATRIX4X4 objRotateZMatrix = {
FastCos(g_ObjRatationAngelZ), FastSin(g_ObjRatationAngelZ), 0, 0,
-FastSin(g_ObjRatationAngelZ), FastCos(g_ObjRatationAngelZ), 0, 0,
0, 0, 1, 0,
0, 0, 0, 1
ObjectTransform(&g_Obj, &objRotateZMatrix, RENDER_TRANSFORM_TRANS, 0);
// 相机变换
ObjectCameraTransform(&g_Obj, &g_Camera);
// 投影变换
ObjectProjectTransform(&g_Obj);
// 放大到屏幕上
for (int i = 0; i & 4; ++i)
g_Obj.VertexListTrans[i].x *= SCREEN_WIDTH;
g_Obj.VertexListTrans[i].x += (SCREEN_WIDTH / 2);
g_Obj.VertexListTrans[i].y *= SCREEN_WIDTH;
g_Obj.VertexListTrans[i].y += (SCREEN_WIDTH / 2) - 100;
最后,把这4个点用之前我们写的Bresenham光栅化直线函数画出直线。这里我通过修改以前的函数写了一个画虚线的函数,然后把背面的三根直线画成了虚线:
// 绘制物体
DWORD color = ARGB(0,255,0,255);
DrawLine(g_Obj.VertexListTrans[0].x, g_Obj.VertexListTrans[0].y, g_Obj.VertexListTrans[1].x, g_Obj.VertexListTrans[1].y, color);
DrawLine(g_Obj.VertexListTrans[1].x, g_Obj.VertexListTrans[1].y, g_Obj.VertexListTrans[2].x, g_Obj.VertexListTrans[2].y, color);
DrawLine(g_Obj.VertexListTrans[2].x, g_Obj.VertexListTrans[2].y, g_Obj.VertexListTrans[0].x, g_Obj.VertexListTrans[0].y, color);
DrawVirtualLine(g_Obj.VertexListTrans[0].x, g_Obj.VertexListTrans[0].y, g_Obj.VertexListTrans[3].x, g_Obj.VertexListTrans[3].y, color, 5);
DrawVirtualLine(g_Obj.VertexListTrans[1].x, g_Obj.VertexListTrans[1].y, g_Obj.VertexListTrans[3].x, g_Obj.VertexListTrans[3].y, color, 5);
DrawVirtualLine(g_Obj.VertexListTrans[2].x, g_Obj.VertexListTrans[2].y, g_Obj.VertexListTrans[3].x, g_Obj.VertexListTrans[3].y, color, 5);
&OK,都完成了。
3. 源码下载
这次的DEMO截图如下:
完整项目下载地址:&&&&
4. 补充内容
我们有太多的东西没有做了,主要有几个方面:
1) 从文件中读取3D数据,而不是我们手动来写。比如从3ds max的.3ds中读入数据。
2) 将世界中不在视景椎体中的物体移除掉,不对他们进行变换,浪费计算。
3) 视景椎体中太远和太近的东西,我们也不要。
4) 一半在椎体中,一半在锥体外的物体,我们要进行裁剪。
5) 我们的相机过于简单了,而且还有Gimbol lock问题,不过这个DEMO中可以达到要求了。
6) 光照处理
7) 消除背面没用的多边形
但不要着急,我们已经看到了第一个收获,一个可以随意修改的半成品线框渲染引擎和一个示例。
版权声明:本文为博主原创文章,未经博主允许不得转载。
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:188190次
积分:2287
积分:2287
排名:第8607名
原创:38篇
评论:282条
(10)(18)(9)(3)}

我要回帖

更多关于 2k与4k的区别 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信