C ++ Raytracer - 场景中只出现一个对象

时间:2017-01-03 18:09:56

标签: c++ object scene raytracing

我正在使用光线跟踪器来渲染Sphereflake,但是我在尝试在场景中出现多个对象时遇到了麻烦。在下面的场景中,我只是试图测试场景中有两个球体,但由于某种原因,场景中只出现一个球体,通常是半径最大的球体。

另一个奇特的事情是,即使场景中有一个摄像机,似乎输出窗口总是在中心显示主要对象((0,0),屏幕坐标在[-1,-1]之间] - > [1,1])而不是与相机坐标空间相关。

我不确定它是否是父级层次结构问题或我是如何呈现对象的,但是对于问题持续存在的原因的任何见解都将非常感激。

main.cpp(创建场景渲染对象)

#include <stdio.h>
#include <iostream>
#include <vector>
#include <math.h>
#include <glm.hpp>
#include <gtc/matrix_transform.hpp> 

#include <Raytracer/Raytracer.h>

using namespace glm;
using namespace Raytracer;
using namespace Raytracer::Scenes;
using namespace Raytracer::Objects;

/**
 * Places a few spheres in the scene and adds some lights.
 *
 * @param scene The scene
 */
Scene *BuildScene(int depth, float aspect)
{
    const int materialCount = 6;

    vec3 colors[materialCount] =
    {
      vec3(1.0f, 0.0f, 0.0f),
      vec3(1.0f, 1.0f, 0.0f),
      vec3(0.0f, 1.0f, 0.0f),
      vec3(0.0f, 1.0f, 1.0f),
      vec3(0.0f, 0.0f, 1.0f),
      vec3(1.0f, 0.0f, 1.0f)
    };

    Material *materials[materialCount];

    for (int i = 0; i < materialCount; i++)
    {
        materials[i] = new Material();
        if (materials[i] == NULL)
            return NULL;

        vec3 ambient = colors[i] * 0.01f;
        materials[i]->SetAmbient(ambient);
        materials[i]->SetDiffuse(colors[i]);
        materials[i]->SetShininess(25.0f);
    }

    if (depth <= 0)
        return NULL;

    // Create the scene.
    Scene *scene = new Scene();
    if (scene == NULL)
        return NULL;

    Sphere * s1 = new Sphere(0.33f, materials[5]);
    s1->SetPosition(vec3(5.0f, 0.0f, -2.0f));
    Sphere * s2 = new Sphere(0.33f, materials[1]);
    s2->SetPosition(vec3((5.0f, 0.33f, -2.0f));

    s1->AddChild(s2);

  // Create a light.
  Light *light = new PointLight(vec3(10.0f));
  if (light == NULL)
  {
    delete scene;
    return NULL;
  }

  light->SetPosition(vec3(-5.0f, 3.0f, 2.0f));
  scene->AddChild(light);

  // Create a camera.
  Camera *camera = new Camera(vec3(-2.0f, 2.0f, 4.0f), vec3(0.0f, 0.0f, 0.0f), 
    vec3(0.0f, 1.0f, 0.0f), Camera::DefaultFov, aspect);

  scene->AddChild(s1);

  if (camera == NULL)
  {
    delete scene;
    return NULL;
  }
  scene->AddChild(camera);
  scene->SetActiveCamera(camera);

  return scene;
}

/**
 * Renders the scene and saves the result to a BMP file.
 *
 * @param fileName The name of the file
 * @param width The image width
 * @param height The image height
 */
void Render(const char *fileName, int width, int height)
{
  if (fileName == NULL || width <= 0 || height <= 0)
    return;

  SimpleRenderer renderer;

  renderer.SetAccelerator(new SimpleAccelerator());
  renderer.SetIntegrator(new PhongIntegrator());

  puts("Generiere Szene...");
  Scene *scene = BuildScene(3, (float)width / height);
  if (scene == NULL)
    return;

  puts("Rendere Bild...");
  Image *image = renderer.Render(*scene, width, height);
  if (image != NULL)
  {
    puts("Speichere Ergebnis...");
    image->SaveBMP(fileName, 2.2f);
    delete image;
  }

  delete scene;
}

/**
 * The main program
 */
int main()
{
  Render("image.bmp", 512, 512);
  return 0;
}

具有s1.radius = 0.33f & s2.radius = 0.33f

的上述两个球体的场景示例

scene 1

另一个带有s1.radius = 0.33f & s2.radius = 1.0f

的两个球体的场景示例

scene 2

正如你所看到的那样,相机作为一个透视点似乎是无效的,因为无论球体的位置是什么,唯一的区别是它的光线,但它始终位于显示窗口的中心

2 个答案:

答案 0 :(得分:0)

由于s2是作为s1的子项附加的,因此它在X轴上比s1进一步绘制了5个单位:

s2->SetPosition(vec3((5.0f, 0.33f, -2.0f));
...
s1->AddChild(s2);

因为你的相机正向下看正x轴:

Camera *camera = new Camera(vec3(-2.0f, 2.0f, 4.0f), 
    vec3(0.0f, 0.0f, 0.0f), vec3(0.0f, 1.0f, 0.0f), Camera::DefaultFov, aspect);

s2只是在s1后面绘制。

答案 1 :(得分:0)

事实证明,这不是我的场景构建器的问题,而是子/父继承如何在另一个类SceneObject*中工作。无论如何,我修复了AddChild函数,现在代码现在可以使用摄像机视角和场景中的多个项目