Hallo, Gast |
Du musst dich registrieren bevor du auf unserer Seite Beiträge schreiben kannst.
|
Benutzer Online |
Momentan sind 223 Benutzer online » 0 Mitglieder » 220 Gäste Bing, Google, Yandex
|
|
|
Fotos in komplexe Szene einfügen-mit guter Bildqualität beweglich und renderbar |
Geschrieben von: Opa Zausel - 28.08.2024, 03:24 PM - Forum: Support
- Antworten (3)
|
|
Könnt Ihr mir bei meinem größten Problem helfen?! Vielleicht liegt es ja an meinem weit fortgeschrittenen Alter.
ICH WILL IN BLENDER 4.1. DREI BILDER IN EINE SZENE EINFÜGEN – DIE SOLLEN IM RAUM FREI BEWEGLICH UND MITSAMT DER SZENE AUCH RENDERBAR UND IN GUTER QUALITÄT SEIN.
1. Ziehe ich das Original-„Bild .png“ als „LEER“ auf meinen Schirm, erscheint es in maximaler Qualität und ist räumlich frei variabel. Nur die Frage, wie kann ich ein LEER rendern? Geht wohl nicht.
2. Füge ich es als „Mash Plane“ ein, ist es ebenfalls räumlich frei variabel. Allerdings die Qualität in der Farbbrillianz, Kontrast und Helligkeit ziemlich eingeschränkt
aber e s i s t r e n d e r b a r .
Ich will es aber in der Qualität, wie es als .png in meinem Ordner liegt und frei in der Szene beweglich und renderbar. Wie mache ich das??? Genau diesen Bedarf gibt es doch sicher häufiger, so dass die Realisierung ohne 7 Hintertüren möglich sein sollte!?
Vielen Dank für die Hilfe
O.Z.
|
|
|
blender Update von 3.6.15 auf 4.2.1 unter Linux Ubuntu 24.04 |
Geschrieben von: Seli - 22.08.2024, 08:56 PM - Forum: Support
- Antworten (2)
|
|
Hallo,
Ich bin nicht nur neu im Forum, sondern auch noch ganz neu bei dem Thema 3D.
Ich nutze Linux Ubuntu in der Version 24.04 und habe blender 3.6.15.
Jetzt habe ich gesehen das es blender 4.2.1 gibt.
Da ich mir nicht sicher bin wie das Update funktioniert, möchte ich hier um Hilfe bitten.
blender-4.2.1-linux-x64.tar.xz habe ich heruntergeladen und entpackt.
Was muss ich jetzt machen um die Version 4.2.1 zu öffnen?
Schonmal vielen Dank,
lasst euch ruhig Zeit.
Die Version 3.6.15 funktioniert ja, und damit kann ich den Kurs von Udemy auch weiterhin zum lernen nutzen.
|
|
|
VR-Brille verbinden Mac |
Geschrieben von: Heimo Mooslechner - 20.08.2024, 09:02 AM - Forum: Support
- Keine Antworten
|
|
Meine Metaquest3 kann ich recht problemlos mit Blender verbinden - am PC, auch, wenn meine PC damit an die Leistungsgrenze kommt.
Als Besitzer eines MacBook Pro M1 Max möchte ich aber dort auch Blender mit meiner Brille verbinden können. Es ist schon ein Erlebnis, in Blender selber in genau dem Modell stehen zu können, dass ich gerade am PC forme - und es ist sogar möglich, den PC-Schirm mit Blender in meine Brille zu spiegeln, so daß ich selber in meiner Szene stehe, neben mir das Blenderprogramm auf einem schwebenden Schirm dabeihabe und meine Szene, in der ich selber stehe - direkt in der Brille editieren zu können.
Dazu gibt es Tutorials auf Youtube.
zB. https://www.youtube.com/watch?v=ZrXAEsYiIyE
Man muss aber schon ein wenig "Nausea-fit" sein - grins, wenn der PC dann ruckelt..
Nachdem auch im Blender für Mac die Möglichkeit eingebaut ist, VR-Brillen zu verbinden, scheitert es nur daran, WIE ich die Verbindung der Brille mit dem MacBook Pro schaffe, denn Meta als Hersteller der Metaquest bietet mir nur eine mobile-App an, mit der ich zwar meine "Erlebnisse" auf der Brille als Film auf den Macbildschirm bringe, aber eine echte direkte Verbindung bietet mir Meta nicht an.
Gibts dazu schon irgendeine Lösung? (gilt übrigens auch für die Epic-Verbindungen wie Twinmotion. Am PC kein großes Problem, Am Mac - obwohl in Twinmotion eingebaut - keine Möglichkeit wegen fehlender "Treiber" oder so ähnlich.
|
|
|
Skydome als GLB exportieren |
Geschrieben von: Heimo Mooslechner - 16.08.2024, 06:50 PM - Forum: Support
- Antworten (6)
|
|
Ich habe nach Youtube - Tutorials in Blender einen recht "primitiven Skydome" hergestellt - mit meinem eigenen 360° Foto meiner Insta360 auf der Innenseite belegt - aber so, dass der Skydome von außen durchsichtig ist und das 360° - Bild nur auf die Innenseite projiziert wird. Ich kann das Teil auch als GLB-Format exportieren, aber die Bildeinstellung nimmt er mir dabei nicht mit - also die Einstellung der Durchsichtigkeit von außen nimmt er mit in den Export, aber das Bild taucht dann nicht auf.
in Blender schaut das dann so aus: https://www.youtube.com/watch?v=42dCHEgw2BA
https://www.dropbox.com/scl/fi/jhc8xchnh...4hyzs&dl=0
Wozu das Ganze?
Ich möchte für die Schule als Lehrer für Archicad einen simplen Weg finden, so einen Skydome für Architektur-Darstellungen mit echten eigenen Bildern der Baustelle auf meine VR-Brille zu bringen - eine Metaquest3 im Programm ARKIO, damit ich dort meine 3D-Häuser aus Archicad reinsetzten kann und in der Nähe des Hauses den Eindruck erwecken kann, dass ich mich wirklich auf dem Grundstück befinde.
https://www.arkio.is/workflow/
Ein solcher nach innen gerichteter Skydome könnte auch direkt in Archicad funktionieren.. mit entsprechender Beleuchtung vorausgesetzt, weil Archicad die einseitige Durchsichtigkeit nicht "schnupft". Aber, wenn zumindest die Form des Skydomes als Element mal drinnen ist mir dem Bild drauf wäre ich schon ziemlich zufrieden..
Ich kann natürlich die VR-Brille am Win-Rechner direkt mit Blender verbinden und dann direkt in die VR-Szene reingehen - aber mein Win-Rechner ist dazu eher zu schwach und es gibt "eine Ruckelparie" auf der Brille. Mit dem MacBookPro bekomme ich keine direkte Verbindung hin und ich will ohnehin auf der Brille direkt ohne externe Verbindung arbeiten, weil die ARKIO-APP für Gestaltung-Tätigkeit gar nicht so schlecht funktioniert..
Ich habe mir das Addon "simple baking" in den Blender nachinstalliert, aber ich bin da noch zu sehr Laie, um zu funktionierenden Ergebnissen zu kommen.
Kann mich da jemand von Euch auf den richtigen Weg führen? Grüße vom Wallersee.
|
|
|
Wie bestimmt man die zurückgelegte Strecke eines Objekts zur Laufzeit? |
Geschrieben von: udo29 - 13.08.2024, 03:59 PM - Forum: Support
- Keine Antworten
|
|
Hallo zusammen.
Gibt es eine Möglichkeit, mit Geometry Nodes die Strecke zu erfassen, die ein Objekt zurücklegt? Ähnlich wie ein Kilometerzähler im Auto während der Fahrt. Der zurückgelegte Weg/Wert soll für weitere Aktionen ausgegeben werden. Ich habe es mit "Accumulation Field" Node und dem Vector "Object Info -->Location" versucht, aber es funktioniert nicht, sobald der Location Vector negative Werte bekommt.
Eine Möglichkeit wäre, die zurückgelegte Strecke von Frame zu Frame mit dem Location Vector selbst zu berechnen und aufzusummieren. Dazu bräuchte man aber auch die Location Daten aus dem vorangegangenen Frame. Weiß jemand eine Möglichkeit, das zu tun? Ich habe leider dazu bei den Geometry Nodes nichts gefunden.
Gibt es andere Lösungsmöglichkeiten?
Danke.
|
|
|
Einhorn-Erstellung: Vom Konzept bis zur Fertigstellung |
Geschrieben von: Larry - 11.08.2024, 04:39 PM - Forum: Tutorials
- Keine Antworten
|
|
Beschreibung des YouTube-Videos:
In diesem Video zeige ich den gesamten Prozess der Erstellung eines magischen Einhorns – von der ersten Modellierung bis zum finalen Render. Zuerst habe ich das Einhorn in Substance Painter texturiert, wobei ich dem Körper eine makellose weiße Textur und der Mähne sowie dem Schweif ein lebhaftes Regenbogenmuster verliehen habe. Mit Blender's Auto-Rig Pro habe ich das Modell rigged, um natürliche Bewegungen zu ermöglichen.
Anschließend habe ich das Einhorn in einer schön gestalteten Szene platziert, in der eines seiner Vorderbeine auf einem Felsen ruht, der ein Schwert hält. Ich habe die Sonne in einen Mond verwandelt und Wolken hinzugefügt, um eine fesselnde Landschaft zu schaffen. Die richtige Beleuchtung war entscheidend, um das Einhorn und seine Umgebung hervorzuheben und die mystische Atmosphäre der Szene zu verstärken.
Genießt das Timelapse-Video des gesamten Erstellungsprozesses, und vergesst nicht, das Video zu liken, zu kommentieren und den Kanal für mehr Inhalte zu abonnieren!
Hier könnt ihr das Einhorn auf BlenderKit herunterladen:
https://www.blenderkit.com/asset-gallery...r_id:42374
Das Video ist auf Englisch aufgenommen.
|
|
|
|