Blog Image

The next eshine telescope

Design ideas and tests for a new generation of automatic earthshine telescope

What did we learn from the first try?

Images of the New Moon from the ISS

Optics Posted on Sat, May 20, 2023 10:38:40

When danish ESA astronaut Andreas Mogensen goes to the ISS in August 2023, he will be performing science experiments for a number of groups. We are one of the groups and have suggested that images of the New Moon be obtained in order to evaluate how much scattered light is avoided when imaging the Moon from above the atmosphere.

Comparing to images taken at the same time through the atmosphere will constitute the Earth-leg of this experiment, conducted by astronomers and interested people with a camera. Communication about this possibility will be conducted through the dmi.dk site and on social media platforms.

Public images posted along with the hashtags #newmoonsnap and #huginn will be collected and evaluated. With ESA it is hoped to make the experiment international.



Some optics modelling software

Uncategorised Posted on Sun, November 13, 2022 13:34:10

PROPER for IDL (and matlab and python) https://proper-library.sourceforge.net/
POPPY for python: https://poppy-optics.readthedocs.io/en/latest/

Code V

Zeemax

OSLO



Line CCDs

CCD Posted on Sun, October 16, 2022 09:41:04

Some CCDs are not 2-dimensional, but are just a single line of sensors. Typically used for scanning devices. Here is one such. Another is here.

The first one appears to be 16 bit – but what is the readout noise, and can you get line CCDs with better than 16 bit dynamic range? Second one is an 11ish bit device?





DAVIS neuromorphic camera

CCD, Optics Posted on Fri, July 22, 2022 15:51:03

There is a type of camera where the sensor reacts to changes, not to ‘an exposure signal’. The DAVIS 346 Neuromorphic camera is one such.

Data-sheet: https://inivation.com/wp-content/uploads/2019/08/DAVIS346.pdf

Note the apparent high dynamic range of 120dB – like a 100-image stack from MLO?

Wiki: https://en.wikipedia.org/wiki/Event_camera

How can we use an ‘event-based camera’? Can the camera also be triggered from outside?



3D-printing a guided camera platform

Automation Posted on Thu, April 15, 2021 15:24:02

I am printing this: https://wiki.openastrotech.com/en/OpenAstroTracker



Some ideas

Pointing Posted on Fri, February 20, 2015 15:17:57

Small RPi-based telescope w. Canon lens in a small alt-az mount driven by steppermotors. All data access done via WiFi.

Power transfer to rotating base done via 6mm ‘stereo jack’ as axis.



Notes from HGL

Automation Posted on Thu, November 13, 2014 08:15:54

Hans worked on getting various bits of the system to move without having to use LabView, and has managed to get the FW moving using the LV system as is, to turn on power for the FW, and then using ThorLabs software and a USB cable to move the FWs from a laptop. Recall that when we use the LV software to move the filters they move – but switch to ‘something else’ right after. Hans goes on to summqrize a plan for the way forward:

Slutsatsen är att filter-hjulen fungerar att köra från Windows.
Man måste bara kunna slå på reläet i boxen. Jag vet nu
HUR man slår på strömmen, även om jag inte förstår helt
VARFÖR det fungerar.

För att komma vidare:

1) Kan man köra Uniblitz frontshutter från en PC? Jag är rätt
säker på att det går. Front-shutter triggas av en “driver” som
sitter i en av “Schroff”-boxarna. Denna triggas av att en spänning
läggs på en kontakt, vilket PXIn gör via ett relä. Men jag har
ju ett relä som styrs via USB direkt från en dator. Med rätt
spänning på finns det inget skäl att det inte skulle fungera.

2) Vad med iris-bländaren strax efter front-shuttern?
Vilket fabrikat är det: Uniblitz också? Isåfall borde det
också gå att styra från en PC.

3) Jag är ganska säker på att Andor-kameran går att köra från en
PC om vi flyttar över PCI-kortet. Men kameran triggar bländaren,
och styr-enheten till bländaren sitter i skåpet. Går det att styra
från PC? Beror på vilket fabrikat det är: också Uniblitz?

4) Styrning av fokusmekanism och knivmekanism är det mest
komplicerade. Det kan vara så att vi måste ha kvar PXIn för
att klara detta.

En lösning skulle kunna se ut så här:

1) Vi skaffar en stationär PC med PCI-kortplats, och flyttar över
styrning av mount, frontshutter, front-iris, ThorLabs-filter, och
kamera. Alltt detta utan att vi bryter upp det stora racket i delar.

2) När allt detta fungerar, så bestämmer vi om vi ska dela upp det
stora racket i delar. Steg för steg monterar vi ur PXIn, raden med
Schroff-boxar, servo-förstärkaren, Internet-switchen. Detta steg är
nog oåterkalleligt.

Förr eller senare måste vi göra oss av med skåpet. Jag tror att det
är klokt att starta nu och långsamt, steg för steg, flytta över funktioner
till en PC.

Jag har tänkt genom varför vi överhuvudtaget har en PXI
istället för en vanlig dator. LabView kan ju köra på en vanlig PC,
så det är inte det som är skälet. Jag tror att den enda anledningen
är att köra motorerna till kniv- och fokus-mekanismerna, och att
kunna få tillbaka signaler om positioner. Man har valt motorer
från National Aperture Inc. som drivs av en servo-förstärkare, som
i sin tur drivs av PXI-kortet som heter “Motion Control”.

Allt annat borde fungera från en vanlig PC. Jag tror t.o.m. att vi
kan installera LabView på en vanlig PC och kunna använda många
av funktionerna i Engineering Mode. Allt utom det som är relaterat
till motorerna går ju via helt vanliga COM-portar.



ACP

Automation Posted on Tue, November 11, 2014 15:51:26

This software to ‘automatically’ control a whole observatory exists: ACP link
It costs about $1000 and you need Maxim DL (at $200). You get support.



Next »