noid
2004-12-08, 13:04:36
/* time example */
#include <stdio.h>
#include <time.h>
int main ()
{
time_t seconds;
seconds = time (NULL);
printf ("%ld hours since January 1, 1970", seconds/3600);
return 0;
}
kann mir einer sagen warum ich unter windows 24h mehr als unter linux herausbekomme?
wollte das eigentlich als bezugspunkt für zeitreihen nehmen, aber der 24h versatz wäre nicht ok. der programmkern soll eben auf linux und windows laufen und die daten werden zentral mit timestamps versehen. wäre nur dumm
wenn sie je nach system ein tag versetzt liegen würden.
kann ich das eleganter übergehen als herauszufinden welches system dahintersteckt und dann korrigieren?
#include <stdio.h>
#include <time.h>
int main ()
{
time_t seconds;
seconds = time (NULL);
printf ("%ld hours since January 1, 1970", seconds/3600);
return 0;
}
kann mir einer sagen warum ich unter windows 24h mehr als unter linux herausbekomme?
wollte das eigentlich als bezugspunkt für zeitreihen nehmen, aber der 24h versatz wäre nicht ok. der programmkern soll eben auf linux und windows laufen und die daten werden zentral mit timestamps versehen. wäre nur dumm
wenn sie je nach system ein tag versetzt liegen würden.
kann ich das eleganter übergehen als herauszufinden welches system dahintersteckt und dann korrigieren?